30.03.2025 08:36 Uhr, Quelle: Heise
Neuer LLM-Jailbreak: Psychologe nutzt Gaslighting gegen KI-Filter
Von "Gaslighting" spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.
Weiterlesen bei Heise