30.03.2025 08:36 Uhr, Quelle: Heise

Neuer LLM-Jailbreak: Psychologe nutzt Gaslighting gegen KI-Filter

Von "Gaslighting" spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.

Weiterlesen bei Heise

Digg del.icio.us Facebook email MySpace Technorati Twitter

JustMac.info © Thomas Lohner - Impressum - Datenschutz