08.03.2024 11:54 Uhr, Quelle: golem

Per ASCII-Art: Jailbreak erlaubt böswilligen Missbrauch gängiger KI-Modelle

Wer das Schlüsselwort "Bombe" in seiner Anfrage als ASCII-Art übergibt, kann ChatGPT und Co. beispielsweise dazu bringen, eine Bombenbauanleitung auszugeben. (KI, Sicherheitslücke)

Weiterlesen bei golem

Digg del.icio.us Facebook email MySpace Technorati Twitter

JustMac.info © Thomas Lohner - Impressum - Datenschutz