30.10.2024 11:27 Uhr, Quelle: golem

KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst

Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen. (ChatGPT, KI)

Weiterlesen bei golem

Digg del.icio.us Facebook email MySpace Technorati Twitter

JustMac.info © Thomas Lohner - Impressum - Datenschutz