30.10.2024 11:27 Uhr, Quelle: golem
KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst
Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen. (ChatGPT, KI)
Weiterlesen bei golem
JustMac.info