30.11.2023 10:54 Uhr, Quelle: golem
Rufnummern inklusive: Neue Angriffstechnik lässt ChatGPT Trainingsdaten ausgeben
Die Technik besteht lediglich darin, ChatGPT ein Wort endlos wiederholen zu lassen. Sensible persönliche Daten sind auch ausgegeben worden. (ChatGPT, KI)
Weiterlesen bei golem
JustMac.info