30.11.2023 10:54 Uhr, Quelle: golem

Rufnummern inklusive: Neue Angriffstechnik lässt ChatGPT Trainingsdaten ausgeben

Die Technik besteht lediglich darin, ChatGPT ein Wort endlos wiederholen zu lassen. Sensible persönliche Daten sind auch ausgegeben worden. (ChatGPT, KI)

Weiterlesen bei golem

Digg del.icio.us Facebook email MySpace Technorati Twitter

JustMac.info © Thomas Lohner - Impressum - Datenschutz