Dass generative KI-Systeme wie ChatGPT, Microsofts Bing-Chat und Google Bard skurrile bis falsche Antworten präsentierten, ist bekannt. Das Phänomen ist den Systemen inhärent und wird als Halluzinieren bezeichnet – die KI-Helfer erfinden Fakten. OpenAI präsentiert nun potenzielle Lösungsansätze.