Dass Chatbots mitunter halluzinieren und Fake-Informationen einfach erfinden ist nicht neu. Ein Norweger hat ChatGPT nach Informationen zu seiner Person befragt und daraufhin eine Fake-Story erhalten, die ihn als verurteilten Mörder darstellt. Nun legen Datenschützer Beschwerde dagegen ein, dass OpenAI es zulässt, dass ChatGPT diffamierende Ergebnisse produziert. Ein schwieriger Fall.