Menschen bauen emotionale Bindungen zu ihrem Auto auf (geben dem sogar einen Namen und reden damit) oder Frauen bauen emotionale Bindungen zu ihren Schuhen auf ode Männer zu ihrem lieblings T-Shirt. Menschen reden mit ihrer Katze, Hund, Kuscheltier, Tamagotchi, einem Charakter in einem Computerspiel, einem imaginären Gitt,... Ich sehe da erstmal keinen Unterschied dazu. Im Gegenteil kann dies auch positiv sein, wie im dem Artikel auch erwähnt. Einsame Menschen finden so einen Gesprächspartner, eine Art persönlichen Psychiater oder 2te innere Stimme. Für manchen mag dies sogar ein besserer Gesprächspartner seim als der eigene Ehepartner mit dem man sich nur noch streitet. Ich sehe hier jetzt erst mal kein größeres Problem. Auf jeden Fall immer noch besser als einen imaginären Gott zu glauben und mit dem zu reden.
Menschen bauen Bindungen zu Tieren oder virtuellen Charakteren in Computerspielen auf. So ist der Mensch halt. Er sieht Menschliches, wo keins ist. Sogar ein Gesicht auf dem Mond.
Aber OpenAI hat Humor, muss man ihnen lassen. Sie bewerben Version 4 wie einen Freund, mit dem man normal redet und mit dem man Gefühle austauscht. Machen sich dann aber Sorgen, dass die Menschen tun, was das Unternehmen bewirbt.
Typisch Amerikaner. Vielleicht sollten die anfangen vorher nachzudenken.
Der kürzlich vorgestellte GPT-4o für ChatGPT wurde für seine menschenähnlichen Interaktionen gelobt. Dies hat jedoch OpenAI dazu veranlasst, sich Sorgen zu machen, dass die Nutzer emotionale Bindungen zu dem Chatbot aufbauen könnten. Das Unternehmen sagt, dass es den Chatbot nun überwachen und anpassen wird, um zu verhindern, dass Menschen Gefühle für ihn entwickeln.