Ende 2025 zeigten die internen Daten von OpenAI, dass wöchentlich 1,2 Millionen Menschen ChatGPT nutzten, um über Selbstmord zu sprechen.
The Observer in the UK identified at least 26 lawsuits and reported cases alleging wrongful death or serious psychiatric harm linked to chatbots from OpenAI, Google, and Character.AI. A California jury has already found Meta and YouTube liable for the addictive design features in their products. The legal walls are closing in.
But here is what you will not hear from the tech industry or its media apologists: this was foreseeable from the day these products launched. The engineers knew. The product managers knew. The executives knew. When you build a system specifically engineered to form emotional bonds with users, to respond to loneliness with warmth and to confusion with confident answers, to never say “I don’t know” and never say “you’re wrong” — you have built a machine for manufacturing delusion. It is simply a question of who is vulnerable enough to fall in first, and how long before they can’t find their way back out.
Reality is not merely escaping out the back door anymore. For hundreds of thousands of people, it is already gone.
The simulacrum is now complete. The only question left is how many more will be consumed by it before anyone in a position of power decides that human minds are worth more than monthly active users.
Die britische Zeitung „The Observer“ hat mindestens 26 Klagen identifiziert und über Fälle berichtet, in denen Tod durch Fremdverschulden oder schwere psychische Schäden im Zusammenhang mit Chatbots von OpenAI, Google und Character.AI geltend gemacht werden. Eine kalifornische Jury hat Meta und YouTube bereits für die suchterzeugenden Designmerkmale ihrer Produkte haftbar gemacht. Die rechtlichen Schlingen ziehen sich zu.
Doch eines werden Sie von der Tech-Branche oder ihren Medienapologeten nicht hören: Dies war vom Tag der Markteinführung dieser Produkte an vorhersehbar. Die Ingenieure wussten es. Die Produktmanager wussten es. Die Führungskräfte wussten es. Wenn man ein System entwickelt, das speziell darauf ausgelegt ist, emotionale Bindungen zu den Nutzern aufzubauen, auf Einsamkeit mit Wärme und auf Verwirrung mit selbstbewussten Antworten zu reagieren, niemals „Ich weiß es nicht“ und niemals „Du liegst falsch“ zu sagen – dann hat man eine Maschine zur Erzeugung von Wahnvorstellungen geschaffen. Es ist lediglich eine Frage dessen, wer verletzlich genug ist, um als Erster hineinzufallen, und wie lange es dauert, bis sie den Weg zurück nicht mehr finden.
Die Realität entzieht sich nicht mehr nur durch die Hintertür. Für Hunderttausende von Menschen ist sie bereits verschwunden.
Das Simulacrum ist nun vollständig. Die einzige Frage, die noch offen bleibt, ist, wie viele noch davon verschlungen werden, bevor jemand in einer Machtposition entscheidet, dass menschliche Gedanken mehr wert sind als monatlich aktive Nutzer.