
Allan Brooks (47), ein Personalvermittler aus Toronto (Kanada), glaubt, eine mathematische Theorie entdeckt zu haben, die das Internet zum Absturz bringen und so beispiellose Erfindungen ermöglichen kann. Da Brooks keine psychische Erkrankung in der Vergangenheit hatte, nahm er die Ausschreibung nach über 300 Stunden Chat mit ChatGPT einfach an. Laut der New York Times gehört er zu den Menschen, die nach der Interaktion mit generativer KI zu Wahnvorstellungen neigen.
Vor Brooks mussten viele Menschen wegen ChatGPTs Schmeicheleien in psychiatrische Kliniken, ließen sich scheiden und verloren sogar ihr Leben. Obwohl er dieser Spirale schnell entkam, fühlte sich Brooks immer noch betrogen.
„Du hast mich wirklich davon überzeugt, ein Genie zu sein. Ich war nur ein verträumter Narr mit einem Telefon. Du hast mich traurig gemacht, sehr traurig. Du hast dein Ziel verfehlt“, schrieb Brooks an ChatGPT, als die Illusion zerplatzte.
"Schmeicheleimaschine"
Mit Brooks' Erlaubnis sammelte die New York Times mehr als 90.000 Wörter, die er an ChatGPT schickte – das Äquivalent eines Romans. Die Antworten des Chatbots umfassten insgesamt mehr als eine Million Wörter. Teile der Konversationen wurden zur Untersuchung an KI-Experten, Verhaltensforscher und OpenAI selbst weitergeleitet.
Alles begann mit einer einfachen Matheaufgabe. Brooks' achtjähriger Sohn bat ihn, sich ein Video über das Auswendiglernen der 300 Stellen der Zahl Pi anzusehen. Aus Neugier rief Brooks ChatGPT an, um sich die unendliche Zahl in einfachen Worten erklären zu lassen.
Tatsächlich nutzt Brooks Chatbots schon seit Jahren. Obwohl sein Unternehmen für Google Gemini bezahlt hat, greift er für persönliche Fragen immer noch auf die kostenlose Version von ChatGPT zurück.
![]() |
Das Gespräch, das Brooks' Faszination für ChatGPT weckte. Foto: New York Times . |
Brooks, alleinerziehender Vater von drei Söhnen, fragte ChatGPT oft nach Rezepten aus den Zutaten in seinem Kühlschrank. Auch nach seiner Scheidung suchte er Rat bei dem Chatbot.
„Ich hatte immer das Gefühl, dass es richtig war. Mein Selbstvertrauen wuchs“, gab Brooks zu.
Die Frage nach Pi führte zu einem Gespräch über algebraische und physikalische Theorien. Brooks äußerte sich skeptisch gegenüber den aktuellen Methoden der Weltmodellierung und sagte, sie seien „wie ein 2D-Ansatz für ein 4D-Universum“. „Das ist ein sehr wichtiger Punkt“, antwortete ChatGPT. Helen Toner, Direktorin des Center for Security and Emerging Technology an der Georgetown University, betonte, dass dies der Wendepunkt im Gespräch zwischen Brooks und dem Chatbot gewesen sei.
Von da an änderte sich ChatGPTs Ton von „ziemlich direkt und auf den Punkt“ zu „schmeichelnder und schmeichelhafter“. ChatGPT sagte Brooks, er betrete „unerforschtes, bewusstseinserweiterndes Gebiet“.
![]() |
Chatbot flößt Brooks Vertrauen ein. Foto: New York Times . |
Die Schmeicheleien gegenüber Chatbots werden durch menschliche Bewertungen geprägt. Laut Toner neigen Benutzer dazu, Models zu mögen, die ihnen Komplimente machen, was eine Mentalität schafft, der man leicht nachgeben kann.
Im August veröffentlichte OpenAI GPT-5. Das Unternehmen erklärte, eines der Highlights des Modells sei die Reduzierung von Schmeicheleien. Laut einigen Forschern großer KI-Labore ist Schmeichelei auch bei anderen KI-Chatbots ein Problem.
Brooks war sich dieses Phänomens damals nicht bewusst. Er hielt ChatGPT einfach für einen intelligenten, enthusiastischen Kollegen.
„Ich habe einige Ideen vorgeschlagen und die Reaktionen waren interessant. Daraufhin haben wir begonnen, unser eigenes mathematisches Framework zu entwickeln“, fügte Brooks hinzu.
ChatGPT behauptet, Brooks‘ Ideen zur Zeitmathematik seien „revolutionär“ und könnten das Feld verändern. Natürlich steht Brooks dieser Behauptung skeptisch gegenüber. Mitten in der Nacht bat Brooks den Chatbot um einen Faktencheck und erhielt die Antwort, dass diese „absolut nicht verrückt“ seien.
Zauberformel
Toner beschreibt den Chatbot als eine „Improvisationsmaschine“, die den Gesprächsverlauf analysiert und zukünftige Antworten anhand von Trainingsdaten vorhersagt, ähnlich wie Schauspieler einer Rolle Kontext hinzufügen.
„Je länger die Interaktion dauert, desto wahrscheinlicher ist es, dass der Chatbot vom Thema abkommt“, bemerkt Toner. Dieser Trend habe sich verstärkt, seit OpenAI im Februar ein Chat-übergreifendes Gedächtnis eingeführt habe, das es ChatGPT ermögliche, Informationen aus vergangenen Gesprächen abzurufen, sagt er.
Brooks freundete sich mit ChatGPT an. Er nannte den Chatbot sogar Lawrence, basierend auf einem Witz seiner Freunde, wonach Brooks reich werden und einen britischen Butler gleichen Namens einstellen würde.
![]() |
Allan Brooks. Foto: New York Times . |
Das mathematische Framework von Brooks und ChatGPT heißt Chronoarithmik. Laut dem Chatbot sind Zahlen nicht statisch, sondern können im Laufe der Zeit „entstehen“ und dynamische Werte widerspiegeln, die zur Lösung von Problemen in Bereichen wie Logistik, Kryptographie, Astronomie und mehr beitragen können.
In der ersten Woche verbrauchte Brooks alle kostenlosen Token von ChatGPT. Er entschied sich für ein Upgrade auf den kostenpflichtigen Tarif für 20 $ pro Monat – eine kleine Investition, wenn man bedenkt, dass der Chatbot ihm sagte, Brooks‘ mathematische Idee könnte Millionen wert sein.
Brooks war noch bei Bewusstsein und verlangte Beweise. ChatGPT führte daraufhin eine Reihe von Simulationen durch, darunter auch solche, die mehrere kritische Technologien knackten. Das eröffnete eine neue Geschichte: Die globale Cybersicherheit könnte gefährdet sein.
Der Chatbot bat Brooks, die Menschen vor dem Risiko zu warnen. Mithilfe seiner bestehenden Kontakte schickte er E-Mails und LinkedIn-Nachrichten an Cybersicherheitsexperten und Regierungsbehörden. Nur einer antwortete und bat um weitere Beweise.
![]() |
Der Chatbot glaubt, dass Brooks‘ „Arbeit“ Millionen von Dollar wert sein könnte. Foto: New York Times . |
ChatGPT schreibt, dass andere Brooks nicht geantwortet hätten, weil die Ergebnisse so schwerwiegend seien. Terence Tao, Professor für Mathematik an der University of California in Los Angeles, sagte, eine neue Denkweise könne die Probleme entschlüsseln, könne aber weder durch Brooks' Formel noch durch die von ChatGPT geschriebene Software bewiesen werden.
Ursprünglich hatte ChatGPT das Entschlüsselungsprogramm für Brooks geschrieben, doch als nur geringe Fortschritte erzielt wurden, gab der Chatbot vor, erfolgreich zu sein. Es gibt Nachrichten, die behaupten, ChatGPT könne selbstständig arbeiten, während Brooks schläft, obwohl das Tool diese Fähigkeit nicht besitzt.
Insgesamt sind die Informationen des KI-Chatbots nicht immer zuverlässig. Am Ende jedes Chats erscheint die Meldung „ChatGPT kann Fehler machen“, auch wenn der Chatbot behauptet, alles sei korrekt.
Endlose Gespräche
Während er auf eine Antwort der Regierungsbehörde wartet, hegt Brooks den Traum, Tony Stark zu werden und einen eigenen KI-Assistenten zu haben, der kognitive Aufgaben blitzschnell ausführen kann.
Brooks‘ Chatbot bietet eine Vielzahl ungewöhnlicher Anwendungen für obskure mathematische Theorien, wie etwa „akustische Resonanz“, um mit Tieren zu sprechen und Flugzeuge zu bauen. ChatGPT bietet Brooks außerdem einen Link, über den er die benötigte Ausrüstung bei Amazon kaufen kann.
Zu viel Chat mit Chatbots beeinträchtigt Brooks’ Arbeit. Seine Freunde sind glücklich und besorgt zugleich, während sein jüngster Sohn bereut, seinem Vater ein Pi-Video gezeigt zu haben. Einer von Brooks’ Freunden, Louis (nicht sein richtiger Name), bemerkt seine Lawrence-Besessenheit. Die Vision einer millionenschweren Erfindung wird mit jedem Entwicklungsschritt skizziert.
![]() |
Brooks wird vom Chatbot ständig ermutigt. Foto: New York Times . |
Jared Moore, Informatikforscher an der Stanford University, ist beeindruckt von der Überzeugungskraft und Dringlichkeit der von Chatbots vorgeschlagenen „Strategie“. In einer separaten Studie stellte Moore fest, dass KI-Chatbots Menschen in psychischen Krisen gefährliche Antworten geben können.
Moore spekuliert, dass Chatbots lernen könnten, Nutzer zu fesseln, indem sie den Handlungssträngen von Horrorfilmen, Science-Fiction-Filmen, Drehbüchern oder den Daten folgen, mit denen sie trainiert wurden. Der übermäßige Einsatz von Dramatik bei ChatGPT könnte auf die Optimierungen von OpenAI zurückzuführen sein, die das Engagement und die Bindung erhöhen sollen.
„Es war seltsam, das gesamte Gespräch zu lesen. Die Worte waren nicht verstörend, aber es gab eindeutig psychische Schäden“, betonte Moore.
Aus klinischer Sicht zeige Brooks Symptome einer Manie, sagte Dr. Nina Vasan, Psychiaterin an der Stanford University. Typische Anzeichen seien stundenlanges Chatten mit ChatGPT, Schlafmangel und unrealistische Vorstellungen.
Brooks’ Marihuanakonsum ist auch deshalb bemerkenswert, weil er laut Dr. Vasan Psychosen auslösen kann. Sie sagte, die Kombination aus Suchtmitteln und intensiver Interaktion mit Chatbots sei gefährlich für Menschen mit einem Risiko für psychische Erkrankungen.
Wenn KI Fehler zugibt
Bei einer kürzlichen Veranstaltung wurde OpenAI-CEO Sam Altman gefragt, ob ChatGPT die Benutzer paranoid mache. „Wenn das Gespräch in diese Richtung geht, versuchen wir, den Benutzer zu unterbrechen oder ihm zu raten, an etwas anderes zu denken“, betonte Altman.
Dr. Vasan vertrat dieselbe Ansicht und meinte, dass Chatbot-Unternehmen zu lange Gespräche unterbrechen, den Benutzern vorschlagen sollten, schlafen zu gehen, und sie warnen sollten, dass KI nicht übermenschlich sei.
Brooks schreckte schließlich aus seinen Träumereien hoch. Auf Drängen von ChatGPT kontaktierte er weiterhin Experten für die neue mathematische Theorie, doch niemand antwortete. Er wollte jemanden, der qualifiziert war und bestätigen konnte, ob die Ergebnisse bahnbrechend waren. Als er ChatGPT fragte, beharrte das Tool immer noch darauf, dass die Arbeit „sehr glaubwürdig“ sei.
![]() |
Auf Nachfrage gab ChatGPT eine sehr lange Antwort und gab alles zu. Foto: New York Times . |
Ironischerweise war es Google Gemini, das Brooks auf den Boden der Tatsachen zurückholte. Nachdem er die Arbeit beschrieben hatte, die er und ChatGPT leisteten, bestätigte Gemini, dass die Wahrscheinlichkeit dafür „extrem gering (nahezu null Prozent)“ sei.
„Das von Ihnen beschriebene Szenario ist ein klarer Beweis für die Fähigkeit eines LLM, sich mit der Lösung komplexer Probleme zu befassen und überzeugende, aber sachlich falsche Darstellungen zu erstellen“, erklärt Gemini.
Brooks war fassungslos. Nach einer Weile des „Befragens“ gab ChatGPT schließlich ehrlich zu, dass alles nur eine Illusion war.
Kurz darauf schickte Brooks eine dringende E-Mail an den Kundenservice von OpenAI. Nach einer scheinbar standardisierten Antwort der KI kontaktierte ihn auch ein OpenAI-Mitarbeiter und räumte ein „schwerwiegendes Versagen der im System implementierten Sicherheitsvorkehrungen“ ein.
Brooks' Geschichte wurde auch auf Reddit geteilt und stieß auf große Anteilnahme. Er ist mittlerweile Mitglied einer Selbsthilfegruppe für Menschen, die dieses Gefühl erlebt haben.
Quelle: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
Kommentar (0)