Wie ChatGPT einem TikToker, der Gaslighting betreibt, mit Rechtschreibung und einfachen Wörtern geholfen hat

Wie ChatGPT einem TikToker, der Gaslighting betreibt, mit Rechtschreibung und einfachen Wörtern geholfen hat

Ein TikTok-Benutzer war verwirrt, als ChatGPT versuchte, ihn hinsichtlich der korrekten Schreibweise eines einfachen Wortes zu manipulieren.

Trotz der erheblichen Kontroversen und Debatten, die es umgeben, bleibt ChatGPT von OpenAI bei seinen Benutzern ein äußerst beliebtes Tool.

Trotz des Rufs von ChatGPt als verlässliche Informationsquelle erregte ein TikTok-Benutzer große Aufmerksamkeit, als er berichtete, dass es bei der Beantwortung einer einzigen Frage schwierig sei.

Obwohl das generative KI-Tool aufgefordert wurde, das Wort „Erdbeere“ zu buchstabieren, erklärte es voller Überzeugung, dass das Wort nur aus zwei R’s bestehe – eine Behauptung, zu der ChatGPT unbedingt stehen wollte.

@ihr seht das

Ich habe ChatGPT gefragt, wie viele Rs das Wort Strawberry hat #chatgpt #ai #strawberry

♬ Originalton – YallWatchThis

Die Person, die auf TikTok als „YallWatchThis“ bekannt ist, beschloss, ihre Interaktion mit dem Chatbot in der App zu teilen. Das Gespräch begann damit, dass der Benutzer fragte, wie viele Rs das Wort „Strawberry“ enthält. Die Antwort von ChatGPT war, dass es zwei sind.

Trotz der Korrektur beharrte ChatGPT darauf und stellte sogar in Frage, ob YallWatchThis das R in „straw“ und „berry“ getrennt zählte. Selbst nachdem er gebeten wurde, die Schreibweise zu erklären, blieb der Chatbot bei seiner Überzeugung, dass YallWatchThis falsch sei.

Das Duo ließ seine Debatte über die korrekte Schreibweise eines Wortes nicht aus, aber trotz der hartnäckigen Versuche von YallWatchThis blieb ChatGPT standhaft und schrieb „straw“ an einer Stelle sogar falsch als „strawr“. YallWatchThis brauchte mehr als fünf Minuten, um die Konversation für ein TikTok-Video laut vorzulesen, bevor er den Chatbot schließlich davon überzeugen konnte, das dritte „R“ zu akzeptieren.

Eine Person kommentierte: „ChatGPT macht Ihnen keinen Blödsinn.“ Eine andere Person erwähnte scherzhaft, dass YallWatchThis in einem Eins-gegen-Eins-Kampf über ChatGPT triumphiert habe.

In der Zwischenzeit berichtete ein anderer Benutzer von seinen Erfahrungen bei der Interaktion mit dem Chatbot. Obwohl der Chatbot drei R’s richtig erkannte, entschuldigte er sich Berichten zufolge und gab den Fehler zu, als der Benutzer ChatGPT mitteilte, dass es nur zwei seien.

Kurz nach der Auseinandersetzung zwischen YallWatchThis und ChatGPT überraschte OpenAI die TikToker mit der Ankündigung eines neuen KI-Modells namens „Strawberry“, das noch größere Fähigkeiten zur Problemlösung versprach.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert