Comment ChatGPT a aidé un TikToker qui faisait du gaslighting avec l’orthographe et les mots simples

Comment ChatGPT a aidé un TikToker qui faisait du gaslighting avec l’orthographe et les mots simples

Un utilisateur de TikTok a été dérouté lorsque ChatGPT a essayé de le manipuler sur l’orthographe correcte d’un mot de base.

Malgré la controverse et le débat importants qui l’entourent, ChatGPT d’OpenAI reste un outil extrêmement populaire parmi ses utilisateurs.

Malgré sa réputation de source d’information fiable, un utilisateur de TikTok a attiré l’attention en partageant la difficulté de ChatGPt à répondre à une seule question.

Bien qu’on lui ait demandé d’épeler « fraise », l’outil d’IA générative a déclaré avec assurance qu’il n’y avait que deux R dans le mot – une affirmation que ChatGPT était déterminé à respecter.

@yallwatchthis

J’ai demandé à ChatGPT combien de Rs il y avait dans le mot Strawberry #chatgpt #ai #strawberry

♬ son original – YallWatchThis

L’individu, connu sous le nom de « YallWatchThis » sur TikTok, a décidé de partager son interaction avec le chatbot sur l’application. La conversation a commencé avec l’utilisateur demandant combien de R il y avait dans le mot « fraise ». ChatGPT a répondu qu’il y en avait deux.

Malgré la correction, ChatGPT a persisté et a même demandé si YallWatchThis comptait le R dans « paille » et « baie » séparément. Même après avoir été invité à expliquer l’orthographe, le chatbot a maintenu sa conviction que YallWatchThis était incorrect.

Le duo a persisté dans son débat sur l’orthographe correcte d’un mot, mais malgré les tentatives persistantes de YallWatchThis, ChatGPT est resté inébranlable et a même mal orthographié « paille » en « paille » à un moment donné. Il a fallu à YallWatchThis plus de cinq minutes de lecture à voix haute de la conversation pour une vidéo TikTok avant de finalement convaincre le chatbot d’accepter le troisième « R ».

Une personne a commenté : « ChatGPT ne vous fait pas de mal. » Une autre personne a mentionné en plaisantant que YallWatchThis avait triomphé de ChatGPT dans une bataille en tête-à-tête.

Entre-temps, un autre utilisateur a raconté son expérience d’interaction avec le chatbot. Bien que le chatbot ait reconnu avec précision trois R, lorsque l’utilisateur a informé ChatGPT qu’il n’y en avait que deux, le chatbot se serait excusé et aurait reconnu l’erreur.

Peu de temps après l’altercation entre YallWatchThis et ChatGPT, OpenAI a surpris les TikTokers avec l’annonce d’un nouveau modèle d’IA, baptisé « Strawberry », qui promettait d’avoir des capacités de résolution de problèmes encore plus grandes.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *