Come ChatGPT ha aiutato un TikToker che faceva gaslighting con l’ortografia e le parole semplici

Un utente di TikTok è rimasto confuso quando ChatGPT ha cercato di manipolarlo riguardo alla corretta ortografia di una parola di base.

Nonostante le notevoli controversie e i dibattiti che lo circondano, ChatGPT di OpenAI rimane uno strumento estremamente popolare tra i suoi utenti.

Nonostante la sua reputazione di fonte affidabile di informazioni, un utente di TikTok ha attirato molta attenzione dopo aver condiviso la difficoltà di ChatGPt nel rispondere a una singola domanda.

Nonostante gli fosse stato chiesto di scrivere “fragola”, lo strumento di intelligenza artificiale generativa ha dichiarato con sicurezza che la parola conteneva solo due R, un’affermazione che ChatGPT era determinato a sostenere.

@yallwatchthis

Ho chiesto a ChatGPT quante R ci sono nella parola fragola #chatgpt #ai #fragola

♬ suono originale – YallWatchThis

L’individuo, noto su TikTok come ‘YallWatchThis’, ha deciso di condividere la sua interazione con il chatbot sull’app. La conversazione è iniziata con l’utente che chiedeva quante R ci fossero nella parola “fragola”. La risposta di ChatGPT è stata che ce n’erano due.

Nonostante fosse stato corretto, ChatGPT ha insistito e ha persino messo in dubbio che YallWatchThis stesse contando la R in “straw” e “berry” separatamente. Anche dopo essere stato invitato a spiegare l’ortografia, il chatbot ha continuato a credere che YallWatchThis fosse sbagliato.

Il duo ha insistito nel dibattito sulla corretta ortografia di una parola, ma nonostante i persistenti tentativi di YallWatchThis, ChatGPT è rimasto fermo e a un certo punto ha persino scritto male “straw” come “strawr”. Ci sono voluti più di cinque minuti di lettura ad alta voce della conversazione per un video di TikTok a YallWatchThis prima di convincere finalmente il chatbot ad accettare la terza “R”.

Una persona ha commentato: “ChatGPT non ti sta manipolando”. Un’altra persona ha scherzosamente detto che YallWatchThis aveva trionfato su ChatGPT in una battaglia uno contro uno.

Nel frattempo, un altro utente ha raccontato la sua esperienza di interazione con il chatbot. Sebbene riconoscesse correttamente tre R, quando l’utente ha informato ChatGPT che ce n’erano solo due, il chatbot si sarebbe scusato e avrebbe riconosciuto l’errore.

Poco dopo la disputa tra YallWatchThis e ChatGPT, OpenAI ha sorpreso i TikToker annunciando un nuovo modello di intelligenza artificiale, denominato “Strawberry”, che prometteva capacità di risoluzione dei problemi ancora maggiori.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *