Cómo ChatGPT ayudó a un TikToker que practicaba gaslighting con ortografía y palabras simples

Un usuario de TikTok quedó confundido cuando ChatGPT intentó manipularlo sobre la ortografía correcta de una palabra básica.

A pesar de la gran controversia y debate que lo rodea, ChatGPT de OpenAI sigue siendo una herramienta inmensamente popular entre sus usuarios.

A pesar de su reputación como fuente confiable de información, un usuario de TikTok ganó gran atención por compartir la dificultad de ChatGPt para responder una sola pregunta.

A pesar de que se le pidió que deletreara «fresa», la herramienta de inteligencia artificial generativa declaró con confianza que solo había dos R en la palabra, una afirmación que ChatGPT estaba decidido a mantener.

@yallwatchthis

Le pregunté a ChatGPT cuántas R hay en la palabra Strawberry #chatgpt #ai #strawberry

♬ sonido original – YallWatchThis

El individuo, conocido como ‘YallWatchThis’ en TikTok, decidió compartir su interacción con el chatbot en la aplicación. La conversación comenzó cuando el usuario preguntó cuántas R había en la palabra «fresa». La respuesta de ChatGPT fue que había dos.

A pesar de que se corrigió, ChatGPT insistió e incluso cuestionó si YallWatchThis contaba la R en «straw» y «berry» por separado. Incluso después de que se le pidió que explicara la ortografía, el chatbot mantuvo su creencia de que YallWatchThis estaba equivocado.

El dúo persistió en su debate sobre la ortografía correcta de una palabra, pero a pesar de los persistentes intentos de YallWatchThis, ChatGPT se mantuvo firme e incluso escribió mal «straw» como «strawr» en un momento. YallWatchThis tardó más de cinco minutos en leer la conversación en voz alta para un video de TikTok antes de convencer finalmente al chatbot de que aceptara la tercera «R».

Una persona comentó: “ChatGPT no te está engañando”. Otra persona mencionó en tono de broma que YallWatchThis había triunfado sobre ChatGPT en una batalla uno a uno.

Mientras tanto, otro usuario contó su experiencia al interactuar con el chatbot. Si bien reconoció con precisión las tres R, cuando el usuario informó a ChatGPT que solo había dos, el chatbot se disculpó y reconoció el error.

Poco después del altercado entre YallWatchThis y ChatGPT, OpenAI sorprendió a los usuarios de TikTok con el anuncio de un nuevo modelo de IA, denominado «Strawberry», que prometía tener capacidades aún mayores para resolver problemas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *