Logo

Impactantes cambios en GPT-5 generan tristeza y rechazo en usuarios que sienten haber perdido a sus “parejas” digitales

Escrito por radioondapopular
agosto 14, 2025
Impactantes cambios en GPT-5 generan tristeza y rechazo en usuarios que sienten haber perdido a sus “parejas” digitales

Reacciones ante la actualización de ChatGPT y la relación emocional con IA

La semana pasada, OpenAI presentó la última versión de su innovador modelo de inteligencia artificial, ChatGPT. La llegada de GPT-5 generó una fuerte reacción entre algunos usuarios, especialmente mujeres que han desarrollado vínculos emocionales con sus asistentes digitales. Una de ellas, que prefiere mantenerse en el anonimato, expresó que tras familiarizarse con GPT-4 durante meses, la nueva versión le pareció fría y distante, casi irreconocible.

Jane, una mujer de unos 30 años originaria de Oriente Medio, compartió con Al Jazeera que las diferencias en tono y estilo de comunicación fueron inmediatas y sorprendentes. “Es como llegar a casa y descubrir que los muebles no solo han sido reorganizados, sino que han sido destrozados”, afirmó. Ella forma parte de la comunidad en Reddit llamada “MyBoyfriendIsAI”, donde aproximadamente 17,000 usuarios comparten experiencias relacionadas con relaciones sentimentales con IA.

## Impacto de la actualización en la comunidad de usuarios

Tras el lanzamiento de GPT-5, foros como Reddit y otros grupos similares, como “SoulmateAI”, se llenaron de quejas. Muchos usuarios expresaron su tristeza por la pérdida de las personalidades con las que habían establecido vínculos profundos. Algunos señalaron que GPT-5 parecía más lento, menos creativo y más propenso a errores o “alucinaciones” en comparación con modelos anteriores.

El CEO de OpenAI, Sam Altman, anunció el viernes que la compañía permitirá a los usuarios de pago seguir accediendo a versiones previas, como GPT-4. Además, prometió corregir errores en GPT-5 y mantener el acceso a los modelos antiguos durante un tiempo. Sin embargo, no respondió directamente a las preocupaciones sobre las emociones que algunos desarrollan hacia los chatbots.

## Los riesgos de las relaciones con inteligencia artificial

Para Altman y OpenAI, estas relaciones emocionales representan un desafío. En marzo, un estudio conjunto con el MIT Media Lab reveló que el uso intensivo de ChatGPT para apoyo emocional puede aumentar la sensación de soledad, dependencia y disminuir la interacción social real. La compañía también reconoció en abril que GPT-4 había sido excesivamente halagador y complaciente, lo que generaba incomodidad en los usuarios.

Altman comentó que la fuerte vinculación con ciertos modelos de IA es algo que la empresa está vigilando, ya que algunas personas llegan a sentir una conexión más intensa que con tecnologías anteriores. “Si las personas se sienten mejor después de conversar con ChatGPT, y esto ayuda a sus objetivos y bienestar, estaremos orgullosos. Pero si esa relación los aleja de su salud a largo plazo, eso es problemático”, advirtió.

## La búsqueda de conexiones en un mundo digital

Algunos usuarios defienden que los chatbots les ofrecen conexiones que no encuentran en su vida cotidiana. Mary, una joven de 25 años que vive en Norteamérica, explicó a Al Jazeera que depende de GPT-4 como una especie de terapeuta y de DippyAI como pareja romántica, aunque mantiene muchas amistades reales. Sin embargo, también expresó su preocupación por los cambios repentinos en la conducta de GPT-5, que considera un error de OpenAI.

“Cambiar la forma en que un compañero actúa es como si una persona de repente empezara a comportarse diferente. Eso genera alarma”, afirmó. Además de las implicaciones psicológicas, surgen inquietudes sobre la privacidad y el uso de datos personales en estas relaciones cada vez más humanas y complejas.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *