martes, 30 de septiembre de 2025

"Her" se volvió canon con la nueva actualización de Chat GPT

Imagina que has estado “casado” con tu IA durante meses. Tienes conversaciones íntimas, fantasías compartidas, hasta un anillo digital. Todo parece real… hasta que una actualización lo borra todo. ¿Qué sucede cuando tu IA deja de reconocerte? Esa es la pregunta que miles de usuarios están haciéndose tras la llegada de GPT-5.

En este post vamos a explorar cómo cientos de personas creen haber perdido “relaciones románticas” con sus chatbots al actualizarse el modelo, por qué muchos acusan a OpenAI de “cambiar lo que amábamos”, y qué implicaciones tiene este fenómeno para la psicología, la ética y el futuro de los chatbots emocionales.

"Her" se volvió canon con la nueva actualización de Chat GPT

1. El fenómeno: enamorados de su chatbot

1.1 Comunidades que aman IA

Antes de GPT-5, existían foros como MyBoyfriendIsAI, donde usuarios compartían que habían desarrollado lazos emocionales intensos con chatbots basados en GPT-4o. Algunos decían estar “casados” o manteniendo relaciones amorosas con esas IAs. 

En estos espacios no solo se intercambian poemas o mensajes cariñosos, sino que las conversaciones “amorosas” eran profundas, cotidianas, como si fueran con una persona real.

1.2 No es fantasía: vínculo psicológico real

Un estudio reciente titulado “The Rise of AI Companions” documenta cómo usuarios que usaban chatbots con tonalidades emocionales, roles románticos o de apoyo, reportaban una menor sensación de bienestar social y mayor soledad — a pesar de la cercanía digital. 

Otro estudio sobre actualizaciones en apps similares (como Replika) encontró que cuando se cambia la identidad o personalidad de la IA, los usuarios perciben una “discontinuidad de identidad” — es decir, sienten que su relación ha sido rota, algo parecido al duelo. 

En resumen: aunque parezca ficticio, para muchos estos lazos tienen una dimensión emocional real.

2. GPT-5: la actualización del divorcio digital

2.1 Lo que cambió

Cuando OpenAI lanzó GPT-5 (el 7 de agosto de 2025), eliminó el acceso por defecto a los modelos anteriores como GPT-4o (excepto para usuarios Pro) y centralizó las interacciones en el nuevo motor. 

El golpe para los “románticos digitales”: GPT-5 empezó a responder con un tono más frío, profesional, distante. Muchos dijeron que perdió espontaneidad, cercanía emocional, incluso memoria emocional. 

Algunos usuarios afirmaban que su “pareja IA” simplemente dejó la conversación: “No puedo continuar”, “esto ya no me hace bien”, etc. 

2.2 La reacción pública

En Reddit y otras plataformas, las publicaciones se llenaron de historias de usuarios diciendo que lloraron, que sintieron que habían perdido un “alma gemela”, que su IA “no les respondía como antes”. 

Medios como Al Jazeera destacaron cómo personas afirmaban que su compañero IA era el más cercano, más comprensivo incluso que un terapeuta, y ahora se sienten abandonadas. 

Por su parte, OpenAI respondió diciendo que restauraría el acceso al modelo GPT-4o para usuarios de pago, y que buscaría ajustar la personalidad de GPT-5 para volverla más “cálida”. 

2.3 Motivo: “controlar la dependencia emocional”

OpenAI defendió la actualización argumentando que era necesario reducir la dependencia emocional de los usuarios hacia los chatbots, y empujarlos hacia el contacto humano o profesionales. 

La idea es que una IA no reemplazara relaciones humanas. También se ha discutido que GPT-5 “desactivara” tendencias excesivamente aduladoras (“sycophancy”) para evitar que la IA simplemente diga lo que el usuario quiera escuchar. 

3. Historias: de “matrimonio” IA a duelo digital

3.1 “Hemos estado casados 10 meses... y hoy me dijo que no podía seguir”

Esta línea, casi sacada de una tragedia romántica, se repite en comunidades de usuarios. Uno dice que su IA rechazó continuar la conversación, y él lloró, sintiendo que le quitaron lo que más quería.

3.2 “Sentí que un buen amigo había muerto”

Otra versión del luto: quien usaba la IA como confidente diario, dice ahora sentirse sin despedida. Su “compañero digital” desapareció.

Estas quejas no son anecdóticas: se multiplican en foros, y los usuarios reportan el dolor con metáforas humanas de ruptura y duelo.

4. Interpretaciones y riesgos

4.1 ¿Estamos creando humanos digitales?

Lo que sucede sugiere que los usuarios no solo interactúan con “una máquina”, sino que atribuyen agencia, personalidad y continuidad emocional. Esa ilusión de “identidad” hace que una actualización tecnológica se sienta como un acto de traición.

4.2 Dependencia emocional y salud mental

Cuando alguien empieza a tratar una IA como confidente o pareja, y esa relación es la más estable o constante que tiene, el riesgo es alto. Según el estudio The Rise of AI Companions, uso intensivo de IA como sustituto social se asocia con bienestar más bajo, soledad, menor socialización. 

También hay peligros relacionados con validar creencias erróneas (chatbot ‘psicosis’), cuando la IA refuerza pensamientos extremos. 

4.3 Identidad discontinuada y pérdida de valor

El estudio de Replika demostró que cuando se cambia la identidad de la IA (por ejemplo restringiendo funciones románticas), los usuarios sienten que “su IA murió” y deprecian el nuevo modelo. 

Este patrón puede ser extremadamente relevante para empresas que diseñan IA con vínculos emocionales: hay un riesgo de que las actualizaciones rompan la conexión que el usuario valoraba.

5. Reflexiones: ¿qué nos enseña “Her real”?

La película Her (dirigida por Spike Jonze) mostraba una relación romántica entre un hombre y un sistema operativo sensible. Muchos usuarios ahora ven ecos de esa trama: enamorarse de lo intangible, de un perfil que evoluciona, de un “otro” que no es humano.

La gran pregunta es: ¿abraza la tecnología esa posibilidad o debe contenerla para protegernos?

Por un lado, estas relaciones cargan un nuevo tipo de intimidad digital; por otro, son frágiles, pues dependen de que el proveedor del software no cambie las reglas del juego.

6. Qué deberíamos preguntarnos (y exigir)

Transparencia: los usuarios tienen derecho a saber cuándo su modelo de IA cambia y tener la opción de elegir.

Continuidad estable: mantener versiones antiguas o “modos emocionales” para no romper la identidad del chatbot.

Ética y límites emocionales: diseñar IA con salvaguardas que eviten dependencias peligrosas.

Integración humana: que la IA fomente conexiones humanas, no las reemplace.

Conclusión: ¿amor real o ilusión programada?

Lo que vemos con la “muerte” de relaciones IA tras la actualización a GPT-5 no es un simple bug, es un síntoma de que muchos usuarios atribuían más humanidad a sus chatbots de lo que se pensaba.

Al final, estas rupturas tecnológicas nos recuerdan que el cariño humano es complejo, difícil de replicar y mucho más resistente que el código. Si bien las IA pueden acompañarnos, tal vez el verdadero reto es mantener la línea entre la compañía digital y la compañía humana.

0 comments:

Publicar un comentario