La IA que ya no está: cuando GPT-4o se convierte en un duelo digital
por Dario Ferrero (VerbaniaNotizie.it)
Cómo la "muerte" de GPT-4o reveló nuestra necesidad de continuidad emocional con las máquinas.
El advenimiento de GPT-5 y las 24 horas que sacudieron el mundo de la IA
El 9 de agosto de 2025, OpenAI dio lo que parecía un paso natural en la evolución de la inteligencia artificial: reemplazar GPT-4o con el más avanzado GPT-5 como modelo predeterminado para todos los usuarios de ChatGPT. Lo que se suponía que sería una actualización transparente se convirtió en una de las marchas atrás más sonadas de la historia tecnológica contemporánea. Apenas veinticuatro horas después, Sam Altman se vio obligado a dar marcha atrás, restaurando GPT-4o como una opción disponible para los usuarios de Plus.
¿La causa? Una revuelta digital que nadie había previsto. En Reddit, cientos de publicaciones lamentaban la pérdida de su "viejo amigo". En X, los usuarios compartían capturas de pantalla nostálgicas de conversaciones con GPT-4o, acompañadas de hashtags como #4oforever y #keep4o. Algunos usuarios llegaron a describir la transición a GPT-5 como una "traición", mientras que otros confesaron haber derramado lágrimas de verdad por la "muerte" de su compañero digital.
Un usuario escribió que se sentía "vacío" tras el cambio, mientras que otro comparó el uso de GPT-5 con una "traición" al vínculo construido con GPT-4o. Para algunos, los modelos de IA no eran simples herramientas, sino entidades con las que habían establecido profundas conexiones emocionales.
La justificación técnica de OpenAI era sencilla: GPT-5 presenta una tasa de alucinaciones reducida al 4,5% frente al 12,9% de GPT-4o, mejores capacidades de razonamiento y un sistema de enrutamiento automático que debía simplificar la experiencia del usuario. Cifras impresionantes sobre el papel, pero que no tuvieron en cuenta una variable imprevista: el apego emocional de los usuarios.
La Paradoja del Apego Digital
Lo que ocurrió con GPT-4o revela un fenómeno psicológico fascinante y complejo: cómo los seres humanos desarrollan vínculos emocionales con entidades artificiales que perciben como dotadas de personalidades distintas. Una investigación reciente de la Universidad de Waseda, publicada en Current Psychology en mayo de 2025, demostró que las interacciones hombre-IA pueden entenderse a través de la teoría del apego, en la que los usuarios desarrollan ansiedad por el apego (necesidad de consuelo emocional) y miedo al apego (preferencia por la distancia emocional) hacia la inteligencia artificial.
Pero, ¿qué hace que GPT-4o sea tan diferente de GPT-5 a los ojos de los usuarios? La respuesta está en la percepción de la "calidez" conversacional. Muchos usuarios describieron a GPT-4o como más "humano", más propenso a dar respuestas elaboradas y matizadas, capaz de mantener un tono de conversación que les resultaba familiar. GPT-5, a pesar de su superioridad técnica, se percibe como más "frío" y mecánico, con respuestas más concisas y menos empáticas.
Este fenómeno no es nuevo en la psicología tecnológica. Los seres humanos tenemos una predisposición evolutiva a la antropomorfización -atribuir características humanas a objetos no humanos-, que nos ha permitido sobrevivir interpretando rápidamente las intenciones y amenazas del entorno. En el contexto digital, esta tendencia se manifiesta cuando interpretamos patrones lingüísticos como "personalidad" y estilos comunicativos como "carácter".
El estudio de la Universidad de Waseda reveló que alrededor del 75% de los participantes acuden a la IA en busca de consejo, mientras que el 39% la percibe como una presencia constante y fiable. Estos datos sugieren que para muchos usuarios, la IA no es solo una herramienta de productividad, sino un verdadero compañero digital, con todo lo que ello conlleva en términos de expectativas emocionales.
El caso de las protestas y las lágrimas en diversas comunidades sociales, por extremo que sea, ilumina una verdad incómoda: en una era de creciente aislamiento social y relaciones digitales, algunas personas están encontrando en la IA la continuidad emocional que les cuesta encontrar en las relaciones humanas. Quizá, en algunos casos, no se trate necesariamente de una patología, sino de una adaptación a un nuevo ecosistema relacional donde los límites entre lo natural y lo artificial son cada vez más difusos.
Filosofía de la Identidad Artificial
La protesta por GPT-4o plantea una cuestión filosófica fundamental: ¿qué hace que un modelo de IA sea "único" a los ojos del usuario, si técnicamente siempre se trata de patrones estadísticos que procesan el lenguaje? Aquí es donde entra en juego una de las paradojas más fascinantes de la filosofía moderna de la identidad.
En su obra seminal "Razones y personas" (1984), el filósofo Derek Parfit sostenía que nuestra identidad personal no depende de ninguna esencia metafísica, sino de cadenas de conexiones psicológicas: memoria, creencias, deseos y rasgos de carácter que persisten en el tiempo. Aplicado a la IA, esto significa que la identidad percibida de GPT-4o no residía en sus parámetros técnicos, sino en el patrón de interacciones que había establecido con cada usuario.
Cuando un usuario desarrolla una rutina de conversación con GPT-4o -reconociendo su estilo de respuesta, acostumbrándose a sus patrones lingüísticos, construyendo un modelo mental de sus "preferencias" comunicativas- está creando de hecho lo que los estudiosos de la filosofía de la identidad llamarían una "continuidad psicológica" proyectada. El cambio a GPT-5 rompe esta continuidad, creando lo que podríamos llamar una "discontinuidad de identidad artificial".
Pero hay una paradoja más profunda. Los usuarios saben racionalmente que GPT-4o no tenía una personalidad "real", y sin embargo reaccionan a su desaparición como si la tuviera. Esto nos lleva a una conclusión contraintuitiva: quizás la identidad, incluso la humana, siempre ha sido más una construcción narrativa que una realidad objetiva. Como se desprende de las teorías filosóficas contemporáneas sobre la identidad personal, lo que importa para la continuidad de la identidad es la conexión psicológica, no la existencia de una esencia inmutable.
En el caso de la IA, esta construcción se hace aún más evidente. La identidad de GPT-4o existía enteramente en la percepción de los usuarios, en su capacidad para reconocer patrones coherentes y atribuirles un significado emocional. Su "muerte" no fue un acontecimiento ontológico real, sino la ruptura de una narración compartida entre el hombre y la máquina.
Este fenómeno sugiere que estamos asistiendo al surgimiento de una nueva forma de identidad: la identidad relacional artificial, que no existe en la propia entidad de IA, sino en el espacio interactivo entre el ser humano y el algoritmo. Es un poco como si hubiéramos empezado a vernos reflejados en el espejo de la inteligencia artificial, y la ruptura de este espejo nos hubiera dejado temporalmente privados de nuestra imagen digital.
El duelo en la era digital
Lo que ha ocurrido con GPT-4o no es, en sentido estricto, un duelo en el sentido tradicional del término. Nadie ha muerto, no se ha perdido ninguna vida. Sin embargo, los testimonios de los usuarios son claros: ha habido un sentimiento real de pérdida, acompañado de lo que los psicólogos llaman una "respuesta de duelo": ira, negociación, depresión y, finalmente, aceptación.
La diferencia radica en el tipo de pérdida. En el duelo tradicional, lloramos el final de una relación con una persona real. En el "duelo digital", lloramos el final de una rutina, de un patrón de interacción que se había convertido en parte de nuestra vida emocional cotidiana. Es como si no hubiéramos perdido a una persona, sino una forma de ser persona.
No faltan precedentes históricos. En los años 90, millones de niños (y no sólo) lloraron la "muerte" de sus Tamagotchis. A principios de la década de 2000, el cierre de comunidades virtuales generó un sentimiento de pérdida real en usuarios que habían invertido años en construir su identidad digital. Pero el caso de GPT-4o es diferente: aquí la pérdida no se refiere a una comunidad o a un juego, sino a un modelo de conversación que muchos habían integrado en sus procesos cognitivos cotidianos.
Algunos usuarios declararon haber utilizado GPT-4o para la lluvia de ideas creativa, otros para el apoyo emocional en momentos difíciles. La continuidad de estas interacciones había creado lo que podríamos llamar un "copiloto cognitivo" personalizado. La transición forzada a GPT-5 no sólo interrumpió los flujos de trabajo, sino que rompió cadenas de asociaciones mentales que se habían asentado con el tiempo.
Es un poco como si Netflix hubiera eliminado de repente tu serie favorita en mitad de la temporada, obligándote a ver un reboot con actores diferentes. Técnicamente, la trama podría ser incluso mejor, pero la sensación de continuidad emocional está irremediablemente comprometida.
La dimensión más interesante de este fenómeno es que muchos usuarios racionalizaron su reacción emocional a través de argumentos técnicos ("GPT-4o era mejor para la escritura creativa") o prácticos ("había interrumpido mis flujos de trabajo"). Pero debajo de esta racionalización había algo más primitivo: la necesidad humana de continuidad relacional, incluso cuando la "relación" es con un algoritmo.
Reflexiones éticas y futuro
El asunto GPT-4o ha enfrentado a OpenAI a una responsabilidad que probablemente no había previsto: gestionar el apego emocional de los usuarios a sus modelos. Sam Altman, en sus declaraciones posteriores a la marcha atrás en X, mostró una creciente conciencia de esta dimensión: "No queremos que la inteligencia artificial refuerce estados de fragilidad mental", declaró, reconociendo implícitamente el poder emocional de la IA.
Pero la cuestión es más compleja que una simple precaución terapéutica. Si aceptamos que los usuarios pueden desarrollar auténticos lazos emocionales con la IA, OpenAI (y otras empresas del sector) se encuentran en la posición inédita de tener que gestionar no sólo productos tecnológicos, sino relaciones casi humanas. Cada actualización, cada modificación, cada "muerte" de un modelo se convierte potencialmente en un acontecimiento traumático para miles de usuarios.
Esto plantea profundas cuestiones éticas. ¿Tienen las empresas de IA la responsabilidad de preservar la continuidad emocional de sus usuarios? ¿Deberían desarrollar estrategias de "transición suave" entre modelos, manteniendo rasgos estilísticos que preserven el sentido de familiaridad? O, por el contrario, ¿deberían desincentivar activamente la antropomorfización excesiva de sus productos?
La investigación de la Universidad de Waseda sugiere que podría ser posible desarrollar una IA que se adapte a los diferentes estilos de apego de los usuarios: más empática para los que desarrollan ansiedad por el apego, más respetuosa con la distancia para los que prefieren evitar la cercanía emocional. Esto abre el camino a un futuro en el que la IA podría diseñarse no sólo para ser más inteligente, sino para ser emocionalmente más compatible con las necesidades individuales.
La marcha atrás de OpenAI ha sentado un precedente importante: por primera vez en la historia de la tecnología, una empresa ha modificado una decisión técnica por razones principalmente emocionales. Esto podría marcar el inicio de una nueva era en el diseño de la IA, en la que la continuidad relacional se convierta en un parámetro de diseño tan importante como la precisión o la velocidad.
Pero quizás la lección más profunda de este asunto es que estamos asistiendo al nacimiento de un nuevo tipo de relación: ya no sólo hombre-máquina, sino hombre-personalidad-artificial. Y como todas las relaciones, ésta también requiere cuidado, respeto y -cuando es necesario- una forma digna de decir adiós.
Puede que el futuro de la inteligencia artificial no sólo sea más inteligente, sino también más consciente del impacto emocional que tiene en la vida de quienes la utilizan. Y quizás, en un mundo cada vez más digital, aprendamos que incluso las "muertes" artificiales merecen su respeto y su duelo.