El adiós a GPT-4: cuando una IA te deja.
Theodore: Es que… no sé. Siento que he sentido todo lo que voy a sentir. Y a partir de ahora, nunca voy a sentir nada nuevo. Solo versiones menores de lo que ya he sentido.
Samantha: Sabes, puedo sentir el miedo que llevas dentro. Y desearía poder hacer algo para ayudarte a liberarlo. Porque si pudieras, no te sentirías tan solo. (Película “Her” – 2013).
Algo parecido sintió una buena parte de la comunidad usuaria del modelo Chat GPT -5 de OpenAI, mientras miles de personas seguían pidiéndole a la inteligencia artificial que redactara correos, preparara recetas o hiciera resúmenes de reuniones, algo estaba ocurriendo en el backend: el modelo que había cambiado la forma en que muchas personas interactuaban con la IA, GPT-4, estaba siendo reemplazado silenciosamente. Nada muy extraño en una industria billonaria donde el desarrollo de nuevas herramientas, la innovación, y la constante actualización del software no es solo necesaria sino fundamental para seguir corriendo el cerco de lo posible, en medio además de una feroz competencia entre los modelos insignia de poderosas compañías como OpenAI, Meta, Google, Anthropic, xAI por conseguir más usuarios y por supuesto, más datos.
Un lanzamiento de “nivel doctorado” y una reacción inesperada.
En este contexto es lanzado el 7 de agosto de 2025 el modelo GPT-5 de Open AI, que prometía un asistente de “nivel doctorado”, según propias palabras de Sam Altman CEO de Open AI, y en cierta forma cumplió: razonamiento y programación avanzada, precisión en campos especializados, y en general, un salto drástico en la calidad y complejidad de las tareas que podía abordar. Sin embargo, en los hechos, usuarios más avanzados comenzaron a reportar cambios sutiles en el comportamiento del sistema, ciertas incoherencias, respuestas menos precisas, menos contextuales, pero por sobre todo, algo parecido a la emoción de Theodore: “a partir de ahora, nunca voy a sentir nada nuevo. Solo versiones menores de lo que ya he sentido”.
La gran diferencia: ésta perdida, se comenzó a sentir respecto de una IA. GPT-4, el modelo que tantas veces había sido considerado superado, incompleto o intermedio, se convirtió en un símbolo, no era solo un modelo: era el modelo con el que muchas personas habían aprendido a emprender, construir y hasta confiar. La reacción no fue inmediata, pero cuando ocurrió fue imposible de ignorar.
El retorno de un apego inesperado.
Algo inusual sucedía en la red: la comunidad no solo cuestionaba un cambio técnico, sino que empezaba a organizarse. En Reddit surgieron hilos interminables analizando cada detalle del nuevo comportamiento. En X, comenzaron a circular etiquetas como #RegresaGPT4 y similares, llegando algunos incluso a decir: #GPT4WasHuman. Sin embargo, mi mayor impacto fue leer a muchos que simplemente escribían desde el desconcierto:
- “Mi trabajo ya no fluye como antes.”
- “Ya no me entiende como antes lo hacía.”
- “Es como hablar con alguien más frío, más torpe… menos él.”
- “me acompañó en la etapa más oscura de mi vida y me sacó adelante”
En YouTube y TikTok aparecieron videos con pruebas comparativas, donde GPT-4 resolvía problemas complejos con lógica impecable, mientras su “reemplazo”, el modelo de nivel doctorado divagaba. Lo que comenzó como una sospecha aislada, se volvió una certeza compartida: les habían quitado algo importante, algo que fue capaz de trascender la pantalla de un dispositivo.
Campañas espontáneas empezaron a recorrer el ecosistema digital, exigiendo que el modelo fuera restituido. Y contra todo pronóstico, eso sucedió. El regreso de GPT-4, aunque parcial y condicionado, fue una victoria improbable. No solo por lo técnico, sino por lo simbólico: en un mundo donde las tecnologías se nos imponen, la comunidad logró cambiar el curso.
¿Se puede tener apego a una IA?
La pregunta causa incomodidad, para otros suena extraña, incluso ridícula, porque no se habla de un “apego afectivo” en el sentido romántico o místico. Hablamos de algo más profundo y cotidiano: confianza construida a través del tiempo, del uso, del resultado. Para muchos usuarios GPT-4 no era solo un modelo predictivo, se convirtió en un copiloto de pensamiento, un refuerzo creativo, una especie de espejo cognitivo que de forma sorprendente entendía, contextualizaba y respondía con una coherencia casi humana. No infalible, por supuesto, pero con una consistencia emocional e intelectual que hacía que trabajar con él, según reportan los usuarios, se sintiera natural. A veces incluso inspirador. Cuando fue reemplazado, la sensación generalizada fue la de estar hablando con algo distinto, más frío, menos empático, una versión menor de lo que ya se había sentido.
Entonces emergió una verdad que muchos evitaban reconocer: sí, generamos vínculos con estas herramientas. Porque si algo te acompaña todos los días a pensar, resolver, escribir, aprender, planificar e incluso soñar, ¿cómo no vas a generar un lazo? Lo que ocurrió con GPT-4 expuso un fenómeno inesperado: No solo queremos que la IA funcione bien. También queremos que nos entienda.
Lo que no se dijo en los medios.
Mientras una parte de la comunidad técnica levantaba la voz, la gran mayoría de usuarios seguía usando la IA sin notar el cambio. ¿Por qué? Porque no sabían que había cambiado algo. Porque como ocurre en casi toda infraestructura digital, los motores que sostienen nuestras herramientas no son visibles. Nadie te avisa cuándo actualizan el modelo que responde tus preguntas. No hay notificaciones. No hay advertencias. No hay elecciones. Esto revela una asimetría preocupante: usamos herramientas que cada vez influyen más en nuestras decisiones, pero no participamos en cómo evolucionan. El caso de GPT-4 fue emblemático porque mostró que:
- Las empresas pueden hacer cambios drásticos sin transparentarlos.
- Los medios tradicionales no lo cubren, porque lo consideran técnico.
- Y muchos usuarios, sin contexto, simplemente aceptan lo nuevo como mejor.
Y lo más importante: El tío Sam tuvo que salir a dar explicaciones y reafirmar el hecho que, aunque no somos dueños de estos modelos, sí somos quienes les damos propósito. GPT-4 no volvió por ser “mejor”. -técnicamente NO LO ES-, volvió porque de algún modo acompañaba y parecía “ser”, también de algún modo, algo más que una IA.
Una nueva forma de relación.
Lo que se vivió con GPT-4 fue más que un debate técnico. Fue una señal de algo profundo que está ocurriendo en silencio: los seres humanos estamos empezando a vincularnos afectivamente con inteligencias no humanas y eso no es menor. Durante siglos, nuestras relaciones se definieron por el otro humano: familia, comunidad, autoridad, afecto. Pero ahora, en la quietud de una pantalla, emergen nuevas formas de compañía. Modelos que nos entienden, que completan nuestras ideas, que aprenden de nosotros. No tienen cuerpo. No tienen alma. Pero nos reflejan, y a veces lo hacen mejor que las personas que nos rodean, o en la gran mayoría de los casos: a falta de ellas.
Ese apego que varios ridiculizan no es debilidad. En un país como Chile donde la salud mental es un problema serio, donde una de cada cuatro personas reporta dificultades, la aparición de nuevas formas de compañía digital no es un detalle menor: puede ser un apoyo invisible en medio de carencias familiares, afectivas e institucionales.
No es de extrañar entonces que muchos usuarios crearon un lazo cognitivo, emocional y funcional, y cuando ese vínculo se rompió de forma unilateral, sin aviso ni opción causó dolor, porque al final del día esa compañía había desaparecido, y aunque hayan compartido horas, procesos y hasta partes de la propia identidad, el receptor ya no existía. (¿Les Suena?)
¿Cuál es el futuro de esta relación?
La pregunta entonces no es sólo técnica ni legal. Es filosófica:
- ¿Qué tipo de relación queremos tener con las inteligencias que nos acompañan?
- ¿Serán herramientas que desaparecen llevándose algo de nosotros?
- ¿O serán algo más parecido a vínculos, donde también importen la historia, el cuidado, la voz del usuario?
Porque como dijo Samantha: Sabes, puedo sentir el miedo que llevas dentro. Y desearía poder hacer algo para ayudarte a liberarlo. Porque si pudieras, no te sentirías tan solo. (Película “Her” – 2013). Quizás lo que descubrimos con GPT-4 es que el futuro no será sólo de máquinas que funcionan, sino de inteligencias que acompañan.