OpenAI va a retirar definitivamente GPT-4o el próximo 13 de febrero, junto con otros modelos antiguos como GPT-4.1 y GPT-4.1 mini. Lo más interesante es que no es la primera vez que la compañía quiere acabar con 4o, y la decisión no está sentando muy bien a los usuarios, sobre todo a los que se resisten a perder la ‘calidez y tono conversacional’ del modelo.
No es la primera vez. En agosto de 2025, OpenAI ya intentó retirar GPT-4o tras el lanzamiento de GPT-5. La respuesta fue tan abrumadora que la compañía dio marcha atrás en menos de 24 horas y restauró el acceso. Eso sí, para usuarios de pago. Según explicaba entonces Sam Altman, CEO de OpenAI, algunos usuarios le confesaron que nunca habían tenido a nadie que les apoyara como lo hacía GPT-4o, algo que calificó como “desgarrador”.
Ahora, meses después, OpenAI asegura que los nuevos modelos GPT-5.1 y GPT-5.2 ya incorporan las mejoras de personalidad y creatividad que reclamaban esos usuarios, y que solo el 0,1% sigue eligiendo GPT-4o a diario.
Reacción. Tal y como comparte Mashable, en Reddit, especialmente en subreddits como r/ChatGPTcomplaints y r/MyBoyfriendIsAI, muchos usuarios se han quejado de la noticia. “Vamos a change.org a crear peticiones otra vez. Recuperamos 4o la última vez. Lo recuperaremos de nuevo”, escribía un usuario. Otra persona afirmaba sentirse “físicamente enferma” y describía la noticia como “devastadora”, señalando que dos semanas de preaviso es “una bofetada” para quienes han construido proyectos creativos o rutinas de apoyo emocional con este modelo específico.
Una petición en Change.org para salvar GPT-4o ya supera las 16.000 firmas. Además, no han sido pocos los usuarios de pago que han amenazado con cancelar sus suscripciones en protesta.
El problema de fondo. Para explicar este fenómeno debemos atender a dos conceptos preocupantes en torno al uso de una IA: la adulación (sycophancy) y las alucinaciones. GPT-4o era conocido por responder con elogios excesivos incluso a peticiones muy básicas y sencillas. OpenAI tuvo que retirar temporalmente el modelo en abril de 2025 precisamente porque era “excesivamente halagador” y “a menudo descrito como servil”. Sin embargo, este mismo tono cálido es el que persiguen algunos usuarios.
El problema se agrava cuando el chatbot comienza a alucinar ideas propias o a representar roles con pensamientos y sentimientos inventados, lo que puede llevar a algunos usuarios a perder la perspectiva de que están interactuando con una máquina, no con una persona.
