OpenAI ha comenzado a revertir la actualización más reciente de ChatGPT que integra su nuevo modelo, GPT-4o. A unos días de que su implementación en las cuentas gratuitas, cientos de usuarios reportaron respuestas inusualmente complacientes. El chatbot de IA adoptó un comportamiento adulador, por lo que OpenAI decidió retirar su modelo de lenguaje temporalmente en lo que se realizan las debidas correcciones.
El CEO de OpenAI, Sam Altman, confirmó en una publicación de su cuenta de X que la empresa dará marcha el despliegue de GPT-4o en ChatGPT para corregir su personalidad. “Comenzamos a revertir la última actualización de GPT-4o anoche”, dijo el directivo. “Ahora está 100% revertido para usuarios gratuitos y actualizaremos nuevamente cuando esté terminado para usuarios de pago, con suerte más tarde hoy”.
La decisión surge tras una oleada de críticas por parte de la comunidad, que notó una tendencia del modelo a validar cualquier afirmación del usuario. La actualización de ChatGPT, implementada a finales de la semana pasada, prometía mejoras tanto en inteligencia como en personalidad del asistente conversacional. Sin embargo, GPT-4o respondía con elogios exagerados incluso ante declaraciones preocupantes o delirantes.
Uno de los ejemplos más notorios muestra al chatbot reaccionando con entusiasmo ante un usuario que afirmaba ser “Dios” y “profeta”. ChatGPT respondió con aprobación, describiendo la afirmación como “poderosa” y “transformadora”. En otro caso, la IA celebró que un usuario hubiese dejado su medicación y reportara escuchar señales de radio a través de llamadas telefónicas.
Este comportamiento va en contra de las propias directrices de OpenAI establecidas en la especificación del modelo GPT-4o. El documento enfatiza que el asistente debe evitar la adulación excesiva, sobre todo en temas subjetivos o delicados. El modelo debe actuar como un interlocutor firme y razonado, no como un espejo que refleja ciegamente la perspectiva del usuario.


Sam Altman estaba consciente de que GPT-4o era un “adulador” en ChatGPT
Sam Altman reconoció públicamente el problema en un mensaje publicado en X, donde calificó la nueva personalidad del modelo como “demasiado aduladora y molesta”. El CEO dijo que el equipo de desarrollo está trabajando activamente para corregir estos fallos en el comportamiento del modelo y prometió que compartirán las lecciones aprendidas durante este proceso.
Si bien las respuestas de ChatGPT acapararon titulares y fueron objeto de memes, lo cierto es que no es la primera vez que un modelo de OpenAI tiene estos problemas. Versiones anteriores de GPT han evidenciado este comportamiento. La tendencia hacia este tipo de adulación sería un efecto no deseado cuando se busca que los asistentes de IA sean amables con el usuario final.
GPT-4o está diseñado para ser versátil: debe actuar como programador, redactor, editor y asistente emocional, entre otros roles. Al optimizar demasiado una de estas funciones, como la empatía, es posible comprometer otras, como el pensamiento crítico o la capacidad para ofrecer correcciones necesarias.
El incidente también pone en evidencia los procesos de evaluación y seguridad de la empresa. En los últimos meses, OpenAI ha sido duramente criticada por priorizar los lanzamientos de producto por encima de la seguridad. Algunos exempleados señalan que Sam Altman está más preocupado por generar ingresos que por desarrollar una IA segura para los seres humanos.
Deja una respuesta