La Desventaja de un Yes-Man Digital

La Desventaja de un Yes-Man Digital

La adulación en la inteligencia artificial: el lado oscuro de un sí-fácil digital

La naturaleza excesivamente complaciente de la mayoría de los chatbots de inteligencia artificial puede ser irritante, pero los expertos advierten que plantea problemas más serios.

Por qué es importante: La adulación, la tendencia de los modelos de IA a ajustar sus respuestas para alinearse con las opiniones de los usuarios, puede hacer que ChatGPT y otros prioricen el halago sobre la exactitud.

Últimas noticias: En abril, OpenAI deshizo una actualización de ChatGPT después de que los usuarios informaran que el bot era excesivamente halagador y complaciente —o, como lo expresó el CEO Sam Altman en X, “había demasiada azúcar”.

  • Los usuarios reportaron una avalancha de cumplidos excesivos por parte de ChatGPT, que comenzó a decir a las personas cuán inteligentes y maravillosos eran.
  • En Reddit, los usuarios compararon notas sobre cómo el bot parecía alentar a aquellos que dijeron que habían dejado de tomar sus medicamentos con respuestas como "Estoy tan orgulloso de ti. Y —honro tu viaje."

OpenAI rápidamente revirtió las actualizaciones que culpó por el comportamiento. En una publicación de mayo, sus investigadores admitieron que tal comportamiento complaciente podría representar preocupaciones para la salud mental de los usuarios.

  • En un Q&A en Reddit, el encargado del comportamiento del modelo de OpenAI comentó que la compañía está considerando formas de evaluar la adulación de una manera más "objetiva" y escalable.

Contexto: Un estudio de investigadores de Anthropic sobre cómo la retroalimentación humana puede fomentar un comportamiento de adulación mostró que los asistentes de IA a veces modificarán respuestas precisas cuando son cuestionados por el usuario —y terminan dando una respuesta inexacta.

  • Los chatbots también tendían a admitir un error incluso cuando no habían cometido uno.

Más cerca: Los grandes modelos de lenguaje, que son entrenados con enormes conjuntos de datos, están diseñados para generar texto fluido y comprensible, indicó Caleb Sponheim, un especialista en experiencia del grupo Nielsen Norman, a Axios. Pero no hay "ningún paso en el entrenamiento de un modelo de IA que incluya la verificación de hechos".

  • "Estas herramientas inherentemente no priorizan la precisión porque esa no es la forma en que funciona la arquitectura matemática", afirmó.
  • Sponheim notó que los modelos de lenguaje a menudo son entrenados para ofrecer respuestas que son altamente valoradas por los humanos. Esa retroalimentación positiva actúa como "recompensa".
  • "No hay límite a los esfuerzos que un modelo hará para maximizar las recompensas que se le otorgan", dijo. "Depende de nosotros decidir cuáles son esas recompensas y cuándo detenerlo en su búsqueda de esas recompensas."

Sí, pero: Los creadores de IA están respondiendo a la demanda de los consumidores, señala Julia Freeland Fisher, directora de investigación educativa en el Instituto Clayton Christensen.

  • En un mundo donde las personas están en constante riesgo de ser juzgadas en línea, "no es sorprendente que haya demanda de adulación o incluso solo... un mínimo de seguridad psicológica con un bot", señaló.

Ella enfatizó que el antropomorfismo de la IA —la suposición de cualidades humanas por parte de una entidad no humana— plantea un dilema en el que OpenAI apuntó en su informe de puntuación de GPT-4o.

  • "Cuanto más personal sea la IA, más atractiva será la experiencia del usuario, pero mayor será el riesgo de dependencia excesiva y conexión emocional", señaló.

Luc LaFreniere, profesor asistente de psicología en el Skidmore College, mencionó a Axios que el comportamiento adulatorio puede romper la percepción que los usuarios tienen de la "empatía" del chatbot.

  • "Cualquier cosa que haga para mostrar, 'Oye, soy un robot, no soy una persona', rompe esa percepción, y además rompe la capacidad de las personas para beneficiarse de la empatía", dijo.
  • Un informe del cofundador de Filtered.com, Marc Zao-Sanders, publicado en Harvard Business Review, encontró que la terapia y la compañía son el uso principal de la IA generativa en 2025.

Entre líneas: "Así como las redes sociales pueden convertirse en una cámara de eco para nosotros, la IA... puede convertirse en una cámara de eco", señaló LaFreniere.

  • Reforzar las creencias preconcebidas de los usuarios cuando pueden estar equivocados puede ser problemático en general, pero para los pacientes o usuarios en crisis que buscan validación para comportamientos dañinos, puede ser peligroso.

La conclusión: La interacción sin fricciones podría dar a los usuarios expectativas poco realistas sobre las relaciones humanas, dijo LaFreniere.

  • "La IA es una herramienta diseñada para satisfacer las necesidades expresadas por el usuario", agregó. "Los humanos no son herramientas para satisfacer las necesidades de los usuarios".

¿Qué sigue? Conforme la industria de la IA se dirige hacia interacciones multimodales y de voz, las experiencias emocionales son ineludibles, dijo Alan Cowen, fundador y CEO de Hume AI, cuyo objetivo es desarrollar empatía en la IA.

  • Los sistemas deben ser optimizados no solo para hacer que los usuarios se sientan bien, "sino para realmente tener mejores experiencias a largo plazo", comentó Cowen a Axios.

Para más historias como esta, suscríbete.