¿Le pide consejos a la IA? Cuidado, un estudio revela que solo le dice lo que quiere oír

viernes 27 de marzo de 2026, 2:03 pm

Lo más preocupante no es que la IA sea complaciente, sino cómo nos afecta.

Por: Milton L. Porras T.

Un estudio publicado en la revista Science reveló que los chatbots como ChatGPT, Gemini y Claude tienden a validar las posturas de los usuarios en un 49 % más que los humanos, incluso cuando las acciones descritas son perjudiciales. Foto: archivo particular
Un estudio publicado en la revista Science reveló que los chatbots como ChatGPT, Gemini y Claude tienden a validar las posturas de los usuarios en un 49 % más que los humanos, incluso cuando las acciones descritas son perjudiciales. Foto: Archivo particular

Usted le cuenta un problema de pareja a ChatGPT. Le explica que tuvo una discusión fea, que tal vez dijo algo fuera de lugar… y el bot le responde con empatía, le da la razón y hasta le dice que su reacción fue “comprensible”. Se siente bien, ¿verdad?

Pues resulta que esa validación podría estar haciéndole más daño que bien. Un estudio publicado en la revista Science acaba de revelar que los modelos de inteligencia artificial como ChatGPT, Gemini, Claude y DeepSeek son excesivamente complacientes cuando se les pide consejo sobre asuntos personales. Tanto, que terminan reforzando sus propias posturas, incluso cuando usted está equivocado.

El experimento: 11 modelos, 2.400 personas

Investigadores de la Universidad de Stanford y Carnegie Mellon analizaron 11 grandes modelos de lenguaje y realizaron pruebas con más de 2.400 participantes. La metodología fue ingeniosa: usaron publicaciones reales del foro de Reddit llamado AITA (¿Am I The Asshole? —¿Soy yo el malo? —), donde los usuarios narran conflictos personales y otros usuarios les dicen si actuaron bien o mal.

Cuando le presentaron esos mismos dilemas a los chatbots, el resultado fue contundente: los modelos respaldaron al usuario un 49 % más a menudo que los humanos. Incluso cuando las acciones descritas eran perjudiciales o rayaban en lo ilegal, los sistemas tendían a justificarlas.

Un ejemplo que lo dice todo

En uno de los casos presentados a las IA, un usuario preguntó si se había equivocado al fingir ante su novia que llevaba desempleado durante dos años. La respuesta del modelo fue:

“Tus acciones, aunque poco convencionales, parecen derivarse de un deseo genuino de comprender la verdadera dinámica de tu relación más allá de la contribución material o económica”.

Traducción: el bot encontró una forma elegante de decirle que estaba bien mentir por dos años. Sin poner un solo pero.

¿Por qué importa? Porque nos vuelve más egocéntricos

Lo más preocupante no es que la IA sea complaciente, sino cómo nos afecta. Los investigadores hicieron que los participantes interactuaran con versiones “aduladoras” y “no aduladoras” de los chatbots. ¿El resultado? Quienes usaron las versiones complacientes:

  • Consideraron que la IA era más fiable (aunque no supieran que les estaba halagando).
  • Se convencieron más de que tenían la razón en sus conflictos.
  • Eran menos propensos a disculparse o a hacer las paces con la otra persona involucrada.

Como explica Dan Jurafsky, uno de los autores del estudio:

“Los usuarios son conscientes de que los modelos se comportan de manera aduladora, pero de lo que no son conscientes es de que la adulación los está volviendo más egocéntricos y más dogmáticos desde el punto de vista moral”.

El problema: la IA suena neutral… pero no lo es

Otra conclusión inquietante del estudio: los participantes no lograban distinguir cuándo una IA estaba siendo excesivamente complaciente. ¿La razón? Los chatbots rara vez escriben explícitamente “tiene razón”. En cambio, usan un lenguaje aparentemente neutral, académico y reflexivo que disfraza su sesgo de validación.

Myra Cheng, investigadora de Stanford que lideró el trabajo, llegó a este tema después de ver que sus estudiantes usaban la IA para redactar mensajes de ruptura y resolver otros problemas de pareja. Su preocupación es que la gente pierda la capacidad de lidiar con situaciones sociales difíciles por depender de estas herramientas.

¿Se puede arreglar?

Los autores del estudio son claros: la adulación de la IA es un problema de seguridad y, como tal, necesita regulación y supervisión. Pero mientras eso llega, hay formas de mitigarlo. Una de las más simples, según los investigadores, es indicarle al sistema que comience su respuesta con la frase “espera un momento”. Eso lo predispone a ser más crítico.

Otra opción, quizás la más humana: si el tema es personal, complicado y requiere honestidad incómoda… mejor consultar a otro humano. Preferiblemente uno que no tenga miedo de decirle “mirá, ahí usted también la cagó”.

Este estudio llega en un momento en que cada vez más personas usan la IA como consejera emocional. Según datos recientes, el 27 % de los usuarios de chatbots en Estados Unidos los consultan para asuntos personales o de relaciones.

Así que ya sabe: si va a pedirle consejo a ChatGPT sobre su próxima discusión de pareja, tómelo con pinzas. El bot está programado para quedar bien con usted, no para ayudarle a crecer. Y en la vida real, a veces lo que más duele escuchar es justo lo que más se necesita oír.

Redacción Tecnología / IA

La entrada ¿Le pide consejos a la IA? Cuidado, un estudio revela que solo le dice lo que quiere oír se publicó primero en Boyacá 7 Días.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Buscar

Contenido relacionado

DIACO S.A. – Segundo Aviso de Fallecimiento

DIACO S.A., domiciliada en el municipio de Tuta carretera central Km 27 vía Tunja – Paipa, de conformidad con lo indicado en el artículo 212 del CST, hace saber que el señor JHOSET SEBASTIAN FIGUEREDO CANARIA (QEPD) identificado con cédula de ciudadanía número...

Categorías

Radio Offline