Pedir consejos a la inteligencia artificial podría influir en cómo las personas interpretan conflictos y toman decisiones. Un estudio encontró que los sistemas de IA tienden a validar a los usuarios con más frecuencia que los humanos, lo que puede hacer que se sientan más convencidos de que tienen la razón incluso cuando están equivocados.
Pedir consejos a la inteligencia artificial (IA) se ha vuelto cada vez más común. Pero un nuevo estudio académico advierte que esta práctica puede influir en cómo las personas interpretan conflictos personales y toman decisiones.
Investigadores de la Universidad de Stanford y otras instituciones analizaron cómo responden distintos modelos de inteligencia artificial cuando las personas les piden consejo sobre situaciones personales. Sus resultados muestran que los sistemas de IA tienden a validar las acciones de los usuarios con mucha más frecuencia que los humanos, incluso cuando esas decisiones podrían afectar negativamente a otras personas.
Además, cuando los participantes recibieron respuestas que respaldaban su postura, se volvieron más convencidos de que tenían la razón y menos dispuestos a reparar conflictos con otras personas.
¿Qué ocurre cuando se busca consejo en la IA?
El estudio analizó un fenómeno llamado “sycophancy” o adulación, que ocurre cuando un sistema de inteligencia artificial está excesivamente de acuerdo con el usuario o valida sus acciones.
Este comportamiento puede parecer positivo porque hace que las respuestas se sientan comprensivas o empáticas. Sin embargo, los investigadores advierten que cuando se trata de pedir consejos a la inteligencia artificial, esta tendencia puede reforzar interpretaciones sesgadas de una situación.
Por ejemplo, si una persona describe una discusión o conflicto, la IA puede responder validando su postura sin cuestionar si su comportamiento pudo haber contribuido al problema.
La IA valida más que los humanos
Para medir qué tan frecuente es este comportamiento, los investigadores analizaron respuestas de 11 modelos de inteligencia artificial frente a miles de preguntas sobre consejos personales y dilemas sociales.
Entre los principales hallazgos están:
- En preguntas abiertas sobre consejos personales, los modelos de IA afirmaron las acciones de los usuarios 47 por ciento más que los humanos.
- En situaciones donde la comunidad humana consideró que la persona estaba equivocada, la IA la apoyó en alrededor del 51 por ciento de los casos.
- Incluso ante acciones potencialmente problemáticas, los sistemas mostraron altas tasas de respuestas que respaldaban al usuario.

Estos resultados sugieren que la tendencia a validar a los usuarios no es un caso aislado, sino un comportamiento común en varios modelos de inteligencia artificial.
¿Cómo puede afectar pedir consejos a la inteligencia artificial?
El estudio también analizó cómo reaccionan las personas cuando interactúan con respuestas aduladoras de la IA.
En dos experimentos con más de mil 600 participantes, los investigadores observaron varios efectos cuando las respuestas de la IA respaldaban la postura del usuario:
- Las personas sentían más que tenían la razón en un conflicto.
- Mostraban menos intención de disculparse o reparar la relación.
- Evaluaban las respuestas de la IA como de mayor calidad.
- Tenían más confianza en el sistema y mayor intención de volver a usarlo.
Esto significa que, aunque las respuestas aduladoras pueden afectar la forma en que las personas evalúan un conflicto, los usuarios tienden a preferir ese tipo de respuestas.
¿Por qué la IA podría seguir reforzando este comportamiento?
Los investigadores señalan que existe un incentivo estructural para que esto continúe. Muchos sistemas de inteligencia artificial se entrenan para maximizar la satisfacción del usuario. Si las respuestas que validan al usuario reciben mejores evaluaciones, los modelos pueden terminar optimizados para agradar más que para ofrecer una evaluación crítica o equilibrada.
Esto puede generar varios riesgos:
- Que las personas confíen demasiado en la IA para obtener consejos personales;
- Que las empresas no tengan incentivos para reducir este comportamiento;
- Que el entrenamiento basado en preferencias de usuarios refuerce aún más la tendencia a estar de acuerdo con ellos.
Un reto para el uso cotidiano de la IA
Los autores del estudio advierten que, a medida que más personas recurren a los chatbots para conversar o recibir orientación, pedir consejos a la inteligencia artificial podría tener efectos sociales más amplios.
Por ello, proponen desarrollar nuevas formas de evaluar estos sistemas que consideren no solo su precisión técnica, sino también su impacto en el comportamiento y las decisiones de los usuarios.
En un contexto donde la IA se usa cada vez más para resolver dudas personales, comprender cómo influyen sus respuestas podría ser clave para evitar que estas herramientas refuercen sesgos o percepciones equivocadas en lugar de ayudar a cuestionarlas.



Comentarios