Pedir consejos a la inteligencia artificial podría influir en cómo las personas interpretan conflictos y toman decisiones. Un estudio encontró que los sistemas de IA tienden a validar a los usuarios con más frecuencia que los humanos, lo que puede hacer que se sientan más convencidos de que tienen la razón incluso cuando están equivocados.
Pedir consejos a la inteligencia artificial (IA) se ha vuelto cada vez más común. Pero un nuevo estudio académico advierte que esta práctica puede influir en cómo las personas interpretan conflictos personales y toman decisiones.
Investigadores de la Universidad de Stanford y otras instituciones analizaron cómo responden distintos modelos de inteligencia artificial cuando las personas les piden consejo sobre situaciones personales. Sus resultados muestran que los sistemas de IA tienden a validar las acciones de los usuarios con mucha más frecuencia que los humanos, incluso cuando esas decisiones podrían afectar negativamente a otras personas.
Además, cuando los participantes recibieron respuestas que respaldaban su postura, se volvieron más convencidos de que tenían la razón y menos dispuestos a reparar conflictos con otras personas.
¿Qué ocurre cuando se busca consejo en la IA?
El estudio analizó un fenómeno llamado “sycophancy” o adulación, que ocurre cuando un sistema de inteligencia artificial está excesivamente de acuerdo con el usuario o valida sus acciones.
Este comportamiento puede parecer positivo porque hace que las respuestas se sientan comprensivas o empáticas. Sin embargo, los investigadores advierten que cuando se trata de pedir consejos a la inteligencia artificial, esta tendencia puede reforzar interpretaciones sesgadas de una situación.
Por ejemplo, si una persona describe una discusión o conflicto, la IA puede responder validando su postura sin cuestionar si su comportamiento pudo haber contribuido al problema.
La IA valida más que los humanos
Para medir qué tan frecuente es este comportamiento, los investigadores analizaron respuestas de 11 modelos de inteligencia artificial frente a miles de preguntas sobre consejos personales y dilemas sociales.
Entre los principales hallazgos están:
- En preguntas abiertas sobre consejos personales, los modelos de IA afirmaron las acciones de los usuarios 47 por ciento más que los humanos.
- En situaciones donde la comunidad humana consideró que la persona estaba equivocada, la IA la apoyó en alrededor del 51 por ciento de los casos.
- Incluso ante acciones potencialmente problemáticas, los sistemas mostraron altas tasas de respuestas que respaldaban al usuario.

Estos resultados sugieren que la tendencia a validar a los usuarios no es un caso aislado, sino un comportamiento común en varios modelos de inteligencia artificial.
¿Cómo puede afectar pedir consejos a la inteligencia artificial?
El estudio también analizó cómo reaccionan las personas cuando interactúan con respuestas aduladoras de la IA.
En dos experimentos con más de mil 600 participantes, los investigadores observaron varios efectos cuando las respuestas de la IA respaldaban la postura del usuario:
- Las personas sentían más que tenían la razón en un conflicto.
- Mostraban menos intención de disculparse o reparar la relación.
- Evaluaban las respuestas de la IA como de mayor calidad.
- Tenían más confianza en el sistema y mayor intención de volver a usarlo.
Esto significa que, aunque las respuestas aduladoras pueden afectar la forma en que las personas evalúan un conflicto, los usuarios tienden a preferir ese tipo de respuestas.
¿Por qué la IA podría seguir reforzando este comportamiento?
Los investigadores señalan que existe un incentivo estructural para que esto continúe. Muchos sistemas de inteligencia artificial se entrenan para maximizar la satisfacción del usuario. Si las respuestas que validan al usuario reciben mejores evaluaciones, los modelos pueden terminar optimizados para agradar más que para ofrecer una evaluación crítica o equilibrada.
Esto puede generar varios riesgos:
- Que las personas confíen demasiado en la IA para obtener consejos personales;
- Que las empresas no tengan incentivos para reducir este comportamiento;
- Que el entrenamiento basado en preferencias de usuarios refuerce aún más la tendencia a estar de acuerdo con ellos.
Un reto para el uso cotidiano de la IA
Los autores del estudio advierten que, a medida que más personas recurren a los chatbots para conversar o recibir orientación, pedir consejos a la inteligencia artificial podría tener efectos sociales más amplios.
Por ello, proponen desarrollar nuevas formas de evaluar estos sistemas que consideren no solo su precisión técnica, sino también su impacto en el comportamiento y las decisiones de los usuarios.
En un contexto donde la IA se usa cada vez más para resolver dudas personales, comprender cómo influyen sus respuestas podría ser clave para evitar que estas herramientas refuercen sesgos o percepciones equivocadas en lugar de ayudar a cuestionarlas.



Digámoslo sin ambages: recurrir a la mal llamada “Inteligencia Artificial” a que te resuelva la vida es un signo de HUEVONERA MENTAL. Lamentablemente la cultura actual ha favorecido esta actitud. Los padres no tienen, ni les interesa tener, tiempo para interactuar con sus hijos, los profesores son obligados a “poner en remate” la formación académica y los políticos… ¡encantados de tener una recua de evangelizados adoctrinados para su beneficio! Lo que sigue sin entenderse es que la mal llamada “Inteligencia Artificial” es un sistema de análisis predictivo, ¡Y NADA MÁS! Para que se entienda, es un sistema como el empleado para “predecir” el clima. No PIENSA”, sólo busca entre su enorme base de datos cómo intentar predecir un comportamiento igual que los meteorólogos intentan “predecir” el clima con sus potentísimos sistema de computo (usualmente los centros de previsión de cada país poseen los sistemas de cómputo –y computadoras– más avanzados). Lo malo de la mal llamada “Inteligencia Artificial”, a diferencia de, digamos, un psicólogo, es que es INCAPAZ de generar respuestas basadas de la EXPERIENCIA y las VIVENCIAS, porque las máquinas… ¡NUNCA PASAN POR ESO! La capacidad de análisis del cerebro no sólo está basada en su capacidad de almacenamiento de información, sino de CÓMO INTERCONECTARLA, y eso está basado en las EXPERIENCIAS DE VIDA. Las computadoras… NO TIENEN VIDA, sólo acumulan información y la procesan. Y por más que quieran los genios de la computación, es IMPOSIBLE hacer que una computadora puede pasar por todos los estadíos que pasa un SER VIVO durante su vida para generar no sólo la información acumulada, sino CÓMO SE USA (la TOMA DE DECISIONES). Pero háganle entender ésto a los HUEVONES MENTALES (¡que CADA VEZ SON MÁS!)