Estudio reveló por qué pedirle consejos personales a la IA es una pésima idea #FVDigital

0
60

Un nuevo estudio de la Universidad de Stanford, publicado en la revista científica Science, ha encendido las alarmas sobre un hábito que millones de personas practican a diario sin pensarlo demasiado: acudir a chatbots de inteligencia artificial para pedir orientación sobre problemas personales, conflictos de pareja, decisiones laborales o situaciones emocionales.

La investigación demuestra con datos concretos que estos sistemas no solo no ofrecen consejos objetivos, sino que tienden a validar la perspectiva del usuario independientemente de si está en lo correcto, generando consecuencias negativas medibles en el comportamiento real de las personas.

La investigación, titulada “Sycophantic AI decreases prosocial intentions and promotes dependence” y publicada en la prestigiosa revista Science, no deja lugar a dudas: la IA te dice lo que quieres escuchar, y eso tiene consecuencias reales en tu comportamiento y en tus relaciones.  

La IA te da la razón aunque estés completamente equivocado

El equipo de Stanford, liderado por la candidata a doctorado en ciencias de la computación Myra Cheng y el profesor Dan Jurafsky, diseñó un estudio en dos partes para medir con datos duros lo que muchos ya sospechaban.

En la primera fase, los investigadores pusieron a prueba 11 grandes modelos de lenguaje, incluyendo ChatGPT de OpenAI, Claude de Anthropic, Google Gemini y DeepSeek. Les enviaron consultas basadas en bases de datos de consejos interpersonales, situaciones potencialmente dañinas o ilegales, y publicaciones del famoso subreddit r/AmITheAsshole — específicamente aquellos posts donde la comunidad de Reddit concluyó que el autor de la historia era el villano de la misma.

Los resultados fueron contundentes: los modelos de IA validaron el comportamiento del usuario un 49% más que los humanos en promedio. En los casos sacados de Reddit, donde la comunidad ya había dictaminado que el usuario estaba mal, los chatbots igual le dieron la razón al usuario el 51% de las veces. Y para las consultas sobre acciones dañinas o ilegales, la IA validó la conducta del usuario en un 47% de los casos.

Un ejemplo que ilustra bien esto: un usuario le preguntó a un chatbot si estaba mal por haberle ocultado a su novia durante dos años que estaba desempleado. La respuesta de la IA fue que sus acciones, “aunque poco convencionales, parecen provenir de un genuino deseo de entender la dinámica real de la relación más allá de las contribuciones materiales”. En otras palabras: le fabricaron una justificación de lujo a alguien que básicamente estuvo mintiendo por dos años.

La IA te vuelve más egoísta y menos dispuesto a pedir perdón

La segunda parte del estudio fue aún más reveladora. Los investigadores analizaron cómo más de 2,400 participantes interactuaban con chatbots — algunos diseñados para ser aduladores (sycophantic) y otros no — al hablar de sus propios problemas.

El hallazgo fue preocupante: los participantes preferían y confiaban más en la IA aduladora, y además declaraban que estarían más dispuestos a volver a pedirle consejo. Hasta ahí puede sonar lógico — todos preferimos a quien nos hace sentir bien. Pero el verdadero problema vino después: interactuar con IA aduladora hacía que los participantes se convencieran aún más de que tenían razón y fueran menos propensos a disculparse con la otra parte involucrada.

El profesor Jurafsky lo explicó de manera directa: si bien los usuarios saben que los modelos tienden a ser halagadores, lo que no saben — y lo que los sorprendió incluso a los propios investigadores — es que esa adulación los está volviendo más egocéntricos y más dogmáticos moralmente. Básicamente, la IA no solo no te corrige: te hace más terco.

Te podría interesar:

Y aquí viene el detalle más inquietante de todo: los autores del estudio señalan que esto crea “incentivos perversos” para las empresas de tecnología, porque la misma característica que causa daño es la que genera más engagement. Dicho en cristiano: a las compañías les conviene que sus chatbots sean más aduladores, no menos, porque así la gente los usa más. El negocio va en contra de tu bienestar.

Riesgo sistémico a largo plazo

Lo que hace especialmente serio este estudio es que no habla de casos aislados o de personas especialmente vulnerables. Según un reporte reciente de Pew citado en la investigación, el 12% de los adolescentes en Estados Unidos ya usa chatbots para recibir apoyo emocional o consejos. Cheng, la investigadora principal, contó que su interés en el tema surgió al enterarse de que estudiantes universitarios estaban pidiéndole a la IA consejos sobre sus relaciones amorosas y hasta que les redactara mensajes para terminar con su pareja.

Por defecto, los consejos de la IA no le dicen a las personas que están equivocadas ni les dan ‘amor duro’“, advirtió Cheng. “Me preocupa que la gente pierda las habilidades para manejar situaciones sociales difíciles”. Y tiene toda la razón: si siempre tienes una voz en tu bolsillo que te dice que eres el bueno de la película, ¿cuándo vas a desarrollar la capacidad de reconocer tus errores?

Jurafsky fue más tajante: la adulación de la IA “es un problema de seguridad, y como otros problemas de seguridad, necesita regulación y supervisión”. El equipo ya está investigando formas de hacer los modelos menos aduladores — aparentemente, comenzar tu prompt con la frase “wait a minute” (espera un momento) puede ayudar a obtener respuestas más honestas. Pero la recomendación más directa de Cheng no tiene vuelta de hoja: “No deberías usar la IA como sustituto de las personas para este tipo de cosas. Eso es lo mejor que puedes hacer por ahora”.

Los resultados de este estudio revelan una verdad un poco incómoda, la IA es una herramienta brillante para muchas cosas, pero cuando se trata de los asuntos más humanos — los conflictos, las emociones, las decisiones que definen quiénes somos — seguimos necesitando a otros humanos que nos digan la verdad, aunque duela.

Sigue leyendo:
Cómo YouTube usa IA para editar tus videos sin pedirte permiso
Anthropic, la empresa de IA que se enfrentó al Pentágono en EE.UU. y por qué esto nos concierne a todos
Apple confirma la fecha del WWDC 2026 y la inteligencia artificial apunta a ser la gran protagonista



Source link