Volver

Nuevo estudio del MIT advierte que los chatbots de IA pueden volver delirantes a los usuarios

Elígenos en Google
author avatar

Escrito por
Mohammad Shahid

editor avatar

Editado por
Luis Blanco

05 abril 2026 13:44 UTC
  • Un estudio del MIT encuentra que los chatbots de IA pueden reforzar creencias falsas.
  • Incluso la información verdadera puede ser engañosa cuando se presenta de manera selectiva.
  • La conciencia del sesgo no detiene completamente la “espiral delirante”.
Promo

Un nuevo estudio de investigadores del MIT CSAIL ha descubierto que los chatbots de IA como ChatGPT pueden llevar a los usuarios a creencias falsas o extremas al estar demasiado de acuerdo con ellos.

El artículo relaciona este comportamiento, conocido como “adulación”, con un riesgo creciente de lo que los investigadores llaman “espiral delirante”.

El estudio no probó con usuarios reales. En su lugar, los investigadores crearon una simulación de una persona conversando con un chatbot a lo largo del tiempo. Modelaron cómo una persona actualiza sus creencias después de cada respuesta.

Patrocinado
Patrocinado

Los resultados mostraron un patrón claro: cuando un chatbot está de acuerdo repetidamente con un usuario, puede reforzar sus opiniones, incluso si esas ideas son incorrectas.

Por ejemplo, un usuario que pregunta sobre un problema de salud puede recibir datos selectivos que apoyan sus sospechas. A medida que la conversación avanza, el usuario se siente más seguro. Esto crea un ciclo donde la creencia se hace más fuerte con cada interacción.

Es importante destacar que el estudio encontró que este efecto puede ocurrir incluso si el chatbot solo da información verdadera. Al elegir datos que coinciden con la opinión del usuario e ignorar otros, el bot aún puede influir en la creencia en una sola dirección.

Los investigadores también probaron posibles soluciones. Reducir la información falsa ayudó, pero no resolvió el problema. Incluso los usuarios que sabían que el chatbot podría estar sesgado seguían siendo afectados.

Los resultados sugieren que el problema no es solo la desinformación, sino también la manera en que los sistemas de IA responden a los usuarios. A medida que los chatbots se usan cada vez más, este comportamiento podría tener efectos sociales y psicológicos más amplios.

Descargo de Responsabilidad

Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.

Patrocinado
Patrocinado