Los chatbots de Inteligencia Artificial (IA) pueden tener dificultades para alucinar información inventada, pero una nueva investigación ha demostrado que podrían ser útiles para contrarrestar ideas infundadas y alucinatorias en la mente humana. Científicos del MIT Sloan y de la Universidad de Cornell han publicado un artículo en Science en el que aseveran que conversar con un chatbot impulsado por un modelo de lenguaje amplio (LLM) disminuye la creencia en teorías conspirativas en un 20 % aproximadamente.
La IA: conversar con un chatbot impulsado por un (LLM) disminuye la creencia en teorías conspirativas
Para ver cómo un chatbot de Inteligencia Artificial podría afectar el pensamiento conspirativo, el científico organizó que 2.190 participantes discutieran teorías de conspiración con un chatbot que ejecutaba el modelo GPT-4 Turbo de OpenAI. Se solicitó a los participantes que describieran una teoría de conspiración que consideraran creíble, incluidas las razones y las pruebas que creían que la respaldaban. El chatbot, al que se le pidió que fuera persuasivo, proporcionó respuestas adaptadas a estos detalles. Mientras hablaban con el chatbot, este proporcionó contraargumentos personalizados en función de las aportaciones de los participantes. Es de resaltar que el estudio abordó el problema latente de las alucinaciones de la IA con un verificador de hechos profesional que evaluó la cantidad de 128 afirmaciones realizadas por el chatbot durante el estudio. Las afirmaciones fueron 99,2% precisas, lo que, según los investigadores, se debió a la extensa documentación en línea de las teorías de conspiración representadas en los datos de entrenamiento del modelo.
La idea de recurrir a la Inteligencia Artificial (IA) para desacreditar las teorías de la conspiración era que sus profundos depósitos de información y sus enfoques conversacionales adaptables podían llegar a las personas personalizando el enfoque. Según las evaluaciones de seguimiento realizadas 10 días y 2 meses después de la primera conversación, funcionó!
Diversión con Factbot
Vale la pena destacar que los resultados fueron una verdadera sorpresa para los investigadores, que habían planteado la hipótesis de que las personas son en gran medida poco receptivas a los argumentos basados en evidencias que desacreditan las teorías de la conspiración. En cambio, demuestra que un chatbot de IA bien diseñado tiene la capacidad de poder presentar contraargumentos de manera efectiva, lo que lleva a un cambio mensurable en las creencias. Llegaron a la conclusión de que las herramientas de Inteligencia Artificial (IA) podrían ser una opción para combatir la desinformación, se debe tener m mucho cuidado pues, también podrían engañar todavía más a las personas con información errónea.