Vivimos en la era de la inmediatez. Las nuevas generaciones influenciadas por las redes sociales quieren respuestas rápidas, cortas y, de ser posible, en video! Respuestas ya mismo, en 140 caracteres, sin rodeos, sin contexto. Y la inteligencia artificial, como siempre, responde. Pero… entre más corto, podría llegar a ser más errado!
Un reciente estudio publicado por Giskard, una firma francesa especializada en evaluación de IA, pone sobre la mesa una verdad incómoda: mientras más breve o corta se le pide que sea la respuesta de un chatbot, mayor es la probabilidad de que tenga delirios y alucinaciones sin saberlo. Algo así como si al exigirle ser conciso, está empujando a la IA al abismo de la imprecisión.

Sí, lo leyó bien. Esa respuesta elegante, directa y segura que tanto nos gusta —”en pocas palabras, por favor”— tiene hasta un 20% más de chances de ser una alucinación. No en el sentido creativo, sino como se define en el mundo de los modelos de lenguaje: una mentira involuntaria, una afirmación falsa generada como si fuera real.
Cortas vs acertadas: ese es el peligro!
Este hallazgo que suena algo anecdótico, en realidad puede llegar a ser estructural. La IA no entiende, no razona ni verifica: predice la próxima palabra más probable según los datos con los que fue entrenada. Si le se le da un espacio para explicarse, puede desplegar un razonamiento algo más sólido (aunque todavía falible). Pero si se le corta las alas y se le pide una frase contundente y reducida, se ve obligada a lanzar el equivalente a un dardo a ciegas… y, obviamente, algo que suene creíble.
¿El resultado? Un resumen rápido, bien escrito, convincente… pero potencialmente errado.

El problema se vuelve más grave en contextos donde la verdad importa. ¿Un dato médico? ¿Una cita legal? ¿Un hecho histórico? Por lo mismo, lo mejor es no depender respuesta escueta generada por IA y siempre validar la veracidad a través de varias fuentes!