fbpx

AI hasta en las reseñas sintéticas

Si, IA hasta en las reseñas…

Tal como lo decíamos anteriormente, Para nadie es un secreto que las reseñas falsas han existido desde hace un largo tiempo en Internet pero, cabe hacerse la pregunta ¿qué tan perjudicial es tener reseñas escritas por la IA? Hay que mencionar que el ascenso de los modelos de lenguaje extenso (LLM) como lo es ChatGPT, muestra que estamos entrando en una nueva era de reseñas falsas, y los gobiernos de Europa, así como también del resto del mundo, deben actuar desde ya antes de que sea demasiado tarde.

Como era de esperarse, esto también ha llegado al terreno del cien. Recientemente se hablo de las citas falsas de las reseñas del tráiler de Megalópolis que, posteriormente, fueron retiradas. Al parecer, ni el personal ni el estudio Lionsgate de Megalopolis tenían la intención de falsificar las citas, que aparentemente eran notas críticas de reseñas contemporáneas de las películas anteriores del director de Megalopolis, Francis Ford Coppola.

IA hasta en las reseñas…

Según algunas de las citas del tráiler, los críticos habían pordebajeado a grandes películas como “El Padrino” y “Apocalipsis Ahora”. Pero, como señaló Vulture cuando comunicó por primera vez sobre la falsedad de las citas, las críticas reales a las que se atribuían las citas no solo no decían esas cosas, sino que frecuentemente estaban basadas en elogios de las películas.

Es fácil percibir cómo pudo haber sucedido esto. La forma casual y segura en que la Inteligencia Artificial emite falsedades está bien documentada Pero, no se trata de algo voluntario, es el fruto falla durante el proceso e entrenamiento y de la falta de higiene de los algoritmos!

La IA se basa en el procesamiento de datos y la toma de decisiones a partir de patrones y algoritmos predefinidos. Sin embargo, estos se crean a partir de datos proporcionados por humanos, lo que puede introducir sesgos y vicios en los resultados. A veces, los conjuntos de datos pueden ser limitados, incompletos o reflejar ciertas exclusiones éticas, sociales o ideológicas. Como resultado, las normas o reglas que guían a la IA también pueden ser sesgadas o estar llenas de vicios.

Así las cosas, aunque la IA no experimenta delirios, es posible que ocasionalmente genere resultados inesperados o incorrectos debido a problemas en el diseño, los datos de entrenamiento o los algoritmos utilizados. Estos errores no implican una distorsión consciente de la realidad por parte de la IA pero, pueden interpretarse erróneamente como alucinaciones. Es importante comprender que estos errores son resultado de fallos en el proceso de desarrollo y no de una distorsión intencional.

Deja un comentario