fbpx

DeepFakes: ¡Cuidado con quién habla!

Enseñaron a un modelo de IA a imitar el comportamiento de las personas

Recientemente, la Universidad de Stanford y DeepMind de Google han publicado un nuevo artículo de investigación que muestra cómo enseñaron a un modelo de Inteligencia Artificial (IA) a imitar el comportamiento de las personas. La investigación Generative Agent Simulations of 1,000 People creó réplicas digitales de personas reales que tienen la capacidad de poder imitar sus personalidades con un 85% de precisión después de una entrevista de tan solo 2 horas. Un par de horas de charla con una IA y aprenderá a simular sus reacciones lo suficientemente bien como para parecer que está pensando como usted. DeepFakes: ¡Cuidado con quién habla!

Enseñaron a un modelo de IA a imitar el comportamiento de las personas ¡cuidado con quien habla!

Los poco más de mil participantes en el estudio comenzaron leyendo las primeras líneas de El gran Gatsby a la IA. Aparentemente, este era el equivalente de la Inteligencia Artificial a estirarse antes de un entrenamiento. Después de eso, un personaje 2D les hizo preguntas sobre sus vidas, creencias, trabajos, así como familias y mucho más. Con aproximadamente 2 horas y un promedio de 6.491 palabras, la Inteligencia Artificial (IA) tenía todo lo que necesitaba para construir un clon digital.

Los clones también parecían saber lo que estaban haciendo. Cuando se les pidió que respondieran preguntas de pruebas de personalidad o encuestas generales, los agentes de IA dieron respuestas que coincidían con sus contrapartes del mundo real aproximadamente el 85% de las veces. Lo suficientemente parecidas como para pedirlas en un restaurante, tal vez con el acompañamiento equivocado.

Es de resaltar que los investigadores pusieron a prueba estos clones de Inteligencia Artificial con juegos económicos como el dilema del prisionero y el juego del dictador, en los que los participantes toman decisiones sobre cooperación, confianza y compartición de recursos. Aunque la IA solo coincidió con las decisiones de la persona real alrededor del 60% de las veces, esa cifra es más de la que se podría atribuir al azar.

Puede que la IA no engañe a su cónyuge o incluso a su mejor amigo, pero con solo esa breve entrevista, es bastante impresionante. La Inteligencia Artificial podría imitar patrones de toma de decisiones, opiniones e incluso peculiaridades de la personalidad. Piénselo: usted pasa años tratando de averiguar quién es, y esta IA lo descubre en una tarde. Es realmente asombroso y un poco espeluznante, como todas las buenas demostraciones de IA.

Comportamiento humano

Lo cierto es que, Stanford y DeepMind ven esta Inteligencia Artificial como una forma de avanzar en los estudios de comportamiento humano. Del mismo modo, es un vistazo a cómo la IA tiene la capacidad de poder simular el comportamiento humano colectivo. ¿Quiere saber cómo podría reaccionar una comunidad a una nueva política de salud? Cree algunos agentes generativos. ¿Tiene curiosidad por saber cómo podrían responder los clientes a un rediseño audaz de un producto? Pregúntele a los clones de IA. Básicamente, podría ser un grupo de discusión eterno.

Evidentemente, si una Inteligencia Artificial puede aprender a imitarlo tan bien después de una sola entrevista, ¿qué sucede cuando tiene acceso a años de datos? Las publicaciones en las redes sociales, los hábitos de compra en línea e incluso las listas de reproducción de Spotify podrían ayudar a enseñarle a la IA a ser como usted o, al menos, a satisfacer sus preferencias, incluso las que no sabías que tenías.

Sin duda, hay mucho potencial para que los estafadores y otros actores maliciosos hagan un mal uso de esta tecnología, sin embargo, por ahora, esta tecnología está en manos de los investigadores y el objetivo es aprender a hacerla útil para campos como la sociología, la psicología y del mismo modo, la economía. Y es algo inevitable que la tecnología avance en esta dirección. No hay nada más humano que crear algo que se esfuerce tanto por ser como nosotros.

Para finalizar, vale la pena tener en cuenta que, según investigadores de la Universidad de Cambridge, las herramientas de Inteligencia Artificial (IA) podrían utilizarse para manipular a las audiencias en línea para que tomen decisiones, desde qué comprar hasta inclusive, a quién votar. Más detalles acerca de este riesgo en el siguiente artículo.

Deja un comentario