Si hay aspectos importantes que tener en cuenta es que, no debería confiar en cualquier respuesta que de un chatbot. Y probablemente tampoco debería confiarle su información personal. Según una nueva investigación, eso es fundamentalmente cierto para las “novias AI” o los “novios AI”. A continuación, le comentaremos si es bueno o no tener una IA como novia (o novio).
Una IA como novia
Un análisis de 11 chatbots de pareja y romance, publicado el pasado miércoles por la Fundación Mozilla, halló una letanía de preocupaciones de seguridad y privacidad con los bots. En conjunto, las aplicaciones, que se han descargado más de 100 millones de veces en dispositivos Android, recopilan monumentales cantidades de datos de las personas; usar rastreadores que envían información a Google, Facebook y empresas de Rusia y China; permitir a los usuarios utilizar contraseñas débiles; y falta de transparencia sobre su propiedad y los modelos de IA que los impulsan.
Desde que OpenAI lanzó ChatGPT a finales de 2022 (muy popular desde su llegada hasta hoy en día), los desarrolladores se han apresurado a implementar grandes modelos de lenguaje y crear chatbots con los que las personas tengan la capacidad de poder interactuar y pagar para suscribirse. La investigación de Mozilla proporciona una idea de cómo esta fiebre del oro puede haber descuidado la privacidad de las personas y de las tensiones entre las tecnologías emergentes y la manera en que recopilan y usan datos. Igualmente indica cómo los piratas informáticos podrían abusar de los mensajes de chat de las personas.
Muchos servicios de “novias AI” o chatbots románticos tienen un aspecto similar. Frecuentemente presentan imágenes de mujeres generadas por Inteligencia Artificial que pueden ser sexualizadas o acompañar mensajes provocativos. Los investigadores de Mozilla lograron observar una diversidad de chatbots, incluidas aplicaciones grandes y pequeñas, algunas de las cuales pretenden ser “novias”. Otros por ejemplo, brindan apoyo a las personas a través de la amistad o la intimidad, o incluso, permiten juegos de roles y así mismo, otras fantasías.
Existen múltiples problemas con estas aplicaciones y sitios web. Es probable que muchas de las aplicaciones no tengan claro qué datos comparten con terceros, dónde se encuentran o incluso, quién los crea, incluso, algunas permiten a las personas crear contraseñas débiles, mientras que otras brindan poca información sobre la IA que utilizan. Otras aplicaciones también permitían contraseñas cortas, lo que potencialmente facilita que los piratas informáticos accedan por la fuerza bruta a las cuentas de las personas y accedan a los datos del chat.
Por otro lado, el análisis de Mozilla también destaca que se sabe poco sobre las tecnologías concretas que impulsan los chatbots. Algunas de las aplicaciones no parecen tener controles que permitan a las personas eliminar mensajes. Algunos no señalan qué tipo de modelos generativos usan, o no aclaran si las personas tienen la posibilidad de optar por no utilizar sus chats para entrenar futuros modelos.
Los chatbots suelen estar diseñados para imitar las cualidades humanas y fomentar la confianza y la intimidad con las personas que los usan. Además, es poco probable que algunas personas consideren cuidadosamente lo que están revelando a los chatbots. En el caso de las “novias IA”, esto podría incluir preferencias o perversiones sexuales, ubicaciones o sentimientos privados. Esa información que en las manos equivocadas, podría causar daños a la reputación si el sistema del chatbot es pirateado o si se filtran datos accidentalmente.