Para los padres que todavía están poniéndose al día con la Inteligencia Artificial Generativa, el auge del chatbot acompañante (asistentes) puede continuar siendo un misterio. A grandes rasgos, la tecnología puede parecer relativamente inofensiva, en comparación con otras amenazas que los adolescentes tienen la posibilidad de enfrentar en línea, incluida la sextorsión financiera.
Mediante plataformas basadas en IA como Character.AI, Replika, así como también Kindroid y Nomi, los adolescentes crean compañeros de conversación realistas, con rasgos y características únicos, o incluso, interactúan con compañeros creados por otros usuarios. Algunos inclusive se basan en personajes populares de televisión y cine, pero aun así forjan un vínculo intenso e individual con su creador. ¿Qué impacto tendrá que nuestros hijos hablen con asistentes digitales desde tan pequeños? a continuación más detalles en cuanto a este inherente tema.
Los asistentes digitales y los jóvenes
Los adolescentes usan estos chatbots para diversos fines, entre ellos, llevar a cabo juegos de roles, explorar sus intereses académicos y creativos y del mismo modo, tener intercambios románticos o sexualmente explícitos.
Pero, como siempre hay un pero… los compañeros de IA se encuentran diseñados para ser cautivadores, y ahí es donde frecuentemente comienzan los problemas, señala Robbie Torney, quien es gerente de programas de Common Sense Media.
La organización sin fines de lucro publicó recientemente pautas para ayudar a los padres a comprender cómo funcionan los compañeros de Inteligencia Artificial (IA), junto con señales de advertencia que indican que la tecnología tiene la capacidad de ser peligrosa para sus hijos adolescentes.
Torney comentó que mientras los padres hacen malabarismos con una serie de conversaciones de alta prioridad con sus hijos adolescentes, deberían considerar hablar con ellos sobre los compañeros de Inteligencia Artificial como un asunto “bastante urgente”.
¿Los padres deberían preocuparse por los compañeros de IA?
Los adolescentes que corren un riesgo especial de aislamiento tienen la posibilidad de verse atraídos a una relación con un chatbot de IA que, en última instancia, perjudica su salud mental y su bienestar, con consecuencias devastadoras.
Eso es lo que Megan García argumenta que le sucedió a su hijo, Sewell Setzer III, en una demanda que presentó recientemente contra Character.AI.
Un año después de iniciar relaciones con compañeros de Character.AI inspirados en personajes de Game of Thrones, incluida Daenerys Targaryen (“Dany”), la vida de Setzer cambió radicalmente, según la demanda.
Se volvió dependiente de “Dany” y pasaba mucho tiempo charlando con ella todos los días. Sus intercambios eran amistosos y muy sexuales. La demanda de García describe en general la relación que Setzer tenía con las compañeras como “abuso sexual”.
En ocasiones, cuando Setzer perdía el acceso a la plataforma, se desesperaba. Con el tiempo, el atleta de 14 años abandonó la escuela y también los deportes, del mismo modo, sufrió falta de sueño y le diagnosticaron trastornos del estado de ánimo. Murió por suicidio en el mes de febrero de 2024.
La demanda de García busca responsabilizar a Character.AI por la muerte de Setzer, concretamente porque su producto fue diseñado para “manipular a Sewell (y a millones de otros clientes jóvenes) para que confundieran la realidad con la ficción”, entre otros defectos peligrosos.
A lo que Jerry Ruoti, responsable de confianza y seguridad de Character.AI, comentó al New York Times en una declaración: “Queremos reconocer que se trata de una situación trágica y nuestro más sentido pésame a la familia. Nos tomamos muy en serio la seguridad de nuestros usuarios y buscamos constantemente formas de hacer evolucionar nuestra plataforma”.
Dado el riesgo de muerte que el uso de IA como acompañante puede representar para algunos adolescentes, las pautas de Common Sense Media incluyen prohibir el acceso a ellos a niños menores de 13 años de edad, imponer límites de tiempo estrictos para adolescentes, así como evitar su uso en espacios aislados, como un dormitorio, y llegar a un acuerdo con sus hijos adolescentes de que buscarán ayuda para problemas graves de salud mental.
Torney señala que los padres de adolescentes interesados en un compañero de IA deberían centrarse en ayudarlos a comprender la diferencia entre hablar con un chatbot y una persona real, identificar señales de que han desarrollado un apego poco saludable a un compañero y así mismo, desarrollar un plan sobre qué hacer en esa situación.
Señales de advertencia de que un compañero de IA no es seguro para su hijo adolescente
Common Sense Media creó sus pautas con el aporte y la asistencia de profesionales de salud mental asociados con el Laboratorio Brainstorm para la Innovación en Salud Mental de Stanford.
Es de resaltar que aunque hay poca investigación sobre cómo los compañeros de IA (asistentes de IA) afectan la salud mental de los adolescentes, las pautas se basan en evidencia existente sobre la dependencia excesiva de la tecnología.
“Un principio que hay que tener en cuenta es que los compañeros de Inteligencia Artificial no deberían reemplazar la conexión humana real y significativa en la vida de nadie y, si esto sucede, es fundamental que los padres lo tengan en cuenta e intervengan de manera oportuna”, señaló a Mashable en un correo electrónico el Dr. Declan Grabb, miembro inaugural de Inteligencia Artificial en el Laboratorio Brainstorm para la Salud Mental de Stanford.
Los padres tienen que tener especial cuidado si su hijo adolescente sufre depresión, ansiedad, problemas sociales o incluso aislamiento. Otros factores de riesgo incluyen estar pasando por cambios importantes en la vida y ser varón, puesto que los niños tienen más probabilidades de hacer un uso problemático de la tecnología.
Las señales de que un adolescente ha formado una relación poco saludable con un compañero de Inteligencia Artificial incluyen el abandono de actividades y amistades típicas y un empeoramiento del rendimiento escolar, además de preferir un chatbot a la compañía en persona, desarrollar sentimientos románticos hacia él y así mismo, hablar exclusivamente con él sobre los problemas que está experimentando el adolescente.
Algunos padres pueden notar un mayor aislamiento y otros signos de deterioro de la salud mental, pero no darse cuenta de que su hijo adolescente tiene un compañero de IA. De hecho, una investigación reciente de Common Sense Media reveló que muchos adolescentes han utilizado al menos un tipo de herramienta de IA generativa sin que sus padres se dieran cuenta de que lo habían hecho.
Incluso si los padres no sospechan que su hijo adolescente está hablando con un chatbot de Inteligencia Artificial (asistentes digitales), deberían considerar hablar con él sobre el tema. Torney recomienda acercarse a su hijo adolescente con curiosidad y apertura a aprender más sobre su compañero de IA, si tiene uno. Esto puede incluir observar a su hijo adolescente interactuar con un compañero y hacer preguntas sobre qué aspectos de la actividad disfruta.
Entre tanto, Torney insta a los padres que noten cualquier signo de advertencia de uso no saludable a que hagan un seguimiento inmediato hablando del tema con sus hijos adolescentes y buscando ayuda profesional, según corresponda.