fbpx

Estudiantes son arrestados por crear deepfakes desnudos de sus compañeras

Los datos más destacados que tiene que saber sobre los deepfakes desnudos de estudiantes.

Dos adolescentes de Miami, Florida, fueron arrestados en el mes de diciembre por aparentemente crear y compartir sin consentimiento imágenes de desnudos de compañeros de clase masculinos y femeninos, generadas por Inteligencia Artificial (IA), según informes policiales obtenidos por WIRED a través de una solicitud de registro público. ¡Todos los detalles sobre los deepfakes desnudos los traemos aquí en TECHcetera!

Los datos más destacados que tiene que saber sobre los deepfakes desnudos de estudiantes

Según se pudo conocer, los informes de arresto señalan que los niños, de 13 y 14 años, crearon imágenes de los estudiantes que tenían “entre 12 y 13 años”.

Vale la pena señalar que, el caso de Florida parece ser el primer arresto y cargos criminales que salen a la luz como resultado del presunto intercambio de imágenes de desnudos generadas por IA. Los niños fueron acusados ​​de delitos graves de tercer grado (el mismo nivel de delitos que el hurto mayor de automóviles o el encarcelamiento falso) en virtud de una ley estatal aprobada en el año de 2022 que tipifica como delito compartir “cualquier representación sexual alterada” de una persona sin su consentimiento.

Los primeros informes de los medios sobre el caso de Florida aparecieron en el mes de diciembre, indicando que los 2 niños fueron suspendidos de la Academia Pinecrest Cove en Miami durante 10 días después de que los administradores de la escuela se enteraran de las acusaciones de que habían creado y compartido imágenes falsas de desnudos sin consentimiento. Después de que los padres de las víctimas se enteraron del incidente, varios comenzaron a instar públicamente a la escuela a expulsar a los niños.

Nadia Khan-Roberts, quien es la madre de una de las víctimas, dijo a NBC Miami en el mes de  diciembre que para todas las familias cuyos hijos fueron víctimas el incidente fue realmente traumatizante.

Así mismo, Khan-Roberts expresó que sus hijas no se sienten cómodas caminando por los mismos pasillos con estos niños.

“Me hace sentir violada, me siento aprovechada y utilizada”, dijo a la estación de televisión una víctima, que pidió permanecer en el anonimato. 

Registros de arresto

Desde WIRED obtuvieron registros de arresto esta semana que indican que el incidente fue reportado a la policía el día 6 de diciembre de 2023 y que los 2 niños fueron arrestados el 22 de diciembre. Los registros acusan de usar “una aplicación de Inteligencia Artificial” para hacer que las imágenes falsas sean explícitas. Cabe acotar que, el nombre de la aplicación no se especificó y los informes afirman que los niños compartieron las imágenes entre ellos.

“El incidente fue reportado a un administrador de la escuela”, dicen los informes, sin detallar quién lo reportó ni tampoco cómo esa persona se enteró de las imágenes. Después de que el administrador de la escuela obtuvo copias de las imágenes alteradas, entrevistó a las víctimas representadas en ellas, señalan los informes, quienes expresaron que no dieron su consentimiento para que se crearan las imágenes.

Es de acotar que, después de su arresto, los dos niños acusados ​​de tomar las imágenes fueron transportados al Departamento de Servicios Juveniles “sin incidentes”, indican los informes.

Proyecto de ley

Un conjunto de estados tienen leyes que apuntan a imágenes de desnudos falsas y no consensuadas. No existe una ley federal que aborde esta práctica, sin embargo, un grupo de senadores estadounidenses presentó recientemente un proyecto de ley para combatir el problema después de que se crearan y distribuyeran ampliamente imágenes falsas desnudas de la popular cantante internacional, Taylor Swift en X (antiguo Twitter).

Los niños fueron acusados ​​en virtud de una ley de Florida aprobada en el año de 2022 que los legisladores estatales diseñaron para poder frenar el acoso relacionado con imágenes ultrafalsas creadas con herramientas impulsadas por IA.

Stephanie Cagnet Myron, quien es una abogada de Florida que representa a víctimas de imágenes de desnudos compartidas sin consentimiento, le mencionó a WIRED que cualquiera que cree imágenes falsas de desnudos de un menor estaría en posesión de material de abuso sexual infantil, o CSAM. Sin embargo, ha afirmado que es posible que los dos niños acusados ​​de crear y compartir el material no hayan sido acusados ​​de posesión de CSAM debido a su edad.

Lo cierto es que, se trata de un tema que está sucediendo y que sin duda hay que tratar de frenarlo para que no afecte cada día a más víctimas.

Deja un comentario