fbpx

OpenAI, Microsoft, Google y Meta impedirán que sus herramientas IA se usen para producir contenido sexual de menores

El objetivo de la iniciativa es prevenir la creación de material sexualmente explícito que involucre a niños y eliminarlo de las plataformas de redes sociales y motores de búsqueda.

Empresas líderes en Inteligencia Artificial (IA), incluidas OpenAI, Microsoft, así como también Google, Meta y otras, se han comprometido conjuntamente a evitar que sus herramientas de IA se usen para explotar a niños y concebir material de abuso sexual infantil (CSAM). Es de resaltar que la iniciativa fue liderada por el grupo de seguridad infantil Thorn y All Tech Is Human. A continuación, brindaremos todos los detalles acerca del contenido sexual de menores.

Importantes empresas impedirán que sus herramientas IA se usen para producir contenido sexual de menores

Las promesas de las empresas de IA, señaló Thorn, “Sientan un precedente innovador para la industria y representan un salto significativo en los esfuerzos para defender a los niños del abuso sexual a medida que se desarrolla una característica de la IA generativa”. 

Según se ha podido conocer, el objetivo de la iniciativa es prevenir la creación de material sexualmente explícito que involucre a niños y así mismo, eliminarlo de las plataformas de redes sociales y motores de búsqueda. Solo en el pasado año 2023, se denunciaron en Estados Unidos más de 104 millones de archivos de material sospechoso de abuso sexual infantil, ha afirmado Thorn. En ausencia de una acción colectiva, la IA generativa se encuentra a punto de agravar este problema y agobiar a los organismos encargados de hacer cumplir la ley que ya están luchando por identificar a las víctimas genuinas.

El pasado martes, Thorn y All Tech Is Human publicaron un nuevo documento titulado “Seguridad por diseño para la IA generativa: prevención del abuso sexual infantil”, el cual describe estrategias y presenta recomendaciones para empresas que crean herramientas de Inteligencian Artificial, motores de búsqueda, así como plataformas de redes sociales y así mismo, empresas de hosting y los desarrolladores tomen medidas para evitar que la IA generativa se use para dañar a los niños.

Vale la pena destacar que, una de las recomendaciones, por ejemplo, solicita a las empresas que escojan cuidadosamente los conjuntos de datos usados para entrenar modelos de Inteligencia Artificial y eviten aquellos que solo contengan instancias de CSAM pero también contenido sexual para adultos debido a la propensión de la IA generativa a combinar los 2 conceptos.

Thorn también está requiriendo a las plataformas de redes sociales y motores de búsqueda que eliminen enlaces a sitios web y aplicaciones que permiten a las personas “desnudar” imágenes de niños, creando así nuevo material en línea sobre abuso sexual infantil generado por Inteligencia Artificial (IA). Según el documento, un desplome de CSAM generado por IA entorpecerá la identificación de víctimas genuinas de abuso sexual infantil al agrandar el “problema del pajar”, una referencia a la cantidad de contenido que las agencias de aplicación de la ley tienen que examinar actualmente.

“Este proyecto tenía como objetivo dejar muy claro que no es necesario darse por vencido. Queremos poder cambiar el curso de esta tecnología hasta el punto de que los daños existentes de esta tecnología desaparezcan”, dijo la vicepresidenta de ciencia de datos de Thorn, Rebecca Portnoff, al Wall Street Journal. 

Portnoff señaló que algunas compañías ya habían acordado separar imágenes, así como videos y audios que involucraban a niños de conjuntos de datos que contienen contenido para adultos para evitar que sus modelos combinen ambos. Otros también añaden marcas de agua para identificar contenido generado por Inteligencia Artificial (IA), pero el método no es infalible; las marcas de agua y así mismo, los metadatos se pueden eliminar fácilmente.

Deja un comentario