fbpx

La Casa Blanca y aliados contra el porno Deepfakes

La Casa Blanca y empresas de IA se encuentran comprometidos para frenar la creación y distribución de material de abuso sexual basado en imágenes.

La Casa Blanca publicó una declaración hace un par de días en la que se describen los compromisos que varias empresas de Inteligencia Artificial (IA) se encuentran asumiendo para frenar la creación y distribución de material de abuso sexual basado en imágenes. Las compañías participantes han explicado las medidas que están adoptando para evitar que sus plataformas se usen para generar imágenes íntimas no consentidas (NCII) de adultos y material de abuso sexual infantil (CSAM).

La Casa Blanca y empresas de IA se encuentran comprometidos para frenar la creación y distribución de material de abuso sexual basado en imágenes

En concreto, Adobe, Anthropic, así como también Cohere, Common Crawl, Microsoft y así mismo, OpenAI afirmaron que se van a centrar en obtener sus conjuntos de datos de manera responsable (no haciendo scrapping sin tener en cuenta los derechos de autor) y protegerlos del abuso sexual basado en imágenes.

Todos los mencionados anteriormente (excepto Common Crawl) acordaron “incorporar bucles de retroalimentación y estrategias iterativas de pruebas de estrés en sus procesos de desarrollo, para protegerse contra los modelos de IA que generan abusos sexuales basados ​​en imágenes” y, así mismo,  “Eliminar imágenes de desnudos de los conjuntos de datos de entrenamiento de IA” cuando sea apropiado.

Es de resaltar que, se trata de un compromiso voluntario, por lo que el anuncio reciente no crea nuevas medidas que se puedan tomar ni consecuencias por no cumplir con esas promesas. Sin embargo, aun así vale la pena aplaudir un esfuerzo de buena fe para abordar este grave problema. Cabe acotar que aún faltan Big Techs como Apple, Amazon, Google y Meta en esta alianza.

Alianza contra el porno deepfake
Alianza contra el porno deepfake

Pero… no se trata de un esfuerzo aislado!

Da algo de paz mental saber que numerosas grandes empresas de tecnología e Inteligencia Artificial (IA) han estado haciendo avances para facilitar que las víctimas de NCII detengan la propagación de imágenes y videos deepfake independientemente de este esfuerzo federal. StopNCII se ha asociado con varias empresas bajo un enfoque integral para eliminar este contenido, mientras que otras compañías se encuentran implementando herramientas patentadas para denunciar abusos sexuales basados ​​en imágenes generadas por IA en sus plataformas.

Deja un comentario