fbpx

Casos de porno generado por IA llegan a la “corte suprema” de Facebook

La junta ha aceptado 2 casos que tratan de imágenes explícitas de figuras públicas creadas por Inteligencia Artificial.

La Junta de Supervisión de Meta se encuentra asumiendo una vez más las reglas de la red social para el contenido generado por IA. La junta ha aceptado 2 casos que tratan de imágenes explícitas de figuras públicas creadas por Inteligencia Artificial. A continuación, los mejores datos en cuanto a los casos de porno generado por IA que llegan a la “corte suprema” de Facebook.

Casos de porno generado por IA

Vale la pena destacar que aunque las reglas de Meta ya prohíben la desnudez en Facebook e Instagram, la junta señaló en un comunicado que quiere abordar si “las políticas de Meta y sus prácticas de aplicación son efectivas para abordar imágenes explícitas generadas por IA”. 

En ocasiones denominadas “pornografía deepfake”, las imágenes generadas por Inteligencia Artificial de celebridades femeninas, políticas y otras figuras públicas se han convertido en una forma cada vez más prominente de acoso en línea y han avivado un oleaje de reglamento propuesto. Es de acotar que, con los 2 casos, la Junta de Supervisión podría presionar a Meta para que adopte nuevas reglas para abordar dicho acoso en su plataforma.

La Junta de Supervisión indicó que no nombrará a las 2 figuras públicas en el centro de cada caso en un esfuerzo por evitar más acoso, aunque describió las circunstancias en torno a cada publicación.

En cuanto a los 2 casos…

Por un lado, un caso involucra una publicación de la popular plataforma Instagram que expone una imagen generada por IA de una mujer india desnuda que fue publicada por una cuenta que “únicamente comparte imágenes de mujeres indias generadas por IA”. La publicación se informó a Meta, sin embargo, el informe se cerró después de 48 horas porque no se revisó. Cabe destacar que, el mismo usuario apeló esa decisión sin embargo, la apelación también fue cerrada y nunca revisada. Meta finalmente eliminó la publicación luego de que el usuario apeló ante la Junta de Supervisión y la junta acordó tomar el caso.

Así mismo, el segundo caso implicó una publicación de la popular plataforma Facebook en un grupo dedicado al arte de la Inteligencia Artificial (IA). La publicación en cuestión exponía “una imagen generada por IA de una mujer desnuda con un hombre tocándole el pecho”. Según se informa, la mujer debía parecerse a “una figura pública estadounidense” cuyo nombre también aparecía en el título de la publicación.

Es de resaltar que, la publicación se eliminó de forma automática porque se había informado previamente y los sistemas internos de Meta pudieron relacionarla con la publicación anterior. El usuario apeló la decisión de retirarlo pero la apelación fue “cerrada automáticamente”. Posteriormente, el usuario apeló ante la Junta de Supervisión, la cual acordó considerar el caso.

Evaluar posibles disparidades

En una declaración, la copresidenta de la Junta de Supervisión, Helle Thorning-Schmidt, mencionó que la junta tomó los 2 casos de diferentes países para poder evaluar posibles disparidades en cómo se aplican las políticas de Meta.

Thorning-Schmidt ha afirmado, “Sabemos que Meta es más rápido y eficaz a la hora de moderar contenidos en algunos mercados e idiomas que en otros. Al tomar un caso de EE. UU y otro de la India, queremos comprobar si Meta está protegiendo a todas las mujeres en todo el mundo de manera justa”. 

No se debe pasar por alto mencionar que la Junta de Supervisión solicita comentarios públicos durante las próximas 2 semanas y así mismo, publicará su decisión en algún momento de las próximas semanas, junto con recomendaciones de políticas para Meta.

Deja un comentario