fbpx

Si es víctima de deepfakes puede borrar sus imágenes, pero solo de las búsquedas de Bing

Proporcionaron una herramienta para impedir que su motor de búsqueda Bing muestre estas imágenes. ¡Conozca todo aquí!

Es importante conocer que el avance de las herramientas de Inteligencia Artificial generativa ha creado un nuevo problema para Internet; la proliferación de imágenes sintéticas de desnudos que se parecen a personas reales. El pasado jueves, Microsoft dio un paso importante al proporcionar a las víctimas de pornografía vengativa una herramienta para impedir que su motor de búsqueda Bing muestre estas imágenes.

Microsoft anunció una asociación con StopNCII, una organización que permite a las víctimas de pornografía vengativa crear una huella digital de estas imágenes explícitas, reales o no, en su dispositivo. Es de resaltar que, los socios de StopNCII luego usan esa huella digital, o “hash” para eliminar la imagen de sus plataformas. Bing de Microsoft se une a Facebook, Instagram, así como a Threads, TikTok, Snapchat, e incluso; Reddit, Pornhub y OnlyFans en la asociación con StopNCII y el uso de sus huellas digitales para detener la propagación de la pornografía vengativa.

Proporcionaron una herramienta para impedir que su motor de búsqueda Bing muestre estas imágenes

En una publicación de blog, Microsoft señala que ya tomó medidas con respecto a las 268.000 imágenes explícitas que se obtuvieron a través de la búsqueda de imágenes de Bing en un proyecto piloto que se llevó a cabo hasta finales del mes de agosto con la base de datos de StopNCII. Anteriormente, Microsoft ofrecía una herramienta de denuncia directa, pero la compañía comentó que se ha demostrado que no es suficiente.

“Hemos escuchado las preocupaciones de las víctimas, los expertos y otras partes interesadas de que los informes de los usuarios por sí solos pueden no ser eficaces ni abordar adecuadamente el riesgo de que se pueda acceder a las imágenes a través de una búsqueda”, expresó Microsoft en su publicación de blog el jueves.

Podemos imaginar cuánto peor sería ese problema en un motor de búsqueda mucho más popular; Google.

Google Search brinda sus propias herramientas para denunciar y eliminar imágenes explícitas de sus resultados de búsqueda, sin embargo, ha enfrentado críticas de ex empleados y víctimas por no asociarse con StopNCII, según una investigación del medio de noticias, Wired. Desde el año de 2020, los usuarios de Google en Corea del Sur han reportado la cantidad de 170.000 enlaces de búsqueda y YouTube con contenido sexual no deseado, informó Wired.

Vale la pena destacar que, el problema de los desnudos deepfake con Inteligencia Artificial (IA) ya está muy extendido. Las herramientas de StopNCII solo funcionan para personas mayores de 18 años, pero los sitios de “desnudez” ya se encuentran creando problemas para estudiantes de secundaria en todo el país. Desgraciadamente, Estados Unidos no tiene una ley de pornografía deepfake con IA que obligue a nadie a rendir cuentas, por lo que el país depende de un enfoque heterogéneo de leyes estatales y locales para abordar el problema.

En el mes de agosto, los fiscales de San Francisco anunciaron una demanda para cerrar 16 de los sitios más “desnudistas”. Según un rastreador de leyes sobre pornografía deepfake creado por Wired, 23 estados estadounidenses han aprobado leyes para abordar las deepfakes no consensuales, mientras que 9 han rechazado propuestas.

 

Deja un comentario