Los motores de búsqueda tienen un problema con los videos porno deepfake. Desde que surgieron, la tecnología se ha utilizado constantemente para abusar y acosar a las mujeres, haciendo uso del aprendizaje automático para transformar la cabeza de alguien en pornografía sin su permiso. Actualmente, la cantidad de videos de este tipo no consensuales está aumentando a un ritmo exponencial y vertiginoso, impulsado por el avance de las tecnologías de IA y un ecosistema deepfake en expansión.
07
Un reciente análisis de videos porno deepfake no consentidos, llevado a cabo por un investigador independiente, deja en evidencia cuán omnipresentes se han vuelto los videos. Según el investigador, que solicitó el anonimato para evitar ser atacado en línea, se han subido al menos 244.625 vídeos a los 35 principales sitios web creados exclusiva o parcialmente para albergar vídeos porno deepfake en los últimos 7 años. ¡Para conocer todos los detalles siga leyendo este interesante artículo!
Datos acerca del nuevo análisis de videos porno deepfake no consentidos
Es importante señalar que durante los primeros 9 meses de este año, se subieron 113.000 videos a los sitios web, un aumento del 54% con respecto a los 73.000 videos subidos en todo el pasado año 2022. Para finales de este año, el análisis prevé que se habrán producido más videos en el presente año 2023 que el número total de cada dos años combinados.
Estas sorprendentes y alarmantes cifras son solo una instantánea de cuán grandes se han vuelto los problemas con los deepfakes no consensuales; la escala general del problema es mucho mayor y abarca otros tipos de imágenes manipuladas.
En los últimos años ha surgido toda una industria de abuso de deepfake, que se dirige predominante a mujeres y se produce sin el consentimiento o el conocimiento de las personas. Así mismo, hay que señalar que son muy destacadas las aplicaciones de intercambio de caras que funcionan con imágenes fijas y las aplicaciones en las que se puede “quitar la ropa a una persona” en una foto con tan sólo unos pocos clics. Es muy posible que se creen millones de imágenes con estas aplicaciones.
Medir la escala completa de videos e imágenes deepfake en línea es sumamente difícil. Rastrear dónde se comparte el contenido en las redes sociales es un desafío, mientras que el contenido abusivo también se comparte en grupos de mensajería privados o incluso, en canales cerrados, por lo general por personas conocidas de las víctimas. En el mes de septiembre, más de 20 niñas de entre 11 y 17 años denunciaron en la ciudad española de Almendralejo después de que se utilizaran herramientas de IA para generar fotografías de ellas desnudas sin su conocimiento.
Desde que surgieron las herramientas necesarias para crear videos deepfake, se han vuelto más fáciles de utilizar y la calidad de los videos producidos ha mejorado. La ola de herramientas de generación de imágenes también brinda la posibilidad de crear imágenes abusivas de mayor calidad y, así mismo, videos. Lo cierto es que 5 años después de que comenzaran a aparecer los primeros deepfakes, apenas es que están surgiendo las primeras leyes que penalizan el intercambio de imágenes falsificadas.
Los expertos han indicado que, además de nuevas leyes, se precisa una mejor educación sobre las tecnologías, así como también medidas para detener la difusión de herramientas creadas para causar daño. Esto incluye acciones por parte de las compañías que alojan los sitios web y también de motores de búsqueda, incluidos Google y Bing de Microsoft.
Esto es un problema que puede afectar en gran manera a las personas incluyendo su salud mental es por tal motivo, que se ha vuelto un tema muy importante que es necesario que se aborde rápidamente y de la mejor manera posible.