Hugging Face quiere ayudar a los usuarios a luchar contra los deepfakes de Inteligencia Artificial (IA). La empresa que desarrolla herramientas de aprendizaje automático y alberga proyectos de IA también proporciona recursos para el desarrollo ético de la Inteligencia Artificial. Eso ahora incluye una colección denominada “Procedencia, marcas de agua y detección de deepfake”, que incluye herramientas para incrustar marcas de agua en archivos de audio, LLM e imágenes, así como también herramientas para detectar deepfakes. ¡Aquí en TECHcetera todos los detalles que debe conocer al respecto!
Hugging Face y la lucha contra los deepfakes
La extensa disponibilidad de tecnología de IA generativa ha llevado a la proliferación de deepfakes de audio, video e imágenes. El fenómeno deepfake no sólo contribuye a la difusión de información errónea, sino que también conduce al plagio y así mismo, a la infracción de derechos de autor de obras creativas. Los deepfakes se han convertido en una amenaza tal que la orden ejecutiva sobre Inteligencia Artificial del presidente Biden ordenó concretamente la colocación de marcas de agua en el contenido generado por IA. Google y OpenAI lanzaron recientemente herramientas para incrustar marcas de agua en imágenes creadas por sus modelos de IA generativa.
Los recursos fueron informados por Margaret Mitchell, quien es investigadora y científica jefe de ética de Hugging Face y ex empleada de Google. Mitchell y otros que se centran en el impacto social crearon una colección de lo que ella llamó piezas de “tecnología de punta” para abordar el aumento del contenido humano ‘falso’ generado por IA.
Algunas de las herramientas de la colección se encuentran dirigidas a fotógrafos y diseñadores que protegen su trabajo de ser usado para entrenar modelos de IA, como Fawkes, que “envenena” o limita el uso de software de reconocimiento facial en fotografías disponibles públicamente. Otras herramientas como WaveMark, Truepic, Photoguard e Imatag protegen el uso no autorizado de obras de audio o visuales incorporando marcas de agua que tienen la capacidad de poder ser detectadas por cierto software. Una herramienta Photoguard determinada de la colección hace que una imagen sea “inmune” a la edición generativa de IA.
Lo cierto es que, añadir marcas de agua a los medios creados por IA generativa se está volviendo fundamental para la protección de las obras creativas y la identificación de información engañosa, pero, no es infalible. Las marcas de agua incrustadas en los metadatos a menudo se eliminan automáticamente cuando se cargan en sitios de terceros, como redes sociales, y los usuarios infames tienen la posibilidad de encontrar soluciones tomando una captura de pantalla de una imagen con marca de agua.
No obstante, las herramientas gratuitas y disponibles como las que compartió Hugging Face son mucho mejores que nada.