Recientemente, YouTube anunció una forma para que los creadores se “autoetiqueten” cuando sus videos contienen material o contenido sintético, o generado por Inteligencia Artificial (IA). ¡Esto es lo que debe saber al respecto!
Lo que tiene que saber cuándo el contenido es sintético o generado por IA
Es importante señalar que, la casilla de verificación aparece en el proceso de carga y publicación, y los creadores tienen que revelar contenido “alterado o sintético” que parezca realista. Eso incluye cosas como hacer que una persona real diga o haga algo que no hizo; así como alterar imágenes de eventos y lugares reales; o incluso, mostrar una “escena de apariencia realista” que realmente no sucedió. Algunos ejemplos que proporciona YouTube son; mostrar un tornado falso moviéndose hacia una ciudad real o usar voces falsas para que una persona real narre un video.
Por otro lado, hay que aclarar que, no se requerirán divulgaciones para cosas como filtros de belleza, así como para efectos especiales como el desenfoque del fondo y “contenido claramente poco realista” como la animación.
Al igual que otras plataformas que han introducido etiquetas de contenido de Inteligencia Artificial (IA), la función de YouTube se basa en el sistema de honor; los creadores tienen que ser honestos acerca de lo que aparece en sus videos. El portavoz de YouTube, Jack Malon, señaló anteriormente a The Verge que la compañía estaba “invirtiendo en herramientas” para detectar contenido generado por IA, aunque el software de detección de Inteligencia Artificial es históricamente muy inexacto.
En su publicación de blog reciente, YouTube menciona que puede añadir una divulgación de IA a los videos incluso si quien los subió no lo ha hecho él mismo, fundamentalmente si el contenido alterado o contenido sintético posee el potencial de confundir o engañar a las personas. También aparecerán etiquetas más destacadas en el propio vídeo para temas delicados como salud, elecciones y finanzas.