fbpx

Este es VEO, el nuevo LLM de Google para creación de video

“VEO” lo nuevo de Google para la creación de video.

Han pasado ya 3 meses desde que informamos desde TECHcetera que OpenAI demostró su cautivadora IA de texto a video, “Sora”, y ahora Google está tratando de robar parte de esa atención. Anunciado durante su conferencia de desarrolladores de E/S el pasado martes, Google señala que “Veo”, su más reciente modelo de video generativo con Inteligencia Artificial (IA), tiene la capacidad de poder generar videos de “alta calidad” con resolución de 1080p de más de un minuto de duración en una extensa variedad de estilos visuales y cinematográficos. ¡Todo sobre este nuevo LLM de Google a continuación!

“VEO” lo nuevo de Google para la creación de video

Veo  de Google posee “una comprensión avanzada del lenguaje natural”, según el comunicado de prensa de Google, lo que le permite al modelo comprender términos cinematográficos como “timelapse” o “tomas aéreas de un paisaje”. Según se informa, los usuarios tienen la capacidad de poder dirigir el resultado deseado mediante mensajes de texto, así como imágenes o videos, y Google ha señalado que los videos resultantes son “más consistentes y coherentes” y que  representan movimientos más realistas de personas, así como animales y objetos a lo largo de las tomas.

Por  su parte, el director ejecutivo de Google DeepMind, Demis Hassabis, mencionó en un avance de prensa el pasado lunes que los resultados del video se pueden refinar usando indicaciones adicionales y que Google se encuentra explorando características adicionales para permitir que Veo produzca guiones gráficos y así mismo, escenas más largas.

Es crucial tener presente que, como es el caso con muchas de estas vistas previas de modelos de Inteligencia Artificial, la mayoría de las personas que deseen probar Veo por sí mismas posiblemente tendrán que esperar un poco. Google ha comentado que se encuentra invitando a cineastas y creadores selectos a experimentar con el modelo para determinar cómo puede respaldar mejor a los creativos y aprovechará estas colaboraciones para garantizar que “los creadores tengan voz” en cómo se desarrollan las tecnologías de IA de Google.

Vale la pena señalar que algunas funciones de Veo también estarán disponibles para “creadores seleccionados en las próximas semanas” en una vista previa privada dentro de VideoFX; tiene la capacidad de poder registrarse en la lista de espera aquí para tener una oportunidad temprana de probarlo. De lo contrario, Google igualmente planea añadir algunas de sus capacidades a YouTube Shorts “en el futuro”.

Cabe aclarar que, este viene siendo uno de varios modelos de generación de vídeo que Google ha producido en los últimos años, desde Phenaki e Imagen Video hasta incluso, el modelo Lumiere que presentó en el mes de enero de este año. Este último fue uno de los modelos más impresionantes que habíamos podido observar antes de que se anunciara Sora en el mes de febrero, y Google expresó que Veo es todavía más capaz de comprender lo que hay en un video, simular la física del mundo real, así como generar resultados de alta definición y mucho más.

 

Mientras tanto, según se ha podido conocer, OpenAI ya está lanzando a Sora a Hollywood y planea lanzarlo al público a finales de este año, habiendo adelantado en el mes de marzo que podría estar listo en “unos meses”.  Ahora bien, la compañía también se encuentra buscando incorporar audio en Sora y puede que el modelo esté disponible directamente en aplicaciones de edición de video como Adobe Premiere Pro. Dado que “Veo” también se presenta como una herramienta para cineastas, la ventaja de OpenAI podría dificultar la competencia del proyecto de Google.

 

Deja un comentario