Meta acaba de lanzar Movie Gen, su generador IA de imágenes, videos y clips de audio realistas, centrado en los medios de comunicación. Para demostrar las capacidades de su herramienta, la empresa compartió varios clips de 10 segundos, incluido el de un bebé hipopótamo al estilo de Moo Deng. Aunque aún no está disponible para uso público, el anuncio llega poco después de su evento Meta Connect, en el que presentó hardware nuevo y renovado, además de la última versión de su gran modelo de lenguaje, Llama 3.2.
Más allá de la simple generación de texto a video, el modelo Movie Gen puede realizar ediciones específicas en un clip existente, como añadir un objeto a las manos de alguien o cambiar el aspecto de una superficie. En uno de los ejemplos de Meta, se transformó a una mujer que llevaba unos audífonos de realidad virtual para que pareciera que llevaba unos prismáticos steampunk.
Movie Gen también permite generar fragmentos de audio junto con los videos. En los clips de muestra, un hombre de IA se encuentra cerca de una cascada con salpicaduras audibles y los esperanzadores sonidos de una sinfonía; el motor de un auto deportivo ruge y los neumáticos chirrían mientras recorre la pista, y una serpiente se desliza por el suelo de la selva, acompañada de suspensivos cláxones.
¿Qué tan potente es Movie Gen?
Meta compartió más detalles sobre su herramienta de IA en un documento de investigación publicado el viernes. Movie Gen Video consta de 30,000 millones de parámetros, y Movie Gen Audio, de 13,000 millones. El número de parámetros de un modelo corresponde aproximadamente a su capacidad; por ejemplo, la variante más grande de Llama 3.1 tiene 405,000 millones de parámetros. La empresa defiende que Movie Gen puede producir videos de alta definición de hasta 16 segundos, y que además, supera a los modelos de la competencia en calidad general de gráficos.
A principios de año, Mark Zuckerberg, CEO de Meta AI, publicó en la red social Threads una imagen de sí mismo ahogado en cadenas de oro; producto de su función Imagine Me (Imagíname), que permite a los usuarios subir una foto o selfie y representar su cara en múltiples escenarios. Movie Gen tiene una versión similar en video, y simula una especie de “ElfYourself” en esteroides.
No está claro con qué información se entrenará Movie Gen. Las fuentes de los datos de entrenamiento y lo que es justo extraer de la web siguen siendo un tema polémico para las herramientas de IA generativa, y rara vez se hace público qué texto, video o recortes de audio se utilizaron para crear cualquiera de los principales modelos.
El modelo de inteligencia artificial creado por Black Forest Labs ofrece resultados de alta calidad y tiempos de espera muy cortos.
¿Cuándo se hará pública?
Será interesante ver cuánto tarda Meta en poner Movie Gen a disposición del público. A modo de comparación, OpenAI anunció su generador de video con IA, llamado Sora, a principios de este año, y todavía no lo ha puesto a disposición del público ni ha compartido fecha de lanzamiento. Aunque WIRED recibió algunos clips exclusivos de Sora, de parte la empresa, para una investigación sobre sesgos.
Teniendo en cuenta el legado de Meta como compañía de redes sociales, es posible que las herramientas desarrolladas por Movie Gen empiecen a aparecer, con el tiempo, dentro de Facebook, Instagram y WhatsApp. En septiembre, el competidor Google compartió sus planes de poner a disposición de los creadores algunos aspectos de su modelo de video Veo dentro de sus YouTube Shorts.
Aunque las grandes empresas tecnológicas todavía no han lanzado modelos de video completos al público, ahora mismo puedes experimentar con herramientas con IA de pequeñas empresas emergentes, como Runway y Pika. Prueba Pikaffects si alguna vez has sentido curiosidad por ver cómo te aplastan con una prensa hidráulica o cómo te derrites en un charco.
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.