Openai ofrece una nueva modalidad con una IA para vídeos
Una mujer camina por el centro de Tokio, rodeada de peatones. Lleva una chaqueta negra, un vestido rojo, gafas de sol y un bolso mientras cruza por una calle donde los charcos de una lluvia reciente reflejan decenas de luces de neón con letras japonesas. La cámara se acerca a un primer plano que muestra de cerca su rostro, en un vídeo de una calidad que roza lo cinematográfico. Y, sin embargo, nada de eso es real.
Todo ello, un minuto de una realista escena, ha sido generado por inteligencia artificial. Concretamente, por Sora, el nuevo modelo de la empresa estadounidense Openai, que catapultó la adopción masiva de la IA con CHATGPT y el generador de imágenes DALL-E.
La herramienta acepta instrucciones en texto y las convierte en vídeos. Estos pueden incluir «un movimiento de cámara complejo y múltiples personajes con emociones vibrantes», calculando también «cómo existen los objetos en el
La herramienta acepta instrucciones en texto y las convierte en vídeos
mundo físico», según la compañía.
La empresa ha presentado decenas de vídeos para mostrar las capacidades de la herramienta, desde escenas que podrían ser reales pero no lo son (un todoterreno recorriendo un camino, el despertar de un gato y su dueña o una ciudad costera italiana) hasta otras completamente inventadas que en algunos casos rivalizan con los efectos especiales del cine: un dron que se convierte en mariposa cuando cruza el Coliseo de Roma, un astronauta con un gorro de lana rojo en una película de aventura espacial o un grupo de mamuts que corren hacia la cámara levantando una polvareda de nieve.
Pero además de todas las posibilidades de Sora, esta tecnología genera una serie de peligros y dudas, por lo que Openai únicamente la ha compartido con un pequeño grupo de académicos e investigadores externos cuya tarea será detectar, y prevenir, los peligros del sistema.
☰