Aunque los vídeos generados con IA todavía tienen camino por recorrer, era solo cuestión de tiempo que esta tecnología llegase a la edición de vídeo. Es cierto que ya hay IA en algunas herramientas de edición, como CapCut, que sirven para mejorar la imagen o reducir el ruido, pero lo que acaba de anunciar Adobe va un paso más allá. Y lo hace porque, en esencia, ha llevado la tecnología de Adobe Firefly que hemos visto en Photoshop a Premiere.
El resultado es impresionante.
IA generativa para vídeo. Según han explicado desde Adobe, a finales de este año van a lanzar «unas nuevas funciones de IA generativa en Premiere Pro». La idea no es tanto crear vídeos desde cero, que también, ahora lo veremos, sino usarla para reducir el tiempo que se tarda en hacer cosas increíblemente tediosas, como eliminar un objeto indeseado o modificar un elemento.
De hecho, la visión de Adobe es permitir que los usuarios puedan «aprovechar los modelos de generación de vídeo de OpenAI y Runway, integrados en Premiere Pro, para generar B-Rolls para editar sus proyectos» o usar las herramientas de Pika Labs «para añadir unos segundos al final de la toma». Es decir, que el enfoque de Adobe tiene dos pilares: la IA generativa con Adobe Firefly y los modelos de terceros.
Extensión generativa. Esta es la primera de las funciones y, como su propio nombre indica, permite añadir fotogramas a un clip para hacerlo más largo. Esto es importante de cara a hacer una mejor edición y dar ritmo, ya que algunas veces solo necesitamos unos cuantos fotogramas más para hacer un corte en L o añadir una transición. De la misma forma, esta tecnología se podrá usar para ampliar las partes silenciosas del audio y crear una especie de sonido ambiente que suavice los cortes de audio.
Añadir objetos. Otra de las cosas que podremos hacer es añadir o modificar objetos en el vídeo. Esto no es que sea imposible hacerlo a mano, ni mucho menos, pero sí es una tarea larga, tediosa y no al alcance de todos. Con Firefly podremos seleccionar una parte del vídeo y añadir algo (como los diamantes del vídeo) o cambiar un objeto por otro. Pensemos, por ejemplo, en cambiar un contenedor de basura que se nos ha colado en el fondo del vídeo por un buzón, o añadir un jarrón de flores a una mesa.
Eliminar objetos. Y de la misma manera que podemos añadir, la IA de Premiere también nos permitirá eliminar objetos. Aquí es muy fácil imaginarse un caso de uso. A nivel casero o semiprofesional, podemos pensar en una mancha en la ropa o un vaso sucio que nos hemos olvidado en el setup. A nivel profesional, un micrófono que se ha colado en la toma, un logo que no debe salir o una matrícula.
Texto a vídeo. Adobe también ha anunciado que se podrá generar B-Roll sobre la marcha con solo texto, algo que se veía venir. De la misma forma que hoy podemos generar imágenes, próximamente será posible pedirle a Adobe (que se integrará con otros modelos de IA generativa) que genere un clip de algo que queramos ilustrar. Es cierto que existen bancos de vídeos, tanto gratuitos como de pago, pero algunas veces es complicado, o directamente imposible, encontrar justo el vídeo que necesitamos para ilustrar algo. Gracias a la IA, solo tendremos que ser capaces de explicarlo bien con texto.
Información al usuario. Todo esto son » primeras exploraciones» a futuro, según Adobe. La firma asegura que el usuario podrá elegir el modelo que «adecuado sus casos de uso», pero lo cierto es que todavía falta rematar cómo va a ser el despliegue de esta tecnología. Sea como fuere, desde Adobe aseguran que la integración de estos modelos de terceros será «coherente» con las normas de seguridad de la empresa» y que se compromete a «asociar credenciales de contenido» a los contenidos producidos con IA. Con esto Adobe se refiere a Content Authenticity Initiative, la «marca de agua» para el contenido generado con IA.