Reimmaginare i flussi di lavoro audio e video con Adobe Firefly, l’AI Generativa di Adobe

Reimmaginare i flussi di lavoro audio e video con Adobe Firefly, l’AI Generativa di Adobe

A cura di Ashley Still, Senior Vice President & General Manager, Digital Media Adobe

In vista della conferenza annuale NAB di questa settimana, Adobe ha annunciato nuove innovazioni, tra cui l’editing basato sul testo e la mappatura automatica dei toni del colore in Adobe Premiere Pro, e ha celebrato i 30 anni di Adobe After Effects. Inoltre, è stata annunciata la nuova estensione per Frame.io per consentire la revisione di fotografie e documenti PDF, offrendo ai team di marketing decentralizzati un hub cloud unificato e intuitivo per la collaborazione sugli asset.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Per oltre tre decenni, la famiglia di applicazioni audio e video di Adobe è stata lo strumento preferito dai creativi più talentuosi del mondo. Solo quest’anno le nostre applicazioni hanno contribuito a dare vita a 10 film nominati agli Oscar, tra cui il vincitore per il miglior film e il miglior montaggio, “Everything Everywhere All At Once”. I creator di Adobe Substance 3D Designer hanno ottenuto un Scientific Technical Award dall’Academy of Motion Picture Arts and Sciences (il terzo Oscar di Adobe) e quasi due terzi dei film proiettati al Sundance Film Festival 2023 sono stati montati con Premiere Pro.

Adobe Firefly porta l’intelligenza artificiale generativa su Creative Cloud

Da oltre un decennio Adobe ha fornito centinaia di funzionalità basate sull’intelligenza artificiale attraverso Adobe Sensei, il framework di Adobe per l’intelligenza artificiale e il machine learning. Funzioni come Auto Reframe and Remix in Premiere Pro e Content Aware Fill for Video in After Effects stanno già aiutando i professionisti del video e dell’audio di tutto il mondo a creare contenuti straordinari in velocità.

Stiamo entrando in una nuova era in cui l’Intelligenza Artificiale generativa consentirà una conversazione naturale tra utente e computer, in cui la digitazione delle proprie parole e semplici gesti si combineranno con il meglio dei flussi di lavoro delle applicazioni creative professionali per consentire una nuova espressione creativa.

Leggi anche:  La tecnologia Hexagon al servizio della ricerca sul Parkinson in uno studio condotto dall’Università di Modena e Reggio Emilia

Il mese scorso abbiamo annunciato Adobe Firefly, la prossima grande evoluzione della creatività e della produttività guidata dall’intelligenza artificiale. Firefly è la nostra famiglia di modelli di intelligenza artificiale generativa creativa, a partire dalla generazione di immagini ed effetti di testo. Il nostro primo modello, addestrato su immagini Adobe Stock, contenuti con licenza aperta e contenuti di dominio pubblico in cui il copyright è scaduto, è progettato per generare contenuti sicuri per l’uso commerciale. Firefly è ora disponibile in versione beta (provatelo!) e abbiamo condiviso come Firefly potrà essere integrato in Adobe Photoshop, Adobe Illustrator, Premiere Pro e altre applicazioni Adobe nel prossimo futuro.

Al NAB, stiamo ampliando la visione di Firefly per immaginare i modi in cui possiamo portare l’intelligenza artificiale generativa nelle applicazioni di Adobe per il video, l’audio, l’animazione e la progettazione di motion graphics.

Adobe Firefly per il video

Siamo davvero nell’età dell’oro del video: i video di breve durata sono onnipresenti nelle notizie, nei social media e nell’intrattenimento. Inoltre, la domanda sempre crescente, la moltiplicazione dei canali e i team distribuiti a livello globale rendono ancora più difficile scalare la produzione di lavori creativi di alta qualità in modo efficiente.

Ecco perché siamo entusiasti di inventare e innovare con la community dell’audiovideo per rendere più facile e veloce la trasformazione della vostra visione in realtà. Con Firefly come copilota creativo, potete potenziare i processi di ricerca e ideazione e ridurre i tempi di post-produzione da giorni a minuti. E con l’AI generativa integrata direttamente nei vostri flussi di lavoro, queste nuove e potenti capacità saranno a portata di mano. Immaginate il potenziale per cambiare istantaneamente l’ora del giorno di un video, annotare automaticamente e trovare b-roll pertinenti o creare variazioni illimitate di clip, il tutto come punto di partenza della vostra creatività.

Leggi anche:  Intelligenza Artificiale e high-performance computing per accelerare la ricerca scientifica

Per iniziare, stiamo esplorando una serie di funzionalità, tra cui:

  • Miglioramenti da testo a colore: cambiare gli schemi di colore, l’ora del giorno o persino le stagioni nei video già registrati, modificando istantaneamente l’atmosfera e l’ambientazione per evocare un tono e una sensazione specifici. Con una semplice richiesta come “rendi questa scena calda e accogliente”, il tempo che intercorre tra l’immaginazione e il prodotto finale può scomparire.
  • Effetti musicali e sonori avanzati: i creator possono facilmente generare suoni e musiche personalizzate esenti da diritti d’autore per riflettere una determinata sensazione o scena sia per le tracce temporanee che per quelle finali.
  • Font, effetti di testo, grafica e loghi straordinari: con poche parole e in pochi minuti, i creator possono generare sottotitoli, loghi e titoli e persino aggiungere animazioni personalizzate.
  • Potenziali funzionalità di script e B-roll: gli utenti possono accelerare notevolmente il lavoro di pre-produzione, produzione e post-produzione utilizzando l’analisi AI del testo della sceneggiatura per creare automaticamente storyboard e previsualizzazioni, oltre a consigliare clip di b-roll per tagli grezzi o finali.
  • Funzionalità di guida creativa: Grazie a “how-to” generativi personalizzati basati sull’intelligenza artificiale, gli utenti possono acquisire nuove competenze e accelerare i processi dalla visione iniziale alla creazione e all’editing.