Vai al contenuto

Google Veo 3.1: IA per video e audio iperrealistici con Flow

| 19 Ottobre 2025

Scopri Veo 3.1, il nuovo modello di IA di Google per creare video e audio iperrealistici con controllo narrativo avanzato.


google veo 3 1 video audio

  • Come funziona Veo 3.1 di Google?
  • Quali video può generare e come cambia il realismo nell’IA?
  • Scopri tutte le novità e le implicazioni etiche.

Google lancia Veo 3.1: il nuovo modello di IA per video e audio iperrealistici

Google ha presentato Veo 3.1, l’ultima versione del suo modello di intelligenza artificiale (IA) in grado di generare video a partire da immagini statiche e istruzioni testuali. Il sistema offre funzioni creative avanzate che garantiscono agli utenti un maggiore controllo narrativo sui contenuti prodotti.

Video e audio più realistici

Secondo Google, Veo 3.1 garantisce audio più ricco, maggiore fedeltà alle indicazioni e un realismo audiovisivo superiore nella trasformazione di immagini in video. La versione rappresenta un’evoluzione di Veo 3, con prestazioni ottimizzate per produzioni visive e sonore di qualità elevata.

flow veo 3 1 ia creazione
Veo 3.1 di Google consente di creare video e audio iperrealistici con il motore cinematografico Flow.

Integrazione con Flow e nuove funzionalità

Il modello è stato integrato in Flow, il motore cinematografico di IA di Google, introducendo per la prima volta la generazione audio nelle funzioni già esistenti:

  • Ingredienti a video: crea clip combinando più immagini di riferimento per definire personaggi, oggetti e stile visivo.
  • Fotogrammi a video: genera transizioni fluide tra un’immagine iniziale e una finale.
  • Estendere: prosegue automaticamente l’ultimo secondo di un clip per produrre materiale di oltre un minuto, mantenendo estetica e narrativa originali.

Flow consente ora anche di aggiungere o rimuovere elementi da una scena e regolare dettagli come ombre e illuminazione, migliorando la naturalezza visiva dei contenuti.

Disponibilità su Gemini e API Vertex

Oltre all’integrazione in Flow, Veo 3.1 sarà disponibile nell’applicazione Gemini e nelle API di Vertex e Gemini, ampliando l’accesso degli sviluppatori e dei creatori di contenuti al modello avanzato di generazione audiovisiva.

Realismo e preoccupazioni etiche

I video creati da Veo 3.1 si distinguono per il loro realismo, rendendo più difficile identificare se il materiale sia stato prodotto da IA. Questo fenomeno ha riacceso le preoccupazioni sullo spam generato dall’IA, noto come AI slop o “basura digitale”, che aumenta la saturazione dei contenuti e riduce la fiducia degli utenti.

L’integrazione di Veo 3.1 in Gemini e nelle API Vertex amplia le possibilità creative per sviluppatori e creatori di contenuti.

Silvia Martínez Martínez, docente di Scienze dell’Informazione e della Comunicazione all’Universitat Oberta de Catalunya, sottolinea che “l’esperienza sulle piattaforme potrebbe non essere soddisfacente e incrementare lo scetticismo verso i contenuti, anche se non generati da IA”.

Addestramento del modello e proprietà intellettuale

Google non ha fornito dettagli specifici sul processo di addestramento di Veo 3.1, ma un’inchiesta di CNBC ha rivelato che l’azienda utilizza la vasta libreria di YouTube per formare i suoi modelli, inclusi Gemini e Veo 3. Solo una parte del contenuto disponibile (oltre 20 miliardi di materiali) viene impiegata, rispettando accordi con creatori e media per tutelare la proprietà intellettuale.

Un portavoce di Google ha dichiarato: “Abbiamo sempre utilizzato contenuti di YouTube per migliorare i nostri prodotti, anche con l’IA. Abbiamo investito in salvaguardie per permettere ai creatori di mantenere il controllo della propria immagine”. Tuttavia, diversi creatori affermano di non essere stati informati su queste pratiche o sui relativi accordi.

Esperti anonimi avvertono che l’uso dei video per l’addestramento potrebbe generare problemi di proprietà intellettuale, poiché il materiale prodotto alimenta strumenti commerciali che competono con i creatori originali senza credito, consenso o compenso.