TRUCCHI E PARRUCCHI in NUOVA ERA

INNOVA CINEMA :?: IL GATTO DI SCHRÖDINGER VERO E FINTO, MADE IN CHINA, EMANCIPA LA SOCIETÀ DELLO SPETTACOLO – PROPRIO COME VENEZIA 2025

prova gratuita!

TheArt-OfficialTrainer (youtube); BenJiang per South China Morning Post - 27 agosto 2025

Danièle Huillet con Jean-Marie Straub e la pubblicità dell’esperienza gratuita per riportarli in vita!

Tutorial esperienziale, dal canale youtube ArtOfficial Labs, pubblicato il 27 agosto 2025. Durata 13 minuti, lingua inglese. Esperienza di costruzione filmica a partire dalla colonna sonoracolonna in senso letterale – per realizzare gratis un filmato con una semplice foto, come riferito qui sotto nell’articolo di BenJiang dal South China Morning Post. AGGIORNIAMOCI: AI come Azione Indipendente.


Artificial intelligence – Tech / Big Tech

Il nuovo modello di generazione video AI
(open source di Alibaba) trasforma le foto
in clip di qualità cinematografica

Il modello Wan2.2-S2V genera video di personaggi espressivi e di qualità cinematografica da una clip audio e un’immagine statica

BenJiang a Pechino
Pubblicato da South China Morning Post – 27 agosto 2025

Mercoledì [27 agosto], l’unità di intelligenza artificiale e cloud computing di Alibaba Group Holding ha rilasciato lo strumento Wan2.2-S2V, il suo ultimo modello di intelligenza artificiale open source che genera video di personaggi espressivi e di qualità cinematografica da un’immagine statica e una clip audio.

Il nuovo modello fa parte della famiglia Wan2.2 di Alibaba Cloud, che l’azienda il mese scorso ha pubblicizzato come il primo modello open source di generazione video di grandi dimensioni del settore dell’intelligenza artificiale che incorpora la cosiddetta architettura Mixture-of-Experts (MoE). Alibaba, con sede a Hangzhou, è proprietaria del Post.

Basato su una tecnologia avanzata di animazione basata sull’audio, il modello Wan2.2-S2V “offre performance dei personaggi realistiche, che spaziano dai dialoghi naturali alle performance musicali, e gestisce senza soluzione di continuità più personaggi all’interno di una scena“, ha affermato mercoledì Alibaba Cloud.

Wan2.2-S2V potrebbe essere utilizzato dai creatori di contenuti professionali per “catturare rappresentazioni visive precise, personalizzate in base a specifici requisiti di storytelling e design“, ha affermato l’azienda. Tale miglioramento è stato attribuito all’ampio set di dati audiovisivi del modello, adattato agli scenari di produzione cinematografica e televisiva, ha aggiunto.

L’ultima variante Wan2.2 riflette il modo in cui le aziende cinesi di intelligenza artificiale continuano a ridurre il divario con i loro colleghi statunitensi attraverso l’approccio open source, che rende il codice sorgente dei modelli di intelligenza artificiale disponibile per l’utilizzo, la modifica e la distribuzione da parte di sviluppatori terzi.

download

Wan2.2-S2V può ora essere scaricato dalle piattaforme per sviluppatori online Hugging Face e GitHub, nonché dalla community open source ModelScope di Alibaba Cloud.

Alibaba Cloud, che è diventato un importante contributore alla comunità open source globale, ha affermato che i suoi modelli Wan2.1 e Wan2.2 hanno generato oltre 6,9 ​​milioni di download su Hugging Face e ModelScope.

L’architettura MoE di Wan2.2 suddivide il modello in sottoreti separate, o “esperti”, specializzate in un sottoinsieme dei dati di input per eseguire congiuntamente un’attività.

Per soddisfare le diverse esigenze dei creatori di contenuti professionali, WAN2.2-S2V offre due risoluzioni di uscita: 480P a definizione standard e 720P ad alta definizione, secondo Alibaba Cloud. Ciò garantisce immagini di alta qualità adatte sia ai contenuti per i social media che alle presentazioni professionali.

Secondo l’azienda, il nuovo modello consente anche la creazione di video con diverse opzioni di inquadratura, tra cui ritratto, busto e prospettiva a figura intera.

Il team di Wan2.2-S2V ha dichiarato in un rapporto allegato alla nuova versione che il modello può generare video di lunga durata con dettagli visivi coerenti. Non è stata specificata la lunghezza massima dei video supportati dal modello.

Wan2.2-S2V arriva diversi mesi dopo che ByteDance, proprietario di TikTok , ha rilasciato il suo modello multimodale OmniHuman-1 , che ha convertito una combinazione di immagini e frammenti audio in video realistici.

Fonte – https://www.scmp.com/tech/big-tech/article/3323358/alibabas-new-open-source-ai-video-generation-model-turns-photos-film-quality-clips?module=perpetual_scroll_0&pgtype=article

Nota: L’articolo originale (lingua inglese) contiene vari link e alcune immagini non riprodotte qui


 

Danièle Huillet e Jean-Marie Straub, quanto ci mancate!
Vi facciamo ritornare?

28 Agosto 2025

Suggerimenti


Vai alla barra degli strumenti