Deepfake

Fa strano dirlo, ma è stato attraverso un video porno che ho capito che l’intelligenza artificiale avrebbe per sempre cambiato il modo in cui concepiamo le immagini. Era il 2017 e stavo cercando un progetto da proporre alla commissione che avrebbe determinato la mia ammissione o meno a un dottorato in Visual Studies. Lo sciopero degli sceneggiatori e degli attori hollywoodiani doveva ancora venire. Non c’era ancora stata alcuna foto fake del Papa vestito con un bomber bianco o immortalato nell’atto di rappare un’omelia. I tentativi di integrare gli algoritmi alla produzione cinematografica erano timidi e pressoché sconosciuti. Se si fosse parlato di AI Act, avremmo pensato a un pesce d’aprile.

A quel video mi aveva indirizzato un articolo di Motherboard (la sezione tech di Vice) in cui si parlava di deepfake (falsi prodotti attraverso il deep learning) e di come un utente di Reddit avesse pochi giorni prima diffuso sul social dei video a sfondo pornografico in cui sul corpo di diverse attrici del mondo del cinema a luci rosse era, grazie all’IA, stato innestato il volto di altrettante attrici del cinema “tradizionale”: Maisie Williams, Emma Watson e Gal Gadot. Proprio lei, Wonder Woman, eroina, icona Marvel, era l’involontaria protagonista di quello che è considerato il primo video deepfake in assoluto. Un video che, a ripensarci oggi, di pornografico non aveva solo il soggetto.

Immagini algoritmiche

C’era qualcosa in quella chimera digitale, in quel face swap, di profondamente intimo e, fino ad allora, tenuto nascosto. Qualcosa che sembrava svelare la natura scioccante e sfacciata delle immagini che sarebbero venute da lì in poi: le immagini algoritmiche. Immagini sintetiche, pacchiane, scorrette, non regolamentate, sempre più lontane da qualsiasi referente. Immagini-summa in cui far collassare identità, immaginari, estetiche. Immagini minacciose perché aliene. Immagini di cui facciamo fatica a capire la provenienza. Immagini immaginate (pardon) da un umano assieme a delle macchine (macchine intelligenti, diciamolo chiaramente) capaci di rielaborare l’immenso patrimonio dei nostri dati. E, come tutti, da quelle immagini sono rimasto turbato e affascinato al contempo.

Turbato, perché potevano essere usate per manipolare l’informazione (audio)visiva, certo, perché mettevano in crisi la nostra privacy, l’identità delle nostre fotografie (oltre che, quindi, dei nostri corpi digitali) e la dignità dei soggetti ritratti, ovviamente. Ma soprattutto perché ci ponevano di fronte agli scenari utopici/distopici elaborati nel corso dei secoli (da Pigmalione ad HAL 9000, dal golem a Metropolis) attorno alla possibilità che le stesse immagini che produciamo possano prendere vita e, magari, ribellarcisi.

Affascinato (e mentirei se non dicessi che questa è la sensazione che ha prevalso) perché quelle stesse immagini mai viste prima e tanto pericolose, sembravano chiamarmi in prima persona perché io mi ci immergessi (e qua sarebbe fin troppo facile citare Videodrome) per studiarle e provare a capirne l’essenza. Perché “intelligenza artificiale” era un termine che avevo relegato a qualche oscuro laboratorio del cinema e della letteratura di fantascienza e che, allora come oggi, si manifestava - prima che negli automi, nei super-cervelli o negli assistenti vocali - nelle immagini in movimento, che erano, più o meno, ciò a cui avevo dedicato la mia vita sin da bambino.

Gli algoritmi generativi

Poi, finito il dottorato, archiviati i deepfake e le parodie a cui hanno dato vita, è arrivato ChatGPT (con annessa rubrica su Film Tv, volta a scardinare le sue ottusità, a testare le sue capacità critiche) e, soprattutto, la diffusione di massa degli algoritmi generativi per la produzione di dipinti, fotografie, illustrazioni. I text-to-image. Dall-E. Midjourney. La promessa messianica di poter riprodurre qualsiasi stile, fosse anche lo “stile della realtà”, il fotorealismo assoluto. E quindi il terrore dei media, l’idea che l’intelligenza artificiale avrebbe fatto collassare su se stesso il mondo vero (sì, ma quale?). E poi gli algoritmi text-to-video. Gen-2. Zeroscope. E la paura che l’intelligenza artificiale avrebbe ucciso il cinema (che sembra dover morire per l’ennesima volta…), le polemiche (comprensibili) attorno al pagamento delle royalty e, soprattutto, sulla trasparenza dei training set (gli agglomerati di dati raccolti per addestrare i sistemi di IA). In questo panorama - in cui sembrava non potercisi schierare se non tra apocalittici o integrati, neoluddisti o accelerazionisti - un’idea fomentata dai primi casi di film prodotti in IA e distribuiti sul web (Another Life di Giovanni Abitante e The Mass di Matt Mayle) ha iniziato a crescere in me: che l’IA non avrebbe distrutto il cinema come il digitale non ha ucciso il cinema fotochimico e come il cinema fotochimico non ha distrutto la fotografia.

AI Cinema

Piuttosto, il cinema algoritmico – chiamiamolo AI Cinema, per provare a fare qualche click in più – avrebbe potuto aprire uno spazio di lavoro nuovo, diverse opportunità per i registi, per i filmmaker, per chiunque lavori in ambito creativo. L’IA ci avrebbe consegnato la possibilità di ipotizzare nuove immagini, altri universi con cui sperimentare.

Se da un lato mi sembravano sacrosante le proteste (ancora: sciopero degli sceneggiatori, sciopero degli attori), le lotte e le manifestazioni perché la macchina cinema, l’industria cinematografica, non abusasse delle grandi opportunità che l’IA le offriva (su tutti: abbassamento dei costi e snellimento dei tempi di produzione di un film, del suo workflow in  generale), garantendo un approccio etico alla sua introduzione (non dimentichiamo che l’IA, prima di tutto, è una rivoluzione culturale e industriale) e per una sua istituzionalizzazione e regolamentazione, altrettanto lecite non mi sembravano le proteste delle cassandre che proclamavano la fine dell’arte; millenarismi che altro non facevano che spostare l’attenzione dai reali rischi dell’intelligenza artificiale (impatto ambientale, black box, pregiudizi algoritmici ecc.) in favore di assurdi moralismi su una presunta “purezza dell’arte”. Da qui il desiderio, da un lato, di provare a perimetrare il campo, di indicare i prodotti esemplari del cinema in IA, dall’altro quello di provare a dimostrare personalmente come questa nuova forma fosse cinema a tutti gli effetti.

Un film in IA

Quindi, Miss Polly Had a Dolly. Un cortometraggio tutto-IA che ho girato con Flavio Pizzorno e Andrea Rossini e che è stato selezionato in concorso al Torino Film Festival 2023. Un piccolo film ispirato a una storia vera su un uomo e una donna che si prendono cura del corpo ibernato dell’ex marito di lei all’interno di un centro criogenico dove il defunto, assieme ad altri ex-milionari, è in attesa di essere risvegliato, riportato in vita dalla tecnologia.

Miss Polly Had a Dolly è stato creato interamente facendo ricorso all’IA. Nessun’immagine è stata girata o è il frutto di tecniche di animazione tradizionali. Non c’è stato alcun casting: non ci sono attori né doppiatori. Le voci dei protagonisti altro non sono che il frutto di una clonazione partorita facendo ricorso alle reti neurali. Gli algoritmi sono intervenuti anche nella fase di produzione della colonna sonora e, operativamente, nella fase di stesura della sceneggiatura (traducendo il testo dall’italiano a “un inglese fluente e contemporaneo”).

Nella nostra idea il film è una riflessione attorno al lost in traslation tra uomo e macchina e uno sfoggio manieristico delle possibilità aperte alla settima arte dall’intelligenza artificiale: cloni vocali, regia macchinica, AI music... Se i riferimenti cinefili possono essere chiari (da Refn a Cronenberg fino a David Lynch) ciò che di nuovo ci sembra emergere dal film sono un approccio inedito all’ambito produttivo (il corto è stato portato a termine con costi bassissimi, in tempi estremamente ridotti e rinunciando a molte maestranze) e alla stessa materia filmica che nell’AI Cinema presuppone un dialogo serrato con le macchine per capirne i meccanismi e plasmare un’estetica sulla base dei loro vezzi, dei loro limiti e delle loro idiosincrasie.

Un corso di cinema futuro

È dal desiderio incarnato dal film di spostare un po’ più in là i limiti del visuale e le logiche con cui produciamo le immagini che, con Film Tv, abbiamo voluto dare vita ad un corso dedicato a chiunque voglia costruire un film, uno spot, un videoclip con l’IA o anche solo capire come l’intelligenza artificiale possa radicalmente cambiare il mestiere del regista, quali siano le implicazioni formali della produzione di questi immagini nuove, originali.

Per fare questo, dal 15 aprile al 27 maggio, alle ore 20:00, in sette lezioni della durata variabile tra le due e le tre ore, uniremo teoria e prassi, una lunga fase di workshop con dei professionisti del settore e l’analisi di alcuni AI movie fondamentali per formare dei possibili AI artist. Agli studenti forniremo le competenze tecniche per lavorare con modelli generativi come Midjourney, Gen-2 e Stable Diffusion, ma anche le basi per approcciare in maniera critica e trasversale una versione alternativa del regista, del filmmaker, del creativo.

Questo corso è forse solo il primo passo di un discorso a cui stiamo provando a dare vita assieme al settimanale Film Tv: il tentativo di creare un nuovo spazio di dialogo e di lavoro attorno a una nuova forma cinematografica, vagliandone rischi e potenzialità, sogni e incubi, senza farci spaventare (ma anzi accudendolo e facendo la nostra piccola parte per espanderlo) dal cinema.

Vi lascio, quindi, con una frase sentita di sfuggita all’uscita dopo la prima di Miss Polly Had a Dolly a Torino: “IA e cinema non c’entrano niente”. Beh, noi non siamo d’accordo. O almeno, proviamo a scoprirlo insieme. Le informazioni pratiche sul corso Teoria e pratica del cinema in intelligenza artificiale sono qui.



Autore

Pietro Lafiandra

La prima epifania cinematografica la ebbe a quattro anni con Pomi d’ottone e manici di scopa. La seconda in adolescenza con Cosmopolis. Ora, in età adulta, prova a trovare un’improbabile sintesi tra questi due lati di sé muovendosi faticosamente tra un dottorato in visual studies, deepfake, cinema horror, film d’animazione per bambini e musica elettronica. I componenti della sua band, Limonov, dicono che è colpa dell’ascolto compulsivo dei Radiohead. Gli amici che è colpa del suo segno zodiacale, i gemelli. I dottori della schizofrenia. Lui pensa sia più cool dire che è un intellettuale post-moderno. Ai posteri l’ardua sentenza.