L'intervista

mercoledì 29 Marzo, 2023

Il Papa con Moncler e Trump in manette: è il tempo delle fake image. «Ma ci salverà l’intelligenza artificiale»

di

La docente Giulia Boato: «L’unica strada è la cifratura. Dobbiamo sviluppare programmi capaci di rilevare e distinguere le immagini vere da quelle false»

Se negli ultimi giorni siete stati ingannati dalle immagini del finto arresto di Donald Trump, o di Papa Francesco in un piumino griffato, abbiamo brutte notizie per voi: le intelligenze artificiali sono già ora in grado di realizzare rappresentazioni ben più realistiche di quelle diventate virali nel fine settimana.
La produzione di immagini, video e audio da parte delle AI è sempre più precisa e questo apre il campo a molte possibilità, ma anche a tanti rischi. Viviamo già in un epoca in cui il concetto di verità è messo in discussione e in cui esistono agenti che intenzionalmente diffondono fake news. Nel suo ultimo libro, Infocrazia, il filosofo Byung-chul Han scrive che nel mondo attuale non si «afferma che la menzogna viene spacciata per verità o che la verità viene sconfessata in quanto menzogna. Piuttosto, è la stessa distinzione tra verità e menzogna a essere minata». Aggiungere a questo contesto la produzione di immagini false, ma perfettamente realistiche, potrebbe avere un effetto dirompente. Fortunatamente si stanno già sviluppando dei sistemi per difenderci e, paradossalmente, i nostri migliori alleati sono proprio le intelligenze artificiali.
A spiegarcelo è Giulia Boato, professoressa associata di telecomunicazione presso il dipartimento di ingegneria e scienze dell’informazione dell’Università di Trento

Professoressa le recenti foto, virali, di Papa Francesco e Trump dimostrano che le intelligenze artificiali sono ormai in grado di ingannarci?
«Assolutamente sì, anche se un occhio esperto si accorge che non sono vere. Il problema è che esistono programmi, chiamati GAN, capaci già ora di realizzare immagini iper-realistiche praticamente indistinguibili da foto vere»

Cosa sono questi Gan?
«È un acronimo per “Generative Adversarial Networks”. Semplificando possiamo dire che si tratta di intelligenze artificiali molto più avanzate rispetto a quelle basate su comandi di tipo testo-immagine come Midjourney, ma capaci di risultati esponenzialmente migliori».

Le AI sul modello testo-immagine sono molto intuitive, anche i Gan lo sono?
«Diciamo che c’è un’architettura di deep learning da saper organizzare. Bisogna avere dimestichezza con il linguaggio di programmazione Python. Direi che uno studente di una laurea magistrale in ambito tecnologico saprebbe cosa fare. Quindi né troppo accessibile né troppo difficile».

Ci diceva che queste immagini però sono molto realistiche, quanto?
«Molto. Noi siamo stati i primi a condurre uno studio sulle immagini iper-realistiche ottenute con tecnologia deep fake. Abbiamo mostrato ai partecipanti delle immagini vere e altre realizzate dall’intelligenza artificiale. Poi, abbiamo chiesto loro di dirci quali fossero vere e quali false. Il risultato è che le immagini vere venivano riconosciute tali solo nel 50% dei casi, mentre quelle artificiali venivano scambiate per autentiche nell’80% dei casi e c’è di più»

Cioè?
«Hany Farid, professore dell’università di Berkeley, ha ripetuto l’esperimento ottenendo gli stessi risultati, ma ha aggiunto una domanda al test: “quali volti vi ispirano più fiducia”?. Ebbene il risultato è stato che i volti artificiali generavano maggiore fiducia negli intervistati».

Quali implicazioni comporta questo?
«Ce ne sono tante. La prima che mi viene in mente è la possibilità di utilizzare queste immagini per realizzare profili falsi assolutamente convincenti sui social network, con i quali ingannare le persone e anche truffare. Durante l’ultima campagna presidenziale negli Stati Uniti, un ragazzo di 17 anni ha creato un finto profilo di un candidato al Congresso, utilizzando come foto profilo un falso realizzato con Style-Gan 2. Non solo ha ingannato molte persone, ma persino Twitter aveva concesso al profilo la spunta blu di verifica ed è stato alla fine il giovane a rivelare l’inganno».

Arriveremo al punto in cui i nostri occhi non ci basteranno?
«Direi che quel punto lo abbiamo già raggiunto. Almeno per i falsi migliori, non quelli che si realizzano in 5 secondi».

Abbiamo parlato di immagini, su audio e video qual è la situazione?
«L’audio ormai è quasi perfetto. Bastano un po’ di campioni della persona interessata per essere in grado di farle dire qualsiasi cosa. Anche sul video, unito alla voce, siamo molto avanti. La tecnica migliore, detta “reenactment”, prevede l’utilizzo di un attore, che recita quello che si vuole dire e fare, su cui un’intelligenza artificiale è in grado di generare volto e voce di chi si vuole impersonare. Diciamo che si tratta di metodi ancora estremamente tecnici e che richiedono molto tempo».

Ecco ma in questo contesto non c’è il rischio di passare dall’era delle fake news a quella delle fake images news?
«Si il rischio c’è ed è grande. Pensiamo all’impatto che può avere un’informazione falsa, ma verosimile. Ecco ora immaginiamo di aggiungere a quella dichiarazione, o a quel resoconto fasullo, anche una foto o un video generato artificialmente. Il risultato sarebbe ancora più potente. Questo perché l’impatto sui processi cognitivi delle persone viene amplificato dalle immagini, siamo abituati a credere a quello che vedono i nostri occhi».

Come possiamo difenderci da tutto questo?
«Probabilmente l’unica strada è la cifratura. Dobbiamo sviluppare programmi capaci di rilevare e distinguere le immagini vere da quelle false. Abbiamo già visto che, se adeguatamente allenati, sono in grado di farlo. È difficile capire quale sia il processo che avviene, si tratta di una “scatola nera” proprio come accade nella produzione di immagini, ma i risultati sono molto precisi. L’altra strada è quella di realizzare software capaci di analizzare l’impronta digitale di produzione e sulla base di quella stabilirne la veridicità».

Aspetti mi sta dicendo che la soluzione sono sempre le intelligenze artificiali?
«Può sembrare paradossale, ma sì, sono il nostro migliore alleato. In questa partita le AI giocano sia da attaccanti che da difensori. Dobbiamo accettarlo e lavorare in quella direzione. Per anni abbiamo provato a sviluppare indicazioni da fornire alle persone per distinguere le immagini artificiali: le imperfezioni nelle ombre, le asimmetrie negli occhi, le proporzioni delle mani. Ma questi difetti saranno sempre minori e impercettibili. Abbiamo bisogno di un’intelligenza artificiale che faccia da fact-checker. Il futuro è AI vs AI».