L'intervista
sabato 6 Maggio, 2023
di Marika Damaggio
Come al solito dipende da come la si vede. Quando si parla di intelligenza artificiale il rischio, a una prima lettura epidermica, è quello di oscillare nei poli estremi. Dai lemmi apocalittici a quelli che glorificano la tecnica, umanizzandola. Eppure la realtà dei sistemi di IA, che già si declina nella quotidianità, sta nel mezzo. Fra potenzialità (per il clima e per la sanità) e limiti etici da definire. Ne è convinta una delle massime esperte al mondo: Francesca Rossi, Ibm Fellow e AI Ethics Global Leader del colosso informatico statunitense.
Partiamo da una domanda che ha posto nell’omonimo volume: ci possiamo fidare dell’intelligenza artificiale?
«La fiducia deriva dalla trasparenza di sapere quali sono le reali capacità, i limiti, e i rischi dell’IA, senza attribuirle proprietà che non ha e che derivano solo dalla nostra propensione di antropomorfizzarla. Inoltre, è una fiducia che dipende dal contesto di uso, perché alcuni rischi sono più rilevanti in alcuni contesti invece che altri. Quando le decisioni possono avere un impatto importante sulla vita delle persone, come in ambito medico o finanziario, quello che ci si aspetta dall’IA deve essere di più rispetto ad un contesto in cui, ad esempio, vengono suggeriti i prossimi libri da comprare online. L’IA è già usata in praticamente tutte le nostre attività online, e lo sarà sempre di più, portando molti vantaggi e impatto positivo per tutti. Ma bisogna usarla con la consapevolezza dei suoi rischi, quali l’amplificazione dei pregiudizi e la generazione di contenuti falsi, e usando tutti gli strumenti per mitigarli».
Da mesi non si fa che parlare di GPT-4. Il bot ha una nuova capacità di rispondere alle immagini e al testo, talmente buona da spaventare. Quanto si stanno raffinando ma, soprattutto, per spostare il discorso dalle insidie alle potenzialità quali sono le virtù di tale tecnologia?
«Le applicazioni sono innumerevoli, sia per gli individui che per le aziende. Qualunque attività può essere aiutata da una tecnologia che è stata “allenata” su grandissime quantità di testi e immagini, molte più di qualsiasi umano, e che sa generare contenuti basati su questo allenamento. Questa forma di IA, detta “generativa” perché’ sa generare contenuti, oltre che interpretarli bene, può aiutarci dovunque sia utile l’analisi di grandi quantità di dati, sia nei lavori ripetitivi che in quelli creativi».
Viceversa, quali le insidie?
«I rischi riguardano i limiti di questa tecnologia, che impara dai dati generati da noi ma ha ancora dei limiti. Innanzitutto, i dati contengono i pregiudizi umani, e quindi il contenuto generato dall’IA può replicare e amplificarli, con un rischio sociale in attività che richiedono una grande attenzione ad evitare discriminazioni, come nei servizi forniti ai cittadini. Un secondo rischio è relativo alla generazione di contenuti falsi e non presenti nei dati di allenamento, che possono però essere presentati con eloquenza e sicurezza tali da indurre le persone a credere che siano veri. Questo può scardinare l’assunzione che l’informazione che ci circonda, e che leggiamo per poi prendere decisioni nella nostra vita sia vera e verificata. Altri rischi riguardano in generale l’allineamento dell’IA a dei valori umani importanti, quali la privacy, la proprietà intellettuale, il rispetto nell’interazione con le persone evitando di generare testi offensivi o inappropriati. Mentre alcuni rischi sono relativi ai limiti della tecnologia, altri sono dovuto al suo uso non informato o al suo mis-uso intenzionale».
Il Future of life institute ha recentemente pubblicato un appello – che lei non ha firmato motivando dettagliatamente la scelta – per sospendere per almeno sei mesi lo sviluppo di sistemi più potenti di GPT-4. Cosa non l’ha convinta?
«Condivido il fine ma non il metodo. Invece che una pausa dell’allenamento di sistemi più potenti, penso che si debba concentrarsi su come gestire bene i sistemi già disponibili e accelerare in modo costruttivo e collaborativo la ricerca sui metodi per mitigare i limiti dell’IA, che portano a rischi quando viene usata in contesti applicativi. Una pausa inoltre non sarebbe neanche attuabile o controllabile».
L’Associazione mondiale per la ricerca in Ai (Aaai), di cui è l’attuale presidente, ha come missione la promozione della ricerca in Ai e dell’uso responsabile di questa tecnologia. Ma come si possono determinare dei limiti etici nello sviluppo su scala globale? Da dove si parte?
«Si parte dagli ambienti di ricerca e tramite una discussione globale e multi-stakeholder, dove devono partecipare tutti gli attori sociali, non solo gli esperti della tecnologia, includendo sociologi, filosofi, economisti, i governi, i media, i cittadini, e le organizzazioni della società civile».
Nelle redazioni dei giornali le immagini dell’arresto di Trump hanno fatto tremare i polsi: pensa che in futuro serviranno nuove specializzazioni per evitare fake news? Per esempio debunker di fake image? O sarà ancora l’intelligenza artificiale ad aiutarci?
«Per mitigare i rischi quali le fake news, serve un impegno da parte delle aziende che creano la tecnologia e i governi che la regolano. Linee guida relative a metodi per identificare immagini vere da quelle fake, rivolte a tutti questi attori, sono già state pubblicate (per esempio dalla Partnership on Ai, di cui faccio parte) e sono in discussione in vari contesti. La tecnologia ci può aiutare, ma da sola non basta. Serve l’impegno di tutti».
Come si immagina di raccontare la vita nel 2060 utilizzando servizi su larga scala che poggino sull’intelligenza artificiale? Quale società avremo o potremmo avere?
«Spero in un futuro in cui il ruolo della tecnologia sia a servizio del progresso umano. Spero che per il 2060 alcuni grandi problemi globali siano risolti o almeno mitigati, come quelli legati al clima o a malattie ancora non risolte. Ma per arrivare a questo futuro, bisogna definirlo, creare tecnologia che serva a supportarlo, e poi usarla in modo funzionale per raggiungerlo. L’IA ci fornisce strumenti potentissimi e grandi opportunità, sta a noi usarla in modo consapevole e responsabile. Questo vuol dire aumentare la consapevolezza dei nostri valori per poter creare tecnologia che li supporti e li protegga, e poi vivere mettendoli in pratica, anche con l’aiuto dell’IA».
l'intervista
di Davide Orsato
L’analisi del giornalista che ha di recente pubblicato un manuale per spin doctors dal titolo «Non difenderti, attacca» e contiene 50 regole per una comunicazione politica (imprevedibile e quindi efficace)