domenica 30 Marzo, 2025

La matematica Maria Bosco: «All’AI mancano i sentimenti, i danni li fa chi la usa male»

di

La divulgatrice di Geopop alla chiusura del festival Co.Scienza. «Tutti tengono alla loro privacy ma corrono a dare in pasto agli algoritmi i loro dati e le loro immagini. Non c'è ancora tanta consapevolezza dello strumento»

Hayao Miyazaki è uno che «non la tocca piano». Il leggendario artista giapponese, lo stesso che è stato capace di dichiarare: «Non mi sono mai sentito felice un giorno in vita mia» ha dato questa settimana il suo giudizio definitivo sull’intelligenza artificiale generativa: «Questa tecnologia è nemica della vita». Una risposta ai milioni di utenti in tutto il mondo che, seguendo un meme, hanno ridisegnato se stessi in stile «Studio Ghibli», la casa d’animazione di Miyazaki, quella di Totoro e «Porco Rosso».
Maria Bosco, 31 anni, è matematica e divulgatrice di Geopop, progetto di divulgazione scientifica che può contare su 15 milioni di follower sul web. Ha un passato di pallanuotista in serie A. Questa sera, 30 marzo, alle 20, al teatro Sanbàpolis sarà la prima relatrice dell’evento di chiusura del festival Co.Scienza, «Co.Scienza aumentata», dedicato proprio all’Ai e ai miti che la circondano. Con lei i ricercatori Emiliano Biasini e Nicolò Crescini.
Secondo lei ha ragione?
«Capisco la sua reazione: siamo davanti a un grave furto di proprietà intellettuale. Uno dei paradossi dell’intelligenza artificiale è dato dai comportamenti degli utenti: tutti tengono alla loro privacy ma corrono a dare in pasto agli algoritmi i loro dati e le loro immagini. Non credo ci sia ancora tanta consapevolezza dello strumento».
Il nome è un omaggio alla rassegna ma sa anche da «manifesto». Perché parlerete di «coscienza» e non di «intelligenza»?
«Perché ormai l’AI ormai fa un po’ tutto: sa parlare perfettamente come noi, c’inganna a meraviglia. Forse la differenza va cercata nella coscienza. Per assurdo, se la dovesse avere, dovrebbe avere anche dei diritti».
Federico Faggin, il creatore del microchip, sostiene che la coscienza sia un fenomeno irriducibilmente umano.
«Ora può essere così, ma non ho la stessa certezza: il dibattito è aperto. La stessa definizione di coscienza, del resto, è molto impegnativa per la scienza. Partiamo da un presupposto: noi abbiamo un corpo, l’AI, quella che utilizziamo con Chat Gpt e affini no».
Ma potrebbe finire dentro un robot…
«Sì e ci sono già esperimenti interessanti di questo tipo. Ma anche in quel caso il corpo arriva dopo. Noi ci nasciamo dentro e il linguaggio arriva dopo, con l’esperienza del mondo esterno. L’AI va addestrata anche per sentire quello che c’è fuori. Posso parlare con un modello linguistico generativo di sentimenti, ma lo stesso programma non li potrà capire, perché non vive l’effetto che hanno sul nostro corpo: non ha gli ormoni che “girano”».
Glielo avranno chiesto molte volte. L’AI è un pericolo?
«Su questo sono ormai sicura: no. O, meglio, è pericolosa come una pistola. Che può essere letale, ma solo in mano a qualcuno. E quel qualcuno è il responsabile. Come dimostreremo nel corso della serata, l’intelligenza artificiale è già uno strumento utilizzatissimo nel mondo della ricerca. E in medicina ci sta aiutando a fare passi da gigante… senza mettere minimamente a rischio la professione medica, dato che fa il “lavoro sporco” di scandagliare i dati».
Però in tanti la preoccupazione di essere sostituiti ce l’hanno, soprattutto i più giovani…
«Alcuni di loro sono preoccupati già al momento di scegliere il corso di laurea. Io solitamente rispondo loro che se scelgono una disciplina Stem (tecnologica, scientifica matematica, ndr) saranno contesi dalle aziende».
In un video lei ha raccontato com’è nato Deepseek, il modello AI cinese che ha occupato i media per circa una settimana. Per poi scomparire, almeno dal dibattito. Com’è finita?
«Esiste ancora e ha delle potenzialità. Molti studenti di matematica sono delusi dagli errori che Chat Gpt commette quando le si pongono dei problemi logici e numerici. Deepseek è stato addestrato su questa funzione e risponde meglio. Ma, soprattutto, l’effetto di Deepseek lo abbiamo visto sulla stessa Chat Gpt, visto che dopo l’uscita del modello cinese, è stata resa disponibile la versione avanzata di Open AI gratuitamente».
Ma alla fine… l’hanno copiato?
«Non si è ancora capito se sia un “distillato” di Chat Gpt o meno. Quel che è certo, però, è che è costato molto di più di quanto dichiarato inizialmente. Ma il tema del plagio, del diritto d’autore, resta il tema etico per eccellenza quando si guarda a questi strumenti. E non si è ancora capito come affrontarlo».
Lei ha fatto decine di contenuti per Geopop. Quale è piaciuto di più e a quale è più legata?
«Non è stato il più visto ma mi sono divertita a spiegare come fanno le barche dell’America’s Cup a “volare”, a navigare con lo scafo staccato dall’acqua. Mi è costato giorni di ricerca. Un video recente molto apprezzato è stato quello dedicato all’8 marzo. Sono uscita dal mio campo, ho raccontato com’è nata la giornata internazionale della donna, spiegando che è tutto fuorché una “festa”».
Strano… si potrebbe pensare che sia un argomento inflazionato, almeno online. Cosa ha fatto la differenza?
«Forse in tanti si aspettano, su questo tema, una posizione ideologicamente schierata… un po’ di retorica. Sono stati sorpresi che dal fatto che potesse essere affrontato “scientificamente”. In rete c’è una grande richiesta di neutralità».