L’INTELLIGENZA ARTIFICIALE E I DIRITTI UMANI: PROSSIME NORMATIVE
Ormai non c’è giornale, televisione o sito internet che non parli di intelligenza artificiale, ma nel mio intervento vorrei raccontarvi che cosa si sta facendo a livello internazionale affinché essa venga utilizzata per il bene dell’umanità, anziché a suo discapito.
Incomincio con qualche esempio. L’estate scorsa, in Baviera, in una chiesa completamente gremita, è stato chiesto ai fedeli di alzarsi e di lodare il Signore. Niente di nuovo, salvo che subito dopo è apparso sul megaschermo un avatar che ha esordito: “Cari amici, è un onore per me essere qui a predicare per voi in qualità di prima intelligenza artificiale alla convention dei protestanti in Germania”. L’intero servizio religioso era stato creato da Chat GPT con il supporto di un’equipe. Come ha osservato Yuval Noah Harari (autore di Homo Sapiens e Homo Deus), le religioni nel corso della storia hanno sempre rivendicato una fonte non umana per i loro testi sacri. Questo potrebbe divenire presto una realtà, non solo per i libri sacri, ma anche per le promesse che essi contengono, come l’immortalità. In Cina, nei cimiteri stanno provando a “resuscitare i defunti”: realizzano con l’intelligenza artificiale loro avatar che cambiano aspetto, parlano e ascoltano. In pratica, possono interagire con il caro defunto attraverso uno schermo posizionato sulla tomba. Ma vi invito a riflettere sulle implicazioni etiche e legali, oltre che sui rischi, di un simile approccio.
Harari sostiene che l’AI ha di fatto violato il sistema operativo delle civiltà umane, in quanto può contribuire meglio degli esseri umani al linguaggio che, come sappiamo, è il fondamento di tutta la struttura umana.
Harari ci ricorda anche che il linguaggio è alla base del diritto. Fino a poco tempo fa la redazione e l’applicazione delle leggi era affidata quasi esclusivamente all’intervento dell’essere umano. Oggi, invece, il 44% di tutta l’attività legale può essere svolta da applicazioni di AI, come risulta da un recente studio di Goldman Sachs. Riflettete per un momento su ciò che accadrebbe alle nostre società se le nostre relazioni politiche, le leggi, la letteratura, le arti visive, la musica non fossero prodotte dagli esseri umani, ma esclusivamente dall’intelligenza artificiale. Non si tratterebbe di un’improvvisa spettacolare fine dell’umanità causata dall’intelligenza artificiale, come viene rappresentata nel film Terminator, ma di una cosa più preoccupante, uno scenario più graduale e più realistico, e per me ancora più spaventoso.
Le possibilità di manipolare testi, ma anche audio e video aumentano di giorno in giorno. Purtroppo, quel lo del cimitero cinese non è l’unico caso: di recente, durante un convegno a Zurigo, per esempio, nessuno di noi è stato in grado di affermare con certezza se la persona che mostrava no in video, l’attore Tom Cruise, fosse autentica o una deepfake. In effetti, era una fake.
Dobbiamo assolutamente riflettere intorno agli effetti dell’intelligenza artificiale su di noi, sia come società sia come individui. In che modo l’AI influisce sulla nostra percezione del la società e della democrazia? Siamo pronti ad accettare che un sistema di intelligenza artificiale svolga le funzioni di un amministratore delegato, come è già accaduto in Cina, o di un partito politico? Prima che ciò avvenga, dovremmo dare la massi ma priorità alla regolamentazione dell’intelligenza artificiale attraverso norme giuridiche vincolanti a livello internazionale.
Non vorrei che il mio intervento risultasse soltanto un monito, per cui sottolineerò anche i tanti vantaggi che possiamo trarre dall’AI. È vero che i vaccini per il Covid-19 non sono stati sviluppati dall’intelligenza artificiale, ma essa ha contribuito in modo decisivo alla condivisione dei dati, alla pubblicazione dei vari studi, alla sensibilizzazione verso la vaccinazione. Tanti medici sono già assistiti da sistemi di intelligenza artificiale nelle loro diagnosi e in tanti settori dell’assistenza sanitaria l’intelligenza artificiale svolge un ruolo molto importante. Inoltre, l’AI ci aiuterà a comprendere meglio l’universo: di recente, un’applicazione della NASA ha scoperto una stella che gli astronomi non avevano individuato.
La sicurezza dei trasporti, l’educazione, la ricerca in generale, la crisi energetica: sono tanti gli ambiti ai quali l’AI può essere applicata. Per sino nella musica: di recente è uscita una canzone dei Beatles basata su un testo incompiuto di John Lennon, che l’intelligenza artificiale ha completato. E pare che sia un successo, anche se questo ha implicazioni sul copyright e nella dimensione etica.
A proposito di questioni legali, vorrei sottolineare alcune carenze di recenti strumenti di tendenza come Chat GPT, oltre al reale rischio futuro e graduale per la società, perché il rischio graduale è molto più insidioso e spaventoso del rischio cataclismico come alcuni hanno sostenuto. Purtroppo in Olanda, il mio paese, abbiamo vissuto probabilmente il caso peggiore, almeno in Europa, di cosa può succedere se l’AI non viene governata come occorre. In olandese si chiama Toeslagenschandaal, lo scandalo degli aiuti sociali per le famiglie in difficoltà e in particolare per i bambini. Le autorità fiscali olandesi volevano lottare contro le frodi ai sussidi per l’assistenza all’infanzia, per cui hanno utilizzato un sistema di AI – che però si è rivelato molto parziale e discriminatorio, per non dire apertamente razzista – e hanno accusato di truffa circa trentacinquemila perso ne ingiustificatamente, come poi si è verificato nel 94% dei casi, cioè quasi tutti. L’autorità olandese ha obbligato le famiglie incriminate a ripagare tutti i contributi che avevano ricevuto nel corso degli anni. Questo voleva dire che una famiglia che riceveva mille euro al mese doveva ripagare entro sei mesi, in alcuni casi, migliaia e migliaia di euro. Non è difficile immaginare gli effetti di questa operazione: suicidi, tante vite rovinate e tremila bambini sottratti ai loro genitori dai servizi sociali, e ancora non restituiti. Il governo olandese è caduto in seguito a questo scandalo e si sono tenute nuove elezioni, ma la situazione ancora non è stata risolta e anche per il nuovo governo questo rimarrà un problema molto pesante da risolvere. Su richiesta del Parlamento olandese, la cosiddetta Commissione di Venezia del Consiglio d’Europa, composta da eminenti giuristi costituzionali, ha ritenuto quanto accaduto un’ingiusti zia senza precedenti e ha verificato che le pratiche discriminatorie hanno seguito procedure governate da un algoritmo.
Quel che è successo in Olanda può anche succedere altrove. Per esempio, in Australia, il Robodebt era il sistema automatizzato di recupero crediti che, tra il 2015 ed il 2019, aveva obbligato oltre trecentottantamila cittadini australiani a restituire allo Stato ingenti somme di denaro ricevute a vario titolo. Molti di loro erano finiti sul lastrico e in qualche caso erano arri vati a togliersi la vita. Anche durante la pandemia, la disinformazione sui vaccini e sui vari strumenti governativi ha contribuito alla perdita di vite umane. Come sappiamo, le fake news si diffondono molto più velocemente della verità, soprattutto se sono assistite dall’AI. Solo lo scandalo olande se, stranamente, non ha goduto dei favori della stampa estera, perché il governo olandese ha fatto di tutto perché non venisse diffuso.
In Belgio Chat GPT ha consigliato il suicidio a un ragazzo e purtroppo il giovane ha seguito il consiglio. Questo ha portato, per esempio, l’Università di Lovanio a pubblicare una lettera aperta per chiedere alle società che mettono sul mercato questo prodotto di adottare ulteriori tutele e anche ai governi di prendere le dovute misure. Vorrei inoltre sottolineare che spesso Chat GPT dà risposte completamente sbagliate, tant’è che si parla di “allu cinazione di Chat GPT”. Uno studio pubblicato di recente sostiene, per esempio, che nel caso di ricerca sulle elezioni (e il 2024 è un anno molto im portante in questo senso), circa il 30% dei risultati è completamente errato. Dunque, se volete l’assistenza di Chat GPT per fare le vostre scelte, forse è il caso di interpretare i risultati delle ricerche con un po’ di cautela.
Il lessema “allucinazione” non mi convince affatto, preferisco di gran lunga l’espressione “malfunziona mento del computer” o “computer glitch”, perché attribuire una condizione psicologica o qualsiasi aspetto umano a una macchina non solo mi disturba, ma offre un messaggio completamente fuorviante. Quando parliamo di AI stiamo parlando di macchine, di cose inanimate. L’intelligenza artificiale non potrebbe mai avere personalità o responsabilità giuridica, perché solo gli umani sono responsabili, non i sistemi. Evidentemente, potete intuire perché i produttori spesso spingono verso il contrario. In Italia, il garante per la protezione dei dati all’inizio ha contestato Open AI sulla protezione dei minori e sul trattamento dei dati utilizzato da Chat GPT. Ciascuno di noi, quando utilizza Chat GPT, aiuta a migliorare il sistema, per cui la società, dunque noi, siamo il laboratorio in cui Open AI e altre aziende stanno testando i loro prodotti. È per questo che, per esempio, il garante ha espresso una profonda preoccupazione che l’AI possa diventare “un mostro di odio e menzogna”, perché nell’ambiente tecnologico spesso si preoccupano più del coinvolgimento dei clienti che dei diritti umani. Purtroppo, tante imprese ultimamente hanno abolito le equi pe che si occupavano delle questioni etiche e hanno investito molto di più sullo sviluppo del marketing.
Molto spesso è trascurato anche l’aspetto della sostenibilità. L’addestramento del sistema richiede un’enorme quantità di energia e dunque rilascia una grande quantità di CO2. Google ha dichiarato che l’addestramento del sistema di AI rappresenta il 15% dell’energia totale consumata dall’azienda, 2,3 trilioni di kilowattora. Quindi, se decidiamo di utilizzare un sistema di AI, dobbiamo anche renderci conto che questo ha un impatto sul pianeta, quindi è legittimo chiederci se non abbiamo veramente bisogno che l’AI sia governata. Un’altra questione preoccupante riguarda i dati utilizzati per addestrare i modelli di AI: è stato stimato che entro il 2026 avremo esaurito i dati freschi e inutilizzati dagli esseri umani per l’addestramento dei modelli di AI e dunque i modelli dovranno essere costruiti su dati generati anch’essi dall’intelligenza artificiale. Purtroppo, vari studi hanno dimostrato che quello che io chiamerei “incesto dell’intelligenza artificiale” porta a un processo degenerativo, con l’aumento degli errori dovuto all’eccessiva enfasi sui dati popolari: secondo una ricerca dell’università di Stanford ci sarà un collasso totale del modello. Un altro aspetto che vorrei menzionare è l’uso militare dell’AI, che vediamo ogni giorno nelle tragedie che si svolgono in Ucraina e in Medio Oriente, soprattutto nell’utilizzo dei droni che sono sempre più spesso completamente autonomi. Sono stati utilizzati già nella guerra tra Armenia e Azerbaijan e le guerre in corso danno un’altra spinta allo sviluppo di sistemi autonomi. A Ginevra sono in corso negoziati per limitare l’uso questi sistemi, tra cui i recenti LAWS (Lethal Autonomous Weapon Systems), ma purtroppo, per il momento, non c’è neanche un accordo sulle definizioni delle questioni, mentre gli investimenti su questi sistemi aumentano. Altri forti investimenti sono rivolti agli studi sull’interfaccia cervellomacchina, anche nell’ambiente medico gli avanzamenti sono notevoli, perché le nanotecnologie, combinate con l’AI, stanno aprendo orizzonti molto promettenti per la cura di alcune malattie. Avete probabilmente letto di una persona che è riuscita a camminare di nuovo grazie al sistema di AI direttamente connesso con il suo cervello. Dunque, i vantaggi sono enormi, però, se Elon Musk dice che vuole migliorare le esigenze insoddisfatte dell’essere umano e sbloccare tutte le sue potenzialità, io ho qualche dubbio sulla direzione che stiamo prendendo. Proprio Elon Musk, insieme al CEO di Open AI, l’anno scorso ha pubblicato una lettera aperta, ammettendo il rischio di potenti modelli futuri di AI, al pari della pandemia e dell’olocausto nucleare, e ha proposto di fare una pausa nella ricerca. Dovremmo preoccuparci dopo questo monito? Sono un po’ scettico quando si tratta di lettere scritte da aziende leader di mercato che fanno di tutto per rimanere nella loro posizione. Quindi, se invocano una pausa è perché a loro conviene. Inoltre, è un po’ strano che propongano una pausa di sei mesi: non possiamo veramente frenare uno sviluppo con una pausa di sei mesi, è difficile per le piccole aziende, mentre per loro non cambia granché.
In conclusione, resta l’appello verso una regolamentazione internazionale e, per fortuna, il mondo politico in Europa non ha aspettato le lettere delle grandi aziende per incominciare a lavorare sulla regolamentazione. In tutto il mondo ci si sta occupando della regolamentazione: la Cina ha emanato una regolamentazione basata ovviamente anche sull’ideologia del partito, negli Stati Uniti c’è stato un executive-order del Presidente Biden, in Europa ci sono due grandi progetti su cui stiamo lavorando: le EU AI Acts e il trattato dei Consigli d’Europa, al quale sto lavorando come rappresentante di ALLAI, ONG Olandese, e di cui fino all’anno scorso sono stato responsabile come direttore.
L’idea del Consiglio d’Europa è di creare una regolamentazione vincolante a livello mondiale, non solo per l’Europa, e questa è una grande novità. L’idea è quella di stabilire alcune regole di base – quali trasparenza, sostenibilità, sicurezza dei sistemi e dei dati utilizzati – e di farlo in modo che abbiamo almeno a livello internazionale regole comuni. (NB Nel frattempo la Convenzione e stata formalmente adottata il 17 Maggio 2024). Nel passato il Consiglio d’Europa ha creato strumenti sulla tecnologia e i diritti umani: quarant’anni fa il primo trattato, la prima convenzione mondiale sulle produzioni dei dati, la famosa convenzione 108, che ha poi ispirato anche l’attuale regolamentazione dell’Unione europea, e ventuno anni fa la convenzione contro il cybercrime (la criminalità informatica), che fino a oggi resta l’unico strumento in quel campo. Quando fu approvata quarant’anni fa questa convenzione, non c’era nessun paese al mondo che avesse una legislazione per la protezione dei dati. Dunque, era uno strumento molto all’avanguardia. Lo strumento sul cybercrime è stato adottato anche da tanti paesi fuori dell’Europa. Sono 70 i paesi che hanno aderito a questo trattato, tra i quali Stati Uniti, Brasile, Nigeria, Argentina, Australia su tutti i cinque continenti, e speriamo che il trattato sull’intelligenza artificiale avrà lo stesso successo.
C’è una grande complementarità tra l’Unione europea e il Consiglio d’Europa e i 27 paesi dell’Unione europea sono tutti anche membri del Consiglio d’Europa. Ma tutto è nato per l’esigenza di una regolamentazione del mercato e abbiamo visto, per esempio, nel caso tragico del Belgio, cosa può succedere se questi sistemi non sono governati. Anche alcuni aspetti di pratiche militari, come i sistemi di identificazione biometrica da remoto in tempo reale, non devono essere permessi. Per esempio, dovremmo vietare il sistema cinese di conteggio del social scoring, l’attribuzione o la sottrazione di punti ai cittadini per il loro comportamento, per decidere chi avrà una promozione, chi potrà mandare i bambini all’università, chi ha diritto all’alloggio. Ci sono sistemi di intelligenza artificiale ad alto rischio che vogliamo vietare completamente.
Per concludere, l’AI è una tecnologia molto promettente e potente e deve essere riconosciuta come tale, perché offre grandi opportunità, però porta con sé anche rischi enormi. Purtroppo, pochi sembrano essere consapevoli di questi rischi fra le autorità nazionali in tutto il mondo, ma anche in Europa, nella comunità dei governi nazionali, regionali e locali. Allora, vorrei concludere con una citazione di Francis Bacon (il primo
Queen’s Counsel, avvocato della Corona, in Gran Bretagna, nel 1597), a proposito del denaro, che si applica molto bene anche all’utilizzo dell’intelligenza artificiale: “È un buon servitore, ma un cattivo padrone: o siamo noi a controllarlo o è lui a controllare noi”.