Questo mese abbiamo avuto il piacere di chiacchierare con la dott.ssa Maria Moloney su ciò che il 2024 potrebbe portare in termini di innovazione dell’IA e della protezione dei dati, nonché sulle questioni legislative europee e globali in questo settore. La dottoressa ha conseguito un dottorato di ricerca in sistemi informativi presso il Trinity College di Dublino ed è specialista senior in protezione dei dati, sicurezza e IA presso l’azienda tecnologica irlandese PrivacyEngine, dove lavora con grandi aziende private in Europa e in America, oltre che con le amministrazioni pubbliche. Come consulente si occupa di protezione dei dati, sicurezza e intelligenza artificiale dal punto di vista della conformità.
Il progresso e la ricerca sull’IA saranno sicuramente ancora più intensi nel 2024 che nel 2023, a mio avviso, perché siamo solo all’inizio dei sistemi di IA e dei loro usi. Si è già parlato molto di IA generativa, ma nel 2024 e nel 2025 dovremo andare oltre per capire esattamente come questi modelli possono essere utilizzati nelle aziende, quali sono i vantaggi, ma anche gli svantaggi. Nel 2023 l’attenzione si è concentrata sui modelli linguistici di grandi dimensioni, mentre nel 2024 ci occuperemo maggiormente di modelli di IA multimodali. Il Chat-GPT 3.5 si è concentrato sull’interpretazione del testo, mentre il GPT-4 ora combina diverse modalità come testo, audio e video. Di conseguenza, questi modelli di intelligenza artificiale possono dare risposte molto più intuitive. Ad essere onesti, è entusiasmante lavorare in questo campo in questo momento e non è esagerato dire che negli ultimi dodici mesi l’IA ha cambiato il modo di lavorare delle persone. Ora sappiamo che si tratta di una tecnologia estremamente dirompente. È chiaro che ha enormi vantaggi, stiamo vedendo auto autonome e, più in generale, un aumento massiccio dell’automazione. Molti dei lavori che sono sempre stati considerati noiosi e difficili possono ora essere svolti dall’intelligenza artificiale. Questo libera gli esseri umani e ci permette di dedicare più tempo ad attività più creative, invece di dover fare cose che troviamo ripetitive e noiose.
La legge sull’intelligenza artificiale metterà l’Europa sulla mappa della regolamentazione mondiale dell’IA.
Molto probabilmente l’ACT metterà l’Europa sulla mappa in termini di regolamentazione dell’IA, in quanto l’Europa sta assumendo il ruolo di prima giurisdizione a livello globale a regolamentare l’IA e, quindi, ad aprire la strada a un’IA affidabile. Dall’entrata in vigore del RGPD nel 2018, noi europei abbiamo imparato molto sulla legislazione basata sul rischio e sui suoi vantaggi, quindi l’UE ha adottato lo stesso approccio basato sul rischio per la legge sull’IA, e ha accettato con relativa rapidità. Ciò è stato in gran parte dovuto alle elezioni europee di fine anno. La Commissione voleva un accordo entro la fine del 2023. Un accordo era particolarmente importante perché, come per il RGPD, l’Europa vuole essere all’avanguardia nella legislazione sull’IA.
L’UE è sempre stata vista come il luogo in cui la protezione dei cittadini è fondamentale. Credo che la minaccia che l’intelligenza artificiale rappresenta per i diritti e le libertà dei cittadini sia stata abbastanza significativa da indurre l’Europa a rendersi conto di dover agire rapidamente per regolamentarla. La sfida, tuttavia, è che questa intelligenza continui a svilupparsi a ritmo sostenuto. Ecco perché si parla di includere nel regolamento sull’IA disposizioni che consentano alla Commissione europea di modificare, se necessario, la legge in futuro. Penso che abbiano fatto un ottimo lavoro nel cercare di mettere in atto qualcosa che stabilisca un elevato livello di fiducia per le aziende che vogliono accedere al mercato europeo. Come nel caso del RGPD, ovviamente ci vorranno anni prima che tutto sia perfettamente sistemato, ma è un buon inizio.
Negli Stati Uniti, nel Regno Unito e in molti altri Paesi, non esiste una normativa generale sull’IA e i regolamenti sono spesso specifici per il settore. L’Europa ha adottato un approccio orizzontale, il che significa che ogni settore deve rispettare la stessa legislazione, ovvero la legge europea sull’IA. Questo è anche ciò che è accaduto nel 2018 per il RGPD. Questo è un buon modo per far sì che l’UE sia il leader affidabile dell’IA in tutti i settori.
Su scala globale, l’AI ACT potrebbe essere considerato da altre giurisdizioni come un modello di riferimento per la regolamentazione dell’AI. Sicuramente influenzerà i Paesi che desiderano interagire o vendere nel mercato europeo o che hanno una tradizione in tal senso. È molto probabile che i Paesi che hanno una forte tradizione di vendita nel mercato dell’UE cercheranno di ottenere l’adeguatezza all’AI ACT quando legifereranno per se stessi. Abbiamo già visto l’adeguatezza al GDPR in molti Paesi. È logico che queste giurisdizioni abbiano una legislazione simile o analoga per l’IA per ridurre l’onere legislativo. Questo è noto come effetto Bruxelles. Credo che lo stesso dovrebbe valere per l’AI ACT.
Mi ritengo molto fortunato a far parte dell’UE, perché so che ci sarà sempre uno sforzo per proteggere i miei diritti nel mondo digitale, soprattutto perché c’è sempre stata una tensione tra l’innovazione e la protezione dei diritti fondamentali in relazione alle nuove tecnologie. Spesso questo porta a temere che altre giurisdizioni nel mondo ottengano un vantaggio competitivo sull’Europa in termini di innovazione grazie a un approccio più leggero rispetto a quello europeo, ma credo che con il RGPD abbiamo dimostrato che qui in Europa possiamo davvero essere innovativi e allo stesso tempo proteggere i diritti dei cittadini. Il RGPD ha rafforzato la fiducia e la reputazione dell’Europa e probabilmente lo stesso accadrà con la legge sull’IA. Dovremmo essere fiduciosi sulla direzione che la legge sull’IA prenderà in futuro. Probabilmente ci vorranno cinque anni prima di vedere i reali benefici della legge e come verrà applicata nelle diverse giurisdizioni a livello globale, ma credo che l’Europa ne trarrà grandi benefici.
Ci sono già molti casi concreti di gravi danni causati alle persone perché i sistemi di IA non sono stati impiegati in modo appropriato e con scarsa considerazione per le persone che li utilizzano. Riconosco che attualmente c’è una corsa globale all’innovazione tra i Paesi e questo è un bene per l’umanità, ma è importante trovare un equilibrio con la protezione dei dati e i diritti digitali, perché questo può avere gravi ripercussioni per gli individui.
Abbiamo l’esempio del caso degli assegni familiari nei Paesi Bassi, avvenuto di recente. Un sistema di intelligenza artificiale nei Paesi Bassi ha accusato un gran numero di persone di frode, che si è rivelata errata a causa di un sistema di intelligenza artificiale distorto. Lo scandalo ha fatto cadere il governo nel 2021 e letteralmente perché nessuno si è accorto dei pregiudizi presenti negli algoritmi del sistema degli assegni familiari. Questo sistema era contrario al GDPR, in quanto qualsiasi sistema decisionale automatizzato deve essere soggetto alla supervisione umana. È importante tenere sempre presente che gli algoritmi sono affidabili quanto le persone che li hanno progettati. In fin dei conti, si tratta di una tecnologia soggetta all’errore umano.
Un altro esempio di sistemi di IA che hanno dimostrato di avere pregiudizi incorporati è quello dei sistemi di IA statunitensi che valutano la probabilità di recidiva dei detenuti. Il risultato della valutazione automatica della recidiva effettuata da questi sistemi di intelligenza artificiale ha implicazioni legali per gli individui. Queste decisioni automatizzate si sono rivelate estremamente problematiche per le persone che cercano di migliorare la propria vita. Le decisioni che questi sistemi di intelligenza artificiale prendono sulle persone e sulla loro probabilità di recidiva possono avere un grave effetto sulla vita di una persona. Fortunatamente, se in Europa esistessero questi sistemi, sarebbero considerati sistemi di IA ad alto rischio ai sensi della legge europea sull’IA, a causa del loro impatto potenzialmente molto significativo sul futuro delle persone.
Attualmente lavoro con molte persone che scrivono algoritmi per banche e tecnologie finanziarie. Molti modelli aziendali attualmente in uso non consentono agli esseri umani di supervisionare i sistemi decisionali dell’IA. Anzi, spesso le aziende eliminano gli esseri umani per tagliare i costi. È più economico automatizzare tutto. Ironia della sorte, l’Europa sta cercando di sviluppare l’industria Fintech con l’obiettivo di produrre leader globali, e c’è un chiaro sostegno per consentire lo sviluppo di modelli di business Fintech in cui non c’è supervisione umana, il che è contrario al GDPR. Ad esempio, se oggi qualcuno sta cercando un mutuo, i suoi dati vengono automaticamente inseriti in un sistema che valuta se è un buon candidato per un prestito. Molto spesso questa valutazione non è supervisionata da un dipendente della banca e questa situazione può quindi avere gravi conseguenze per l’interessato. Un direttore di banca si troverebbe in una posizione migliore per valutare se la persona è affidabile e in grado di rimborsare il debito. Se questi richiedenti non riescono a ottenere una casa, dovranno rimanere in affitto per il resto della loro vita perché non possono ottenere un prestito. A dire il vero, non c’è nemmeno bisogno di aspettare la legislazione sull’intelligenza artificiale per cambiare questa situazione, possiamo contare sul GDPR per garantire la supervisione umana di tutti i processi decisionali automatizzati. Come sappiamo, il RGPD è in vigore da anni, eppure continuiamo a vedere implementati questi modelli di business. Speriamo che la legge sull’IA rafforzi la necessità di una supervisione umana dei sistemi di IA.
Quando le persone si sentono minacciate, rifuggono dalla tecnologia
Come abbiamo già detto, il GDPR ha dimostrato che noi europei possiamo essere innovativi pur proteggendo i dati personali dei cittadini. In definitiva, se i cittadini non sono protetti, i vantaggi dell’utilizzo dei sistemi di intelligenza artificiale si riducono notevolmente. Ma le persone si allontanano dalla tecnologia se si sentono minacciate da essa. D’altro canto, una volta conquistata la fiducia delle persone, queste adotteranno la tecnologia e si divertiranno con essa.
Ho notato un chiaro cambiamento nella mentalità dei politici e degli amministratori pubblici. Sebbene questo cambiamento di mentalità sia leggermente più lento rispetto a quello degli amministratori delegati e dei professionisti del settore privato, intravedo un’evoluzione. È chiaro che i dipendenti pubblici hanno motivazioni diverse per il loro lavoro nel settore pubblico, tuttavia, con quasi sei anni di GDPR alle spalle, le amministrazioni pubbliche stanno iniziando a capire che c’è una reale necessità di conformità e di protezione dei dati delle persone. In base alla mia esperienza di conformità, forse quattro anni fa le persone venivano a chiederti: “Cos’è la protezione dei dati? Che cos’è il RGPD?”, mentre oggi tutti lo sanno e le domande riguardano più che altro “Come facciamo a mettere in atto il nostro piano di conformità?”.
Non solo l’Europa sta diventando sempre più consapevole della protezione dei dati, ma anche il mondo intero. Tradizionalmente, gli Stati Uniti avevano un’ideologia completamente diversa quando si trattava di proteggere la privacy e la libertà di espressione. A mio avviso, stanno iniziando a comprendere l’importanza della protezione dei dati, in particolare quando si tratta di sicurezza informatica e attività antifrode. Europa e America stanno piano piano comprendendo l’importanza della protezione dei dati. L’attuazione del quadro di protezione dei dati UE-USA, avvenuta solo pochi mesi fa, nell’estate del 2023, ne è la riprova. Credo che non siamo mai stati così vicini alla collaborazione con gli Stati Uniti in materia di protezione dei dati.
Guardando al 2024, ritengo che l’affidabilità dell’IA e la parte spiegabile della stessa IA debbano essere prese in considerazione, perché il fatto che grandi quantità di dati personali possano essere estratte dal Web e utilizzate così rapidamente dall’IA rende la questione dell’affidabilità una priorità assoluta. Ora che l’AI Act è entrato in vigore, la normativa ci consente di interagire con le aziende che sviluppano l’IA e di lavorare con loro per costruire trasparenza e affidabilità nelle soluzioni di conformità, per garantire che i clienti e gli utenti di questi sistemi siano protetti e per ridurre il rischio di una violazione della sicurezza che coinvolga i sistemi di IA. Le violazioni si ripercuotono sempre sull’immagine dell’azienda che, a sua volta, si ripercuote sul prezzo di mercato dell’azienda e così via.
Riconosco che ci sono ancora sfide significative nel rendere l’IA affidabile e nel riuscire a spiegare le scatole nere di molti algoritmi, ma credo che l’Europa sia davvero all’avanguardia nel rendere le aziende consapevoli e responsabili per garantire che non solo possano trarre benefici e profitti dall’IA, ma che debbano anche proteggere le persone dagli abusi dell’IA.
I sistemi di intelligenza artificiale e la minaccia alle elezioni democratiche
Abbiamo visto per molti anni che i sistemi di intelligenza artificiale possono disturbare il processo democratico delle elezioni. Il caso più eclatante è stato lo scandalo di Cambridge Analytica, che ha coinvolto la raccolta e l’utilizzo non autorizzato di dati personali di milioni di utenti di Facebook a fini politici. Cambridge Analytica ha lavorato per campagne politiche, tra cui la campagna presidenziale statunitense di Donald Trump del 2016, e ha ottenuto e sfruttato le informazioni personali di circa 87 milioni di utenti di Facebook per manipolare l’esito delle elezioni.
Allo stesso modo, la disinformazione generata più di recente dall’IA e dalla tecnologia deepfakes (IA utilizzata per creare immagini, audio e video ingannevoli e convincenti) può anche disturbare il processo democratico delle elezioni. Strumenti sofisticati di IA possono ormai facilitare la manipolazione dei media, in particolare con l’emergere di deepfakes realistici. Nel 2024 si recheranno alle urne diversi Paesi, tra cui Stati Uniti, Regno Unito e Unione Europea, ed è più che probabile che entità malintenzionate tentino di manipolare i risultati. Data l’inadeguatezza degli strumenti di rilevamento esistenti per questo tipo di attacchi, è sempre più necessario che i politici reagiscano in tempo reale per prevenire la diffusione della disinformazione. È inoltre importante interagire con le società di social network, per assicurarsi che continuino a investire nelle capacità di rilevamento e per esaminare l’evoluzione delle strategie di mitigazione delle campagne di disinformazione. Nel complesso, ritengo che quest’anno garantire l’integrità dei processi democratici di fronte alla manipolazione avanzata dell’IA sarà una sfida significativa e crescente per diverse regioni del mondo.
"Siate avidi quando gli altri hanno paura" La grande caratteristica del 2024 è il suo fitto calendario elettorale: quest'anno quasi tre miliardi di persone voteranno in 76 Paesi, tra cui [...]
Geopolitica: ricomposizione asimmetrica 1 - La nebbia delle elezioni americane disturba la visibilità globale È importante comprendere le implicazioni di questa mancanza di visibilità sull'esito delle elezioni americane. Sostenendo di [...]
Bitcoin: l'arma a doppio taglio dell'istituzionalizzazione Come abbiamo già detto nelle nostre raccomandazioni, il riconoscimento da parte degli Stati Uniti della legittimità del Bitcoin attraverso gli ETF sarà un'arma a [...]
Commenti