AI Act, l’UE scrive la prima normativa al mondo

Questa settimana il Parlamento Europeo ha approvato a larghissima maggioranza la propria posizione in vista delle negoziazioni dell’AI Act. Il testo verrà ora negoziato con il Consiglio e gli Stati membri, prima di giungere all’approvazione definitiva. L’entrata nella fase finale del processo di approvazione – si valuta che il tutto sarà concluso nel 2025 – prevede dunque le trattative tra Parlamento e Consiglio, con la mediazione della Commissione, la quale aveva lavorato al primo testo. Il testo approvato oggi, che mantiene il risk-based approach, introduce alcuni rilevanti divieti in tema di identificazione e categorizzazione biometrica, riconoscimento delle emozioni e scraping di dati biometrici. Sull’AI Act già ci eravamo occupati del suo iter trattando del DSA: altra normativa europea nata da pochissimo che vincola le piattaforme digitali, motori di ricerca, social media, e-commerce, marketplace operanti nei settori dei viaggi, del cloud e dell’ospitalità, a rivelare i propri algoritmi.  In questo e in altri articoli tracciavamo proprio il quadro normativo europeo sulle startup. Una normativa che ha già individuato una lista di 19 aziende, quella del Digital Services Act, le quali, se non si “metteranno in regola” entro agosto, saranno soggette a multe e divieto di operare nell’UE. A tal proposito la prossima settimana il commissario europeo Thierry Breton visiterà San Francisco per effettuare uno stress test di Twitter, verificando se l’azienda è conforme al Digital Services Act. Secondo un comunicato stampa, Breton dovrebbe incontrare il proprietario di Twitter Elon Musk, il CEO di Meta Mark Zuckerberg, il CEO di Nvidia Jensen Huang e Sam Altman CEO di OpenAI. E ieri con 499 voti a favore 28 contrari e 93 astenuti l’Europa ha approvato la prima normativa al mondo sull’intelligenza artificiale: l’AI Act.

Cosa prevede

Nell’aprile 2021, la Commissione europea ha proposto il primo quadro normativo dell’UE per l’AI. Secondo il documento, i sistemi di AI che possono essere utilizzati in diverse applicazioni vengono analizzati e classificati in base al rischio che comportano per gli utenti. Secondo la legislazione proposta, le tecnologie di AI sarebbero classificate in 4 diverse categorie di rischio, da Limited risk (minimo) all’ Unacceptable risk (inaccettabile):

Unacceptable risk

Tali tecnologie, considerate una minaccia per le persone, saranno vietate. Esse comprendono:

  • Manipolazione cognitiva comportamentale di persone o di specifici gruppi vulnerabili: per esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini.
  • Social scoring: classificazione delle persone in base al comportamento, allo status socio-economico o alle caratteristiche personali.
  • Sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale. Possono essere ammesse alcune eccezioni: per esempio, i sistemi di identificazione biometrica remota “post”, in cui l’identificazione avviene dopo un ritardo significativo, saranno consentiti per perseguire reati gravi, ma solo dopo l’approvazione del tribunale.

High risk

in settori come l’assistenza sanitaria, l’istruzione o le infrastrutture critiche, tali tecnologie sarebbero strettamente regolamentate. Tutti i sistemi di AI ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita. I sistemi di AI che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie: 1) sistemi di AI utilizzati in prodotti che rientrano nella legislazione dell’UE sulla sicurezza dei prodotti. Si tratta di giocattoli, aviazione, automobili, dispositivi medici e ascensori. 2) sistemi di AI che rientrano in otto aree specifiche e che dovranno essere registrati in un database dell’UE: – identificazione biometrica e categorizzazione delle persone fisiche – gestione e funzionamento di infrastrutture critiche – istruzione e formazione professionale – occupazione, gestione dei lavoratori e accesso al lavoro autonomo – accesso e fruizione di servizi essenziali privati e pubblici e benefit – applicazione della legge – gestione della migrazione, dell’asilo e del controllo delle frontiere – assistenza nell’interpretazione giuridica e nell’applicazione della legge.

Generative AI

I sistemi di AI generativa, come i chatbot o i generatori di immagini, dovrebbero rispettare ulteriori requisiti di trasparenza:

  • rivelare che il contenuto è stato generato dall’AI
  • progettare il modello per evitare che generi contenuti illegali
  • pubblicare sintesi dei dati protetti da copyright utilizzati per il training

Limited risk

Tali sistemi dovrebbero soddisfare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può decidere se continuare a utilizzarle. Gli utenti devono essere informati quando interagiscono con l’AI. Ciò include i sistemi di AI che generano o manipolano contenuti di immagini, audio o video, per esempio i deepfake.

ChatGPT

Il disegno di legge tocca proprio il boom dell’AI generativa, fornendo nuovi obblighi per applicazioni come ChatGPT, creator di testi o immagini, spesso dal “tocco umano”. In tal caso, come descritto nel paragrafo precedente, oltre all’obbligo delle aziende di etichettare i contenuti generati dall’AI per evitare che questa venga abusata per diffondere falsità, il testo prevede che le medesime aziende pubblichino una sintesi di dati protetti da copyright utilizzati per addestrare i loro strumenti, rispondendo così alle preoccupazioni degli editori che temono che le aziende traggano profitto dai materiali prelevati dai loro siti web. Il caso di ChatGpt ha fatto ormai scuola: non si era mai visto un utilizzo di massa a cascata di una nuova tecnologia: solo 5 giorni sono bastati per arrivare a un milione di utenti. Ed è stato proprio questo utilizzo tanto repentino che massivo a destare preoccupazioni e allarmismi, come la paura di maggiore disinformazione e fake news o dell’aumento della disoccupazione. In parte, per la tanta ignoranza dilagante sull’AI. L’AI Act farebbe così tremare la stessa OpenAI, tanto che il produttore di ChatGPT ha dichiarato che potrebbe essere costretto a ritirarsi dall’Europa, a seconda di ciò che verrà incluso nel testo finale. E infatti secondo il Washington Post l’AI Act mette l’Europa “in rotta di collisione con i giganti tecnologici americani che stanno investendo miliardi di dollari nella nascente tecnologia”. Ma allo stesso tempo la testata statunitense dichiara che “il voto consolida la posizione dell’Unione Europea come leader globale di fatto in materia di regolamentazione tecnologica, mentre altri governi – tra cui il Congresso degli Stati Uniti – stanno appena iniziando a confrontarsi con la minaccia rappresentata dall’IA”. Da un post del Parlamento europeo di Linkedin si legge in tutta risposta che “L’intelligenza artificiale ha pro e contro, ma una cosa è certa: l’AI è qui per rimanere. Il Parlamento è pronto a negoziare l’AI Act, la prima legge al mondo sull’AI, per garantire che l’Europa possa continuare a innovare proteggendo al contempo le persone”.

Innovazione o Regolamentazione

La nuova proposta di regolamentazione distingue tra i foundation model e i general purpose AI system. I primi sono sistemi di AI che utilizzano innumerevoli dati, tecnologia progettata per fornire risultati adattati anche a specifiche attività (esempio GPT4). I secondi, general purpose AI system, sono sistemi adatti per diversi contesti applicativi per i quali non sono stati specificatamente progettati. Per esempio quei sistemi di AI che svolgono il riconoscimento di testo e immagini, usati in contesti differenti. L’impressione suscitata dalla maggior parte delle bacheche social è il fare una scelta tra regolamentazione o innovazione. Quanto di più sbagliato. I foundation model hanno realizzato un nuovo ecosistema di innovazione, un’alternativa ad alcune applicazioni del passato producendo benefici economici e sociali: pensiamo alla generazione automatica di codice o alla progettazione di nuovi materiali e farmaci. E come ogni innovazione tecnologica che si rispetti, prima o poi darà un taglio netto col passato. Ma già siamo stati testimoni dell’effetto di novità tecnologiche entrate da un giorno all’altro nelle nostre vite, cambiandole del tutto: lo smartphone o i social network. E quale è stato l’effetto? Non c’è stata ancora una regolamentazione tale come quella che si sta prospettando con l’AI Act, eppure oggi abbiamo innumerevoli studi e pubblicazioni scientifiche sugli effetti negativi del loro utilizzo, i cui danni si sarebbero potuti limitare e i cui dati si sarebbero potuti raccogliere meglio se solo ci fossero state norme adeguate sin dall’inizio. Ma l’altro rischio tanto temuto è quello economico e geopolitico: i player dell’AI sono pochi (OpenAI, Google, Meta, NVIDIA, Amazon, Microsoft, DeepMind), americani o inglesi, con capitali smisurati (il training di Chatgpt è di 12 milioni di dollari con investimento iniziale di 800 milioni e costo giornaliero di elettricità di 50 mila dollari). Quindi, qualora fosse adottato il disegno di legge, tali norme influenzeranno i politici di tutto il mondo, introducendo standard che potrebbero ricadere su tutti i consumatori, dato che le aziende sposteranno le loro pratiche a livello internazionale per evitare il puzzle di politiche, come finora hanno sempre fatto. Ed è un fatto quello che ha visto la premier italiana, Giorgia Meloni, incontrare Elon Musk, twittando l’incontro. Come la si voglia vedere e prendere (posizione), la mossa dell’Ue prima di tutto è una dimostrazione di democrazia, della sua difesa, e di quella dei propri Stati membri e loro cittadini. Questo sembra emergere dai punti chiavi dell’AI Act: la loro tutela e la loro sicurezza, quello che ogni buon organo, organismo, istituzione e figura politica dovrebbe proporsi, promettere e rispettare e far rispettare. (Foto di Antoine Schibler su Unsplash )

© RIPRODUZIONE RISERVATA

    Iscriviti alla newsletter