Europa digitale, ora la legge sull’Ai è arrivata, ma chi controlla?

di Daniele Manca e Roberto Viola

Per chi pensava che la prima legge omnicomprensiva sull’intelligenza artificiale varata dall’Europa fossero «solo regole» la cui implementazione sarebbe di là da venire, ha dovuto ricredersi. Il 24 gennaio è stato varato un pacchetto di misure a supporto di startup e piccole e medie imprese per lo sviluppo di un’intelligenza artificiale affidabile. E basata sui valori dell’Europa. È bastato un altro mese e il 21 febbraio è entrato in funzione L’Ufficio europeo per l’intelligenza artificiale (Eaio). Una sorta di braccio operativo e fattuale di quanto fatto sinora a livello di «frame» legislativo per quella che si configura sempre più come una tecnologia capace di trasformare non solo il mondo degli affari e dell’economia ma anche della convivenza civile.

Il cammino e il prossimo passo: la governance

Era stata la Presidente della Commissione Ursula von der Leyen con il suo discorso sullo Stato dell’Unione il 15 settembre dello scorso anno a far intuire che sull’Intelligenza artificiale non si giocava solo una partita tecnologica o economica. E a far prevedere che ci sarebbero stati atti concreti a seguire. Si sono aperti a startup e piccole e medie imprese i supercomputer europei: l’italiano Leonardo, il finlandese Lumi e lo spagnolo Mare Nostrum. E poi, in un crescendo di iniziative ma anche concreti finanziamenti, si è arrivati al varo dell’ufficio europeo per l’Ai. Il 13 Marzo a larghissima maggioranza il Parlamento Europeo ha approvato in prima lettura la legge europea dell’intelligenza artificiale, la prima legge al mondo sull’Ai. Un supporto così bipartisan riflette la grande aspettativa di tutta la società civile che con l’Ai non si finisca in un Far west senza regole come accaduto per trent’anni sul web. Fatte le regole il prossimo passo è costruire un sistema di governance che le faccia rispettare, perché questa è un’altra cosa sulla quale c’è anche accordo unanime: la vera prova del nove sarà la capacità dell’Europa di far rispettare le regole che si è data. 

Vigilanza «decentralizzata»

L’importanza della posta in gioco ha portato alla definizione di un modello governance innovativo rispetto al sistema classico basato su una vigilanza solo a livello centrale; ovvero, una vigilanza completamente decentralizzata su un modello a due livelli: un Ufficio per l’intelligenza artificiale all’interno della Commissione Ue (European AI Office – Eaio) e una rete di organismi nazionali di certificazione e controllo. L’Eaio si occuperà contemporaneamente sia dello sviluppo dell’intelligenza artificiale ma anche dei rischi potenziali legati a questa tecnologia.
Sarà questo nuovo ufficio a fare in modo che la legge sull’intelligenza artificiale venga applicata coerentemente in tutti gli Stati membri. Non è un caso che alla base della sua formazione sia prevista la collaborazione con i Paesi dell’Unione e con gli esperti che partecipano allo sviluppo dell’Ai. L’Eaio opererà a Bruxelles all’interno della Direzione Generale che si occupa del digitale nella Commissione europea. Sarà composto da funzionari ed esperti provenienti da tutta l’Unione europea: sono già stati pubblicati i primi bandi per arrivare ad un ufficio pienamente operativo nel corso dell’anno. L’ufficio verrà assistito da un comitato scientifico di altissimo livello che opererà in condizioni di piena indipendenza. Non si tratta di aver individuato e costituito un nuovo sceriffo la cui competenza dovrà essere al passo con l’avanzata tecnologica.

La sorveglianza sui contenuti artificiali

Al contrario, l’esigenza di una nuova struttura nasce dalla necessità di promuovere lo sviluppo dell’intelligenza artificiale come mezzo di sviluppo per l’Europa e per i 27 Paesi. Abbiamo parlato nelle puntate precedenti del 5 e del 12 febbraio delle fabbriche dell’Ai e del programma per lo sviluppo dell’intelligenza generativa made in Europe: «GenAI4EU».
Quando si parla di AI e di nuovi modelli generativi non si sta trattando di un semplice allargamento di tecnologie preesistenti. Il salto tecnologico richiede anche un salto di innovazione che possa combinare vigilanza e sviluppo. All’Ufficio sono attribuite le competenze relative alla vigilanza sulla sicurezza dei grandi modelli di IA quelli.
Si tratta di quei modelli basati su un numero altissimo di parametri (dell’ordine dei trilioni) come quelli dell’Ai generativa quali Gpt o Gemini per esempio. In particolare, l’Ufficio si occuperà del monitoraggio di questi modelli per valutarne la conformità con gli obblighi previsti dal Regolamento, ma altresì per prevenire l’emergere di rischi cosiddetti sistemici dei modelli più potenti che potrebbero — a causa di un uso improprio o anche semplicemente delle loro eccezionali capacità insite in una complessità tale da poter nascondere fragilità non totalmente conosciute agli stessi sviluppatori — dare origine a incidenti o effetti negativi con un impatto potenzialmente molto grave per i settori economici, la salute, la sicurezza, o i processi democratici. Fra i compiti dell’ufficio ci sarà quello di far rispettare l’obbligo che i contenuti artificialmente generati come i deep fake siano riconoscibili sia dall’utente che dai sistemi automatici di classificazione e ranking dei contenuti quali i motori di ricerca (chiamato waterkmarking).

Gli sviluppatori dei grandi algoritmi dovranno rispettare il diritto d’autore e in particolare il diritto di opzione dei creatori, scrittori ed editori di far sì che le loro opere non siano utilizzate per l’addestramento degli algoritmi Ai. Gli standard di conoscibilità sui dati utilizzati per l’addestramento degli algoritmi saranno affidati all’Ufficio che dovrà stabilirli contemperando gli interessi in gioco. Il nuovo Ufficio dell’Ue promuoverà codici di autoregolamentazione ma avrà il anche mandato di indagare su eventuali violazioni delle norme, raccogliendo reclami e segnalazioni, inviando richieste di accesso a dati e documenti, conducendo valutazioni con il supporto scientifico degli esperti indipendenti. L’Eaio lavorerà con le Autorità nazionali che si occuperanno della certificazione e controllo dei sistemi basati sull’Ai che sono considerati ad alto rischio (i dispositivi medici per esempio).

Le responsabilità degli Stati Membri

Questo è il modello a due livelli: le competenze a monte sugli algoritmi sono dell’Eaio mentre quelle a valle sui prodotti e sistemi immessi sul mercato sono nella responsabilità degli Stati Membri. Ovviamente vale il meccanismo di libera circolazione del Mercato Interno Ue: la conformità ottenuta a livello nazionale sarà valida in tutta la Ue. È della scorsa settimana l’annuncio da parte del Governo che l’Italia si doterà delle strutture necessarie per svolgere al meglio questo compito. Ma c’è qualcosa di più. Non semplicemente compiti di applicazioni — ci si lasci dire — burocratica delle norme, ma attraverso l’implementazione delle stesse anche una sorta di supervisione su quanto accade sul campo. Un raro, se non unico esempio, di leggi combinate con l’attenzione a quanto la tecnologia produce, sia in termini di potenzialità ma anche di rischi altrettanto potenziali. Una struttura figlia del portato «trasformativo» appunto della tecnologia.
Si tratterà quindi di «sviluppare strumenti, metodologie e benchmark per valutare le capacità e la portata dei modelli di IA di carattere generale e classificare i modelli con rischi sistemici». Anche perché all’Eaio è stato dato anche il compito di avviare opportune azioni correttive. Azioni che possono configurarsi anche sotto la forma di sanzioni.

La sicurezza dei cittadini

Il Commissario Europeo al digitale Thierry Breton, operando una sintesi efficace sull’equilibrio necessario fra regole e cambiamento positivo, ha commentato dopo il voto del 13 Marzo sull’Ai act che la Ue regolerà solo il minimo per favorire innovazione ma al tempo stesso regolerà tutto quello che sarà necessario per garantire la sicurezza ed i diritti dei cittadini. Sarà decisiva non solo la collaborazione all’interno dell’Europa ma anche quella con altre aree economiche che possano permettere l’individuazione di buone pratiche a livello continentale ma anche internazionale. La riunione dei Ministri del G7 svoltasi la scorsa settimana sotto l’egida della presidenza dell’Italia si è occupata di anche di questo. I confini, quando si parla di intelligenza artificiale, tendono a diventare indistinti. E questo rende la combinazione di competenza e valori come quelli europei ancora più decisiva.

Iscriviti alle newsletter di L'Economia

Whatever it Takes di Federico Fubini
Le sfide per l’economia e i mercati in un mondo instabile

Europe Matters di Francesca Basso e Viviana Mazza
L’Europa, gli Stati Uniti e l’Italia che contano, con le innovazioni e le decisioni importanti, ma anche le piccole storie di rilievo

One More Thing di Massimo Sideri
Dal mondo della scienza e dell’innovazione tecnologica le notizie che ci cambiano la vita (più di quanto crediamo)

E non dimenticare le newsletter
L'Economia Opinioni e L'Economia Ore 18

19 marzo 2024