È trapelata la bozza del regolamento sulla IA (intelligenza artificiale) che la Commissione europea presenterà la prossima settimana.
L’Europa traccia i primi confini di come sarà l’intelligenza artificiale (IA) nel Continente. Ovvero quali devono essere le regole per favorirne uno sviluppo rispettoso dei diritti fondamentali e orientato agli interessi collettivi. Lo si legge nella bozza, trapelata nelle scorse ore, del regolamento sulla IA che la Commissione europea presenterà la prossima settimana.
Due sono i punti chiave. Il primo: alcune tecnologie di IA, considerate pericolosissime, saranno vietate in Europa. E sono quelle per la sorveglianza di massa e quelle usate per manipolare i nostri comportamenti, decisioni e opinioni a nostro danno. Il secondo: ogni azienda dovrà valutare se la propria tecnologia di IA sia ad “alto-rischio”. In questo caso prima di adottarla deve sottoporla a una valutazione dell’impatto che questa tecnologia può avere sulla società, sui diritti delle persone. L’Europa immagina anche super-sanzioni per le aziende che violano i divieti: pagheranno fino al 4 per cento del loro fatturato mondiale. Proprio come quelle previste dalla normativa europea Gdpr sulla privacy, che è stato finora faro mondiale, in Europa e altrove, sulla tutela dei diritti nell’era digitale. Anche il concetto di “valutazione di impatto” è tratto dal Gdpr.
Un divieto alla sorveglianza di massa
La Commissione ha evitato di proporre un divieto sull’uso del riconoscimento facciale con IA nei luoghi pubblici. Qualcosa che pure stava valutando (a quanto risultava da una precedente bozza) e che viene chiesto da molte associazioni per i diritti umani e civili, in Europa e Usa, per i gravi rischi connessi a queste applicazioni di IA. Videocamere con riconoscimento facciale – usata da alcune polizie nel mondo, ad esempio a New York – possono attuare il più grande sistema di sorveglianza di massa nella storia dell’umanità.
Tuttavia, nella bozza “l’identificazione biometrica a distanza” nei luoghi pubblici (con riconoscimento facciale e non solo) richiederà il regime autorizzatorio più forte, tra quelli previsti per le tecnologie “ad alto rischio”. Si legge di “procedure più rigorose di valutazione della conformità attraverso il coinvolgimento di un organismo notificato“. Ovvero una “procedura di autorizzazione che affronta i rischi specifici impliciti nell’uso della tecnologia“. Ciò include una valutazione obbligatoria dell’impatto sulla protezione dei dati.
“Inoltre l’autorità che autorizza dovrebbe considerare nella sua valutazione la probabilità e la gravità del danno causato dalle imprecisioni di un sistema utilizzato per un determinato scopo, in particolare per quanto riguarda l’età, l’etnia, il sesso o le disabilità“, dice la bozza. Quindi, i sistemi di IA “che possono principalmente portare a implicazioni negative per la sicurezza personale” sono anche tenuti a subire questa “procedura più rigorosa“.
L’influenza dei social
Qualcuno qui potrebbe pensare a quanto fanno le big tech, in particolare a mezzo social, con i nostri dati. La lettera della proposta della Commissione non vieta però ogni tipo di profilazione atta a influenzarci, ma solo una influenza dannosa per persone e società.
Per il resto, sta alle aziende valutare se l’applicazione di IA è ad alto rischio. Spiega la Commissione: “La classificazione di un sistema di intelligenza artificiale come ad alto rischio dovrebbe essere basata sulla sua destinazione d’uso, compresi il contesto e le condizioni d’uso specifici“. Così si legge in una nota esplicativa della proposta. Sono escluse dal regolamento le applicazioni militari, un ambito che non rientra nei trattati europei.
L’intelligenza artificiale tra i danni e la prevenzione
Esempi di “danni” associati ai sistemi ad alto rischio di IA sono elencati nella bozza e comprendono: il ferimento o la morte di una persona; danni alla proprietà; impatti negativi sistemici per la società in generale; interruzioni significative della fornitura di servizi essenziali per lo svolgimento ordinario di attività economiche e sociali di importanza critica; l’impatto negativo sulle opportunità finanziarie, educative o professionali delle persone; l’impatto negativo sull’accesso ai servizi pubblici e sui diritti fondamentali.
Tra gli strumenti per prevenire tutto ciò vi sono: sistemi di reclutamento e assunzione personale; sistemi che forniscono l’accesso agli istituti di istruzione o di formazione professionale; servizi di emergenza; valutazione della solvibilità creditizia; i sistemi per l’assegnazione di sussidi pubblici; i sistemi decisionali applicati alla prevenzione, all’individuazione e alla persecuzione del crimine; e i sistemi decisionali utilizzati per assistere i giudici. C’è anche obbligo a riferire “qualsiasi incidente grave o qualsiasi malfunzionamento del sistema IA che costituisce una violazione degli obblighi” a un’autorità di vigilanza entro 15 giorni.
Le proposte della Commissione
La Commissione propone anche per la prima volta il diritto a sapere se si sta interagendo con un umano o un bot (ad esempio quando parliamo con una banca). Ma anche a sapere se quella foto è una persona vera o è generata dall’intelligenza artificiale (deepfake). L’obbligo viene meno nei casi di “sicurezza pubblica o per l’esercizio di un diritto legittimo o della libertà di una persona; come nel caso della satira, della parodia o della libertà delle arti e delle scienze; fatte salve adeguate garanzie per i diritti e le libertà di terzi“.
In cambio e a fronte di tutte queste norme, le imprese conformi potranno mostrare un marchio europeo di qualità connesso all’intelligenza artificiale, ovvero il marchio CE. “Si tratta di un elemento fondamentale della proposta di Regolamento, in quanto consentirà alle aziende di dimostrare più facilmente la conformità dei sistemi di AI che immettono sul mercato; per una piena attuazione di questo sistema di marcatura CE si dovrà però attendere l’adozione di standard appositi da parte degli enti di normazione quali ISO e CEN”, spiega Luca Tosoni esperto privacy e ricercatore all’università di Oslo.
Aggiunge Marco Martorana, avvocato specializzato in privacy e digitale: “L’Europa sta seguendo la direzione di una legislazione umano centrica fondata su principi etici condivisi, per far sì che le persone possano sfruttare al meglio i benefici dell’intelligenza artificiale senza diventarne vittime, in particolar modo disciplinando le tecnologie di IA cosiddette “ad alto rischio“.
Quindi, lo scopo ultimo del regolamento e della strategia europea sull’IA, del resto, non è solo la tutela dei diritti ma anche lo sviluppo positivo dell’innovazione, con benefici collettivi.