Una lettera di 150 professori universitari chiede alle istituzioni europee interventi sull’AI Act, il pacchetto di regole che serve a regolamentare le applicazioni di intelligenza artificiale: senza un'adeguata supervisione umana e regole ci sono rischi sui processi e nelle decisioni che riguardano centinaia di milioni di persone. Il nodo chiave è la ‘valutazione d’impatto’. Promotori Gianclaudio Malgieri (Università Leiden), Alessandro Mantero (Politecnico Torino) e Vincenzo Tiani (Ub Brussels Privacy Hub) a cui abbiamo chiesto su cosa, perché e soprattutto come intervenire
di Enzo Argante
Un pacchetto di regole sugli algoritmi in Europa: si chiama AI ACT cos'è esattamente?
Ai Act è la proposta della Commissione Europea presentata ad aprile del 2021 e ora in via di approvazione che prevede quattro livelli di rischio inaccettabile che riguarda i casi in cui AI possa essere usata e costituire una minaccia alla sicurezza e ai diritti fondamentali. I casi previsti sono ad esempio: il riconoscimento biometrico del volto da parte delle forze dell'ordine; il famoso social credit scoring (quello che si è visto in qualche serie tv) e cioè la possibilità di assegnare una sorta di punteggio alle persone e in base a questo riconoscere o meno diritti civili. Questi sono considerati rischi inaccettabili dal regolamento. Pratiche vietate quindi anche se vedremo poi ci sono alcune eccezioni, soprattutto per le forze dell'ordine. Alto rischio quindi quando AI è usata per sistemi biometrici, infrastrutture critiche, accesso all'istruzione, componenti di sicurezza dei prodotti (pensiamo ai sistemi per i freni dei treni o delle automobili che utilizzano l'intelligenza artificiale), l'occupazione e la gestione dei lavoratori su come su come lavorano o sui servizi pubblici essenziali alle frontiere. In ambito giuridico pensiamo al giudice che usa AI per scrivere una sentenza, per decidere se qualcuno è colpevole o innocente. In questi casi si prevedono obblighi di trasparenza o di tracciabilità per informazioni chiare e accuratezza dei dati. Quindi pensiamo ancora a limitare i rischi nell’interazione con le chatbots; alle deepfake di recente tornate agli onori della cronaca e quindi la possibilità di creare un video con diverse fattezze; o anche che qualcuno possa parlare diverse lingue da quelle conosciute. Infine, ci sono i rischi minimi per cui non sono previsti obblighi come, ad esempio, un sistema che verifica se esiste spam nella nostra mail e automaticamente lo mette da parte. In questi casi non sono previsti obblighi.
Quali sono i rischi reali di una AI che vive di luce propria e che non è regolamentata a dovere?
Ci sono rischi di sorveglianza rischi di discriminazione. Ogni volta che c'è l'uso di mezzi di automazione nelle decisioni questo rischio è presente e pensiamo appunto - come abbiamo citato –ai lavoratori e all'uso del riconoscimento biometrico in generale su persone che possono esserediscriminate con decisioni che hanno un impatto sulla loro vita e sui diritti fondamentali senza chese ne rendano conto. Per questo diciamo abbiamo lancio l’appello: per supportare il Parlamentoeuropeo formato dai deputati eletti da cittadini, la Commissione Europea e il Consiglio formatodagli capi di Stato e di governo nel proporre modifiche e individuare un testo comune che diventeràla legge effettiva. Abbiamo bisogno di queste garanzie per evitare diciamo ulteriori rischi con unaAI imprevedibile e quindi l'automazione dei processi e delle decisioni su centinaia di milioni di persone senza un'adeguata supervisione umana.
Nella proposta si introduce il concetto – che è centrale - della ‘valutazione di impatto’ proviamo a spiegare cos’è e come dovrebbe funzionare?
Il concetto di valutazione di impatto sui diritti fondamentali non è presente nel testo originaleelaborato dalla commissione. Al momento non sappiamo se la proposta passerà ed è perquesto che insieme ai professori Gianclaudio Malgieri e Alessandro Mantero abbiamo preparato unalettera rivolta alle tre istituzioni europee che è stata firmata da 150 professori universitari di famainternazionale nel settore della protezione dei dati dell'intelligenza artificiale. Chiediamoche siano diciamo soddisfatti quattro punti: che esistano dei parametri chiari sulla valutazionedell'impatto sui diritti fondamentali e che ci sia trasparenza sui risultati di questa valutazione; checi sia una partecipazione (questo è un punto fondamentale) degli utenti finali interessati. Un'azienda, prima di immettere sul mercato un’applicazione di intelligenza artificiale ad altorischio che possa avere un impatto sui diritti fondamentali, tenga in considerazione questi rischi eapra un tavolo di consultazioni con un'associazione che tutela i consumatori oppure un'autoritàindipendente governativa o un'associazione di categoria. In questo modo ciascuna di questeassociazioni o gruppi di interesse può portare il proprio punto di vista per una valutazione a 360°.
Se tutto va come deve andare, quali sono i tempi e anche soprattutto i modi in cui questa regolamentazione si attuerà nel concreto?
Al momento siamo nella fase del dialogo, il cosiddetto trilogo cioè il momento in cui le treistituzioni cercano un terreno comune. Potrebbe essere approvata fra la fine di quest'anno el'inizio dell'anno prossimo. Quindi prevediamo circa due anni per l'implementazione e lapreparazione. Quindi la pubblicazione sulla Gazzetta Ufficiale dell'Unione Europea. Le aziende avranno due anni per prepararsi…
Se il trilogo non funziona e non raggiunger un accordo in linea con le proposte che succede?
Ci sono diverse possibilità, dipenderà dagli attori in questione. Potremmo avere il caso incui il testo passa comunque con una valutazione di impatto più ammorbidita (ad esempio prevista solo per gli enti pubblici e non per le aziende) oppure potrebbe sparire del tutto com'era il testooriginale. Si potrebbe non arrivare a un accordo entro la prossima primavera e con le elezionieuropee a giugno non riusciamo ad avere un regolamento. I diversi attori del nuovo Parlamentodovrebbero riprendere in mano questo questa proposta. In mancanza di un accordo rischiamo chesia Stati Uniti che Cina ci sorpassino anche dove siamo più forti, cioè nella regolamentazione.
English version here