Piattaforma di informazione sul rapporto digitale fra macchine, persone e sicurezza. 

Più etica e filosofia nell'AI

Enrico Panai, eticista, Università Cattolica di Milano, racconta cosa vuol dire (e cosa non vuol dire) essere un'eticista e quali sono i nuovi confini del digitale

di Enzo Argante

Enrico Panai, eticista, Università Cattolica di Milano. La prima domanda non può che essere: definiamo la figura dell'eticista professionista. 

Quello che faccio di mestiere si può definire in due modi. Il primo è cosa sia l'eticista e il secondo è cosa non sia l’eticista. Iniziamo dal primo. Cosa è generalmente l'eticista? Secondo quello che facciamo quotidianamente con le aziende, è quella persona che cerca di creare l'ambiente nel quale il ragionamento etico possa svilupparsi e questo è uno dei suoi obiettivi fondamentali. Nella mia pratica cerco di fare in modo che tutte le azioni tecnologiche che intervengono nelle aziende non tolgano tempo agli utilizzatori delle tecnologie che vengono immesse nel mercato, ma questo è il mio personale approccio. Invece, cosa non è l'eticista? Non è la persona che dà giudizi, non è la persona che sceglie cosa sia giusto o sbagliato, non è la persona che prende una posizione politica. Questo non perché la politica non sia importante, è fondamentale, ma perché nella professione dell'eticista noi dobbiamo avere una certa neutralità per poter aiutare le aziende a prendere le giuste decisioni etiche in rapporto alle tecnologie che devono mettere sul mercato. 

Quindi come si applicano queste teorie, queste competenze, per esempio, nel mondo dell'Intelligenza Artificiale? 

Nell'etica che io pratico, che è l'etica dell'informazione che serve a dare forma a tutte le tecnologie del digitale in generale, si lavora sulla, per esempio, locazione della responsabilità nei processi di produzione. Con l'Intelligenza Artificiale il processo di allocazione della responsabilità è diventato più complesso perché, mentre prima la responsabilità era solamente degli sviluppatori di un software, per esempio, in questo momento la responsabilità può essere di sistemi che a volte sono complessi. Con questo non voglio dire che un sistema di Intelligenza Artificiale ha della responsabilità, ma ha la capacità di agire e, quindi, la locazione della responsabilità è più complessa ed è per questo che la figura degli eticisti dell’Intelligenza Artificiale è diventata più importante nel mercato. Solamente negli ultimi anni ci occupiamo di vari livelli di etica all'interno dell'azienda, che vanno dalla governance ad alto livello fino a un livello di granularità molto fine che si occupa della costruzione del design dei sistemi ideali, per cui esistono scelte etiche e ragionamenti etici che vengono fatti a livello della collezione dei dati, della conservazione dei dati, dell'analisi dei dati, di come modelli di aerei vengono creati e quali tipi di impatto hanno sulle persone o su gruppi di persone o sull'intera società. 

Abbiamo visto nel percorso studi all’Ecole Militaire di Parigi. Un'esperienza importante, premonitrice oppure è proprio, come dire, verticale sui temi della sicurezza di oggi? 

Ho quello che un tempo veniva chiamato un percorso atipico. Ho studiato filosofia e moltissima tecnologia da giovane. Diciamo che sono entrato all'università a studiare filosofia già con una forte propensione al coding, allo sviluppo e all’hacking, quindi il digitale è sempre stato un aspetto importante nella mia vita di studi e professionale. Ho studiato filosofia all'inizio degli anni ‘90, quando il digitale si stava ancora democratizzando, però l'approccio filosofico al digitale era per me importante perché vedevo questa trasformazione. Come dice qualcuno, in un mondo che vive di digitale si può morire di digitale, quindi non si può immaginare di fare niente nel mondo digitale se prima non c'è una base di sicurezza fortissima. Qualche anno fa ho avuto - io vivo in Francia da quasi 18 anni - l'occasione di fare un corso di specializzazione alla scuola militare di Parigi su un programma che era stato finanziato dal Primo Ministro e che prevedeva la costruzione delle competenze di base per la popolazione sulla cybersecurity. In realtà nel nostro corso venivano formati decisori delle grandi aziende francesi sui livelli della cybersecurity in maniera che noi potessimo poi divulgare le competenze e a quel livello per me è stato molto importante avere una visione d'insieme dell'approccio alla cyber sicurezza, in particolare in Francia, dove gli investimenti sulla cyber sono stati molto importanti e quando poi l'Intelligenza Artificiale è diventata ancora più importante, perché in realtà si studiava nel settore già da anni, però, come dire, democratizzata, in quel caso sono democratizzati anche i rischi legati alla cybersecurity, perché i sistemi di Intelligenza Artificiale permettono di creare dei sistemi di attacco più complessi. 

Fra i temi di studio anche il tema della cyber geografia. Quali sono i nuovi confini disegnati dal digitale in questo senso e i pericoli che incombono? 

È molto interessante il passaggio dalla cybersecurity alla cyber geografia perché in realtà il mondo digitale ha bisogno di metafore che servano a rappresentare il virtuale. Non si può rappresentare il virtuale con una cartina geografica, anche se chiunque abbia studiato le prossime proiezioni geografiche sa che anche la scelta di una proiezione geografica ha un impatto sull'interpretazione di una carta, per cui anche lì ci sono grandi problemi etici e di comunicazione. Ma sul mondo digitale, se non si riesce a disegnare una cartografia non si riescono nemmeno a capire quali sono le zone che bisogna proteggere nello spazio virtuale. Quindi, ed è stata l'ispirazione, è stata la scuola di Parigi, ho portato avanti degli studi sulla cyber geografia proprio per creare nuovi modelli per disegnare cartografie che potessero essere utilizzate per difendere gli spazi virtuali. E oggi quello che manca non sono le tecnologie per difenderci, ma sono le maniere di pensare il digitale o di disegnarlo che sono adatte al nostro tempo. Purtroppo a volte usiamo metafore e paradigmi del passato per analizzare e comprendere il digitale e questo è fuorviante per trovare delle soluzioni, quindi c'è ancora tanta strada da fare per migliorare il nostro mondo digitale.