Piattaforma di informazione sul rapporto digitale fra macchine, persone e sicurezza. 

Policy Learning

Giovanni Cerulli, dirigente di ricerca presso l'Istituto di Ricerca sulla Crescita Economica Sostenibile del CNR, ci parla di Policy Learning, Intelligenza Artificiale e dati

di Enzo Argante

L’Intelligenza Artificiale è l'argomento fisso degli ordini del giorno un po' in tutti i campi. Non sarà una fase passeggera, vero? Questo è proprio un cambiamento epocale. 

Sì, io ritengo che siamo di fronte a un nuovo paradigma sia scientifico che cognitivo. Nel senso che l'Intelligenza Artificiale, che nasce sostanzialmente negli anni ‘40 con i primi lavori di Turing e forse anche prima, con i lavori di Shannon negli Stati Uniti, sostanzialmente aveva una caratterizzazione logico-matematica, la cosiddetta Intelligenza Artificiale simbolica, che però si è rivelata molto debole nella capacità predittiva. E la capacità predittiva degli algoritmi è il cuore dell'Intelligenza Artificiale perché, anche se noi non ce ne rendiamo conto, ogni qualvolta parliamo, agiamo, facciamo predizioni la nostra mente fa predizioni e, quindi, a partire dagli anni ‘80 tutto l'approccio simbolico è andato profondamente in crisi. È emerso, invece, l'approccio Data driven, il cosiddetto Machine Learning, un approccio, appunto, che basa tutta la sua potenza predittiva sui dati e sulla capacità di alcuni algoritmi specifici di costruire dei mapping, cioè delle associazioni tra caratterizzazioni, features, dei fenomeni e specifici output di riferimento. Per dare un esempio, capire qual è la parola successiva dopo averle pronunciate quattro o cinque di seguito di un certo tipo è un problema predittivo. Quindi, tutte le chatbot, per esempio ChatGPT, si basano sostanzialmente sull'idea di predire sempre la parola successiva dato l'insieme di parole iniziali che vengono fornite come input. È un problema predittivo e, come tale, può essere affrontato in maniera efficace soprattutto quando abbiamo una struttura di dati e degli algoritmi che, appunto, garantiscano questa capacità di creare dei buoni mapping tra le features, in questo caso le parole precedenti, e l'output, la parola successiva.

 

Ecco, cerchiamo di interpretare quello che stai dicendo. Sostanzialmente potrebbe significare che si deve “riconfigurare” il pensiero su basi statistiche, sui dati perché alla fine l'Intelligenza Artificiale quello è, dati? 

Esatto. Diciamo che ci sono stati almeno tre elementi che ci hanno condotto alla situazione in cui siamo adesso, che forse qualche anno fa era impensabile, dello sviluppo dell’Intelligenza Artificiale. Innanzitutto, la capacità computazionale delle nostre macchine, immaginate che nei primi anni ‘70 dentro una CPU c'erano mille transistor, adesso ce ne sono milioni di milioni e ci sono le GPU, che sono ancora più pensate per il calcolo matriciale, quindi per il calcolo algoritmico che sta dietro l'Intelligenza Artificiale. Quello che forse ancora più si è sviluppato, sicuramente anche oltre l'aspetto computazionale, è la teoria statistica sottostante, che ovviamente è stata sviluppata prima che i computer riuscissero poi a elaborare quel tipo di algoritmi. Infine i dati, è sotto gli occhi di tutti che oggi abbiamo dati che crescono enormemente in termini di volume, di varietà e di velocità, le famose tre V dei dati, queste tre dimensioni che si stanno espandendo sempre più e, quindi, una realtà sotto gli occhi di tutti. Oggi possiamo raccogliere dati sostanzialmente su tutto, dall'atmosfera alla mente umana attraverso metodi di scannerizzazione delle onde celebrali, fino, ovviamente, ai sensori o tutti i tipi di dati di natura socio-economica, come nel nostro caso. 

 

Questo può voler dire che si possono esplorare campi impensabili, che non si conoscevano prima, che scopriamo adesso. Si può andare oltre? 

Si può andare oltre e direi che si può andare anche molto oltre rispetto a quello che per ora abbiamo visto. Le faccio un esempio per darle un'idea. Leggere il pensiero. Qualche anno fa qualcuno avrebbe potuto pensare che se uno scienziato diceva “io sono in grado di leggere il pensiero” si stava prendendo gioco di qualcuno. In realtà è quello che oggi potremmo fare. Dico potremmo perché si potrebbero usare modelli addestrati di Machine Learning e, laddove le onde cerebrali vengano associate a degli stati d'animo, per esempio sono felice/non sono felice/sono neutro, si possono costruire dei dataset di addestramento rispetto a queste emozioni connesse alle onde cerebrali. A quel punto si può lavorare a dataset di test e, se una persona entrasse dentro un negozio, per esempio, e ci fosse uno scanner che permette di captare le sue onde cerebrali automaticamente, avremo una probabilità che questo individuo compri o non compri un certo oggetto. Questa non è fantascienza, questo è qualcosa che si può implementare oggi con la tecnologia che abbiamo. Chiaramente ci sono immensi problemi di privacy ed etici sottostanti, che qui non tocco, ma che immagino che possiate comprendere. 

 

Con Policy Learning si entra in un campo politico e sociale. Anche qui, politica va da sé, ma a livello sociale, soprattutto, si può lavorare tanto con i dati. Qual è la vostra proposta?

Io in particolare mi occupo dello sviluppo della piattaforma di Policy Learning, che è assolutamente una grande novità all'interno del panorama di applicazione dell’Intelligenza Artificiale e comunque dei metodi di Machine Learning. Sostanzialmente questo approccio unisce due discipline, che sono, appunto, il Machine Learning e l'Intelligenza Artificiale da una parte, ma anche l'analisi controfattuale, cioè causale, dall'altra, nel senso che il Policy Learning ha come obiettivo principale quello di apprendere l'andamento delle politiche passate per disegnare in modo predittivo e, quindi, più efficace per l'azione politica, le politiche future. Per esempio, la tipica applicazione che facciamo è sui cosiddetti modelli di trattamento, cioè quando un’agenzia pubblica decide di allocare dei fondi su alcuni soggetti, come dare degli incentivi a delle startup, è molto complesso e difficile decidere a chi si danno i soldi. La questione di fondo è: se noi avessimo informazioni sui comportamenti passati della politica e di questi soggetti, oggi potremmo definire chi dovrebbe prendere questi fondi, cioè quei soggetti che possono dare l'effetto maggiore, quindi un incremento di welfare, un incremento di benessere sociale maggiore. Questo è in qualche modo rivoluzionario rispetto al modo in cui le Policy vengono sviluppate ancora oggi. Esattamente del progetto che vedete qui sopra, il FOSSR, c'è proprio una parte tutta dedicata alla costruzione di una piattaforma per il Policy Learning che sarà sostanzialmente una web app libera, Open Source, di cui sostanzialmente le agenzie pubbliche potranno usufruire con i loro dati e facendo simulazioni di scenari di Policy. Parlo di simulazioni, ma in realtà sono dati concreti, sono proiezioni vere, non sono simulazioni intese nel vecchio modo, cioè con parametri un po' inventati. Qui è tutto poggiato sui dati e quindi su quello che è già avvenuto. C’è la possibilità per il Policy Maker di capire, anche basandosi sui suoi propri vincoli monetari, di budget e quant'altro, quali possono essere gli effetti in termini di benessere per la collettività e questo è un avanzamento, a mio modo di vedere, enorme e in Italia siamo veramente all'avanguardia rispetto al resto del mondo.