Piattaforma di informazione sul rapporto digitale fra macchine, persone e sicurezza. 

Tracciare l'Intelligenza Artificiale

Parliamo con Marco Ramilli del progetto di ricerca IdentifAI (IdentifAI.net) del tema del tracciamento dell'IA e dell'autocertificazione.

di Enzo Argante.



E’ possibile tracciare l’Intelligenza Artificiale, i processi dell’intelligenza artificiale? Parliamo con Marco Ramilli del progetto di ricerca IdentifAI. 
Che cosa vuol dire esattamente tracciare intelligenza artificiale?

Grazie Enzo per questa domanda, è possibile, non credo ci sia un’unica soluzione per potere riuscire a identificare e a tracciare ciò che l’intelligenza artificiale oggi produce. E’ una tematica molto complessa e pertanto probabilmente necessita di molti punti di vista. In IdentifAI quello che oggi abbiamo deciso di realizzare è adottare l’intelligenza artificiale antagonista, in altre parole riuscire ad identificare il contenuto di intelligenza artificiale attraverso un’altra intelligenza artificiale e questo oggi è molto importante perché noi oggi impariamo e cambiamo studiando online e guardando immagini e contenuti che i social media, che i giornali, ci fanno ci fanno vedere.

Il processo che tracciabilità quindi parte dalle fonti poi bisognarà seguire fino ai fruitori teoricamente per essere attendibile, è così ?

Allora esistono vari temi sulla tracciabilità. Il primo tema è quello che viene chiamato fact checking ed è un tema un po’ più tradizionale, se vogliamo, cioè quello che si cerca di monitorare la sorgente, e capire se la sorgente effettivamente è reale o non è reale. Ecco, in questo contesto, nel contesto dell’intelligenza artificiale, il fact checking è leggermente differente, qui non stiamo cercando di capire se ciò che è rappresentato è vero oppure no, quindi non stiamo cercando di dare una verità a quello che vediamo, ma stiamo cercando di capire se quello che vediamo è stato generato artificialmente o meno, e faccio un esempio, ci può essere un contenuto generato artificialmente che rappresenta la verità, ci può essere invece un contenuto anche generato da un essere umano, che rappresenta una fake news e quindi che è finto. Ecco, non vogliamo scendere nel dettaglio di ciò che è vero e di ciò che non è vero, ma vogliamo in questo contesto capire se la generazione, la paternità, di quell’immagine, di quel filmato, di quel suono, di di quel video, è un essere umano, oppure se invece la paternità è di fatto un algoritmo di intelligenza artificiale.

Molto chiaro, e si capisce subito il senso. Mi chiedo su questo sarà altrettanto chiaro ed evidente per chi deve decidere… Chi saranno i nemici potenziali di questo processo?

Ecco io credo che il un limite, per esempio della certificazione, dell’autocertificazione, è quello di non aver, almeno secondo il mio principale punto di vista, immaginato chi possano essere gli avversari. Nel momento in cui un avversario non è un diciamo un errore, un’organizzazione, una persona che per errore pubblica una fotografia generata artificialmente, invece magari la dichiara generata da un essere umano, o non la dichiarata per niente, ecco, questo è più un errore e da qui si focalizza principalmente la certificazione. Mentre un reale avversario potrebbe essere qualcuno che ha la volontà di far spacciare un contenuto artificiale per un contenuto reale. Facciamo un esempio: per esempio questo è un anno molto importante perché è un anno di elezioni, tantissimi popoli nel mondo eleggeranno i propri candidati e sappiamo tutti, -abbiamo l’esempio del Papa con il piumino-, che nel momento in cui esce un’immagine, anche se falsa e anche se dichiaratamente falsa, da lì a poche ore, la popolazione, le persone si polarizzano e quindi prendono una decisione e prendono una decisione in base a quello che hanno visto e anche se poi quello che hanno visto non è realmente vero, e anche se viene smentito, ormai la decisione l’hanno presa e quindi continuano su quella su quella strada. Ecco in questo momento l’avversario più temibile potrebbe essere chi vuole manipolare una popolazione, chi vuole manipolare un voto, per esempio, quindi facendo uscire delle storie false coadiuvate da immagini false o da suoni falsi. Oggi un un’immagine o un testo generato da Intelligenza Artificiale, non è comprensibile d’occhio umano, cioè un occhio umano non riesce a distinguere un elemento che è stato generato artificialmente da un elemento generato da un umano. Ecco allora che se si creano delle immagini, dei video dei suoni dei testi sufficientemente credibili per poter screditare qualcuno o per poter raccontare una falsa verità, e poi questi testi queste immagini, questi video, questi suoni, vengono propagati diciamo dei social networks o attraverso dei mezzi di comunicazione ecco allora che quello che succede è che probabilmente molte persone possono essere manipolate, molti lettori, molti usufruitori di quel contenuto possono iniziare a credere qualcosa che magari non è vero, ma diciamo giustificato da un’immagine, un suono, un contenuto che apparentemente sembra vero a un occhio umano, ma che nella realtà non lo è. Ecco allora che è molto importante trovare la paternità. Trovare la paternità, ribadisco, non significa dichiarare ciò che è vero o ciò che è falso, ricreare la paternità significa dare all’utente, a chi osserva quell’immagine, per esempio un’informazione in più: “guarda, stai osservando un’immagine che è stata generata artificialmente". In questo modo l’utente che legge, il fruitore, ha tutte le carte in regola per poter prendere un giudizio, per poter dare un giudizio al contenuto che sta osservando.

Questo processo sembrerebbe decisamente come dire appannaggio del potere pubblico, oppure anche il privato può intervenire?

Io credo che così come ci sono tanti motori di intelligenza artificiale vediamo Open AI, Microsoft ha il suo, Google ha il suo, ce ne sono tanti altri che hanno i propri, basta pensare per esempio Midjourney o Impossible Image, o ce ne sono veramente tanti, dall’altra parte esisteranno tante organizzazioni che avranno i propri modelli di detectors. Io credo che sia un po’ una corsa come la cybersecurity, quindi viene fuori la nuova famiglia di malware, bisogna necessariamente creare la nuova famiglia di detectors, ovvero diciamo le nuove signature che hanno la capacità di identificare quel nuovo malware. Ecco nel mondo dell’Intelligenza Artificiale generativa io credo che sia molto simile. Non esisterà un modello unico capace di identificare tutti i contenuti generati artificialmente, però ne possono esistere tanti ognuno capace di identificare un principale modello generatore. Ecco allora che in questo contesto chi riuscirà a creare la maggior parte dei modelli, probabilmente saranno la maggior parte delle organizzazioni. Questo cosa vuol dire? Che probabilmente esisterà un organo di controllo, ne esisteranno tanti, però esisteranno tante aziende che dovranno controllare le immagini per conto dei privati, questo perché oggi è importantissimo in tutti i contesti, proviamo a pensare alla verifica dell’identità digitale. Oggi la verifica di identità digitale anche per molti istituti bancari avviene online, quindi avviene con una telecamera come stiamo facendo adesso e la persona solleva la carta d’identità un po’ di fianco e da un’altra parte lo riescono ad autenticare ed autorizzare. Proviamo a pensare nel mondo assicurativo: le assicurazioni per danni minori per esempio a determinate soglie, non mandano fisicamente i periti, si affidano alle fotografie che magari il carrozziere o che magari chi ha subito il danno fa. Ecco, se quelle fotografie non sono vere? Magari il danno c’è, ma la fotografia può essere modificata da un punto di vista dell’Intelligenza Artificiale e far sì che il danno risulti molto più grande rispetto a quello che effettivamente è e così via. Ci sono tantissimi, tantissimi esempi, ovviamente nella propaganda, come dicevamo prima, o anche chi nella pubblicità, immaginiamo pubblicità ingannevole e quindi la bella pubblicità di un bel hamburger da mangiare, molto bello e appetitoso, peccato che non esiste quell’hamburger, perché è stato generato da un modello di Intelligenza Artificiale. Ecco i casi sono tantissimi, non ci potrà essere soltanto un’organizzazione capace di effettuare questo tipo di verifiche, quindi credo che ce ne saranno tante e tutte di successo.

Qual è il progetto di ricerca di IdentifAI in una battuta?

IdentifAI nasce proprio con l’obiettivo di individuare l’origine: l’obiettivo è identificare l’origine di un contenuto. È nato circa un anno fa da una mia idea, ho cercato di studiare, fintanto che non ho trovato supporto nell’Università degli Studi di Bologna che mi ha aiutato con il professor Maltoni ad effettuare le prime ricerche, per poi andare in produzione. Oggi di fatto IdentifAI è una piattaforma in beta testing, ci sono alcuni selezionati in questo momento che hanno la possibilità di utilizzarla con l’obiettivo appunto di dare un supporto all’identificazione dell’origine di un contenuto.

 

English version here