Il fenomeno dei deepfake, o contenuti audio e video manipolati tramite intelligenza artificiale, sta mettendo in crisi la nostra percezione della realtà e la fiducia nella nostra informazione. Recentemente, figure pubbliche come Mara Venier, Elon Musk, Michal Šimeckae e Keir Starmer sono diventate vittime inconsapevoli di questi falsi, evidenziando le minacce che i deepfake possono rappresentare per la democrazia e l'informazione.
Un progetto europeo di ricerca chiamato Solaris, al quale partecipa anche ANSA, sta cercando di affrontare questa sfida complessa. Solaris mira a studiare l'impatto delle IA generative, come i deepfake, sull'informazione, la politica e la democrazia. In particolare, il progetto si propone di definire metodi e strategie per gestire i rischi e le opportunità che le intelligenze artificiali generative portano alla democrazia e all'engagement politico.
Secondo Piercosma Bisconti, co-fondatore di DEXAI - Artificial Ethics e ricercatore in etica dell'AI, il problema dei deepfake non può essere risolto solo attraverso l'affidabilità tecnologica. È necessario considerare i deepfake come un fenomeno sociale da regolare, anziché come un problema squisitamente tecnologico. Solaris mira a farlo attraverso un'approccio multidisciplinare che comprende non solo l'analisi tecnica dei deepfake ma anche l'analisi del comportamento umano e delle dinamiche sociali.
Il progetto Solaris si divide in due fasi principali: la prima fase si concentra su come gli utenti interagiscono con i contenuti generati, cercando di capire in quali condizioni un utente si fida di un contenuto. Questo aiuta a identificare gli aspetti che rendono un deepfake credibile o sospetto, come le fonti, l'inquadratura, la qualità dell'immagine e altri elementi.
La seconda fase, forse ancora più cruciale, è dedicata a comprendere come reagire in caso di diffusione virale di un deepfake dannoso. Questa fase si concentra sul comportamento dei decision maker all'interno della catena socio-tecnica, dall'informazione all'effetto politico. Bisconti dà l'esempio di un deepfake che annuncia un'invasione statale, sottolineando che il problema non è solo riconoscere il deepfake ma anche gestire gli effetti del danno già fatto.
Solaris mira a sviluppare una metodologia politologica per gestire gli effetti dei deepfake, identificando le catene di effetti e le azioni da intraprendere. Questo processo potrebbe coinvolgere diverse autorità e istituzioni, con un protocollo ben definito per fermare la diffusione e limitare i danni.
In definitiva, il progetto Solaris è un passo importante verso la comprensione e la gestione dei deepfake. Affrontare il problema richiede un approccio olistico che non si limiti alla tecnologia ma che tenga conto degli aspetti sociali e politici. Solo così possiamo preservare la democrazia e mantenere la fiducia nell'informazione e nella realtà che ci circonda.
23/10/2023
Inserisci un commento