Questo sito utilizza cookie tecnici e di profilazione, anche di terze parti. Cliccando su “Accetta”, proseguendo la navigazione, accedendo ad un’area del sito o selezionando un qualunque suo elemento, acconsenti all’uso dei cookie.

Accetta

Navigazione contenuti

Contenuti del sito

SOLARIS: UN PROGETTO EUROPEO PER COMBATTERE I DEEPFAKE E PRESERVARE LA DEMOCRAZIA

Immagine dell'articolo

Il fenomeno dei deepfake, o contenuti audio e video manipolati tramite intelligenza artificiale, sta mettendo in crisi la nostra percezione della realtà e la fiducia nella nostra informazione. Recentemente, figure pubbliche come Mara Venier, Elon Musk, Michal Šimeckae e Keir Starmer sono diventate vittime inconsapevoli di questi falsi, evidenziando le minacce che i deepfake possono rappresentare per la democrazia e l'informazione.

 

Un progetto europeo di ricerca chiamato Solaris, al quale partecipa anche ANSA, sta cercando di affrontare questa sfida complessa. Solaris mira a studiare l'impatto delle IA generative, come i deepfake, sull'informazione, la politica e la democrazia. In particolare, il progetto si propone di definire metodi e strategie per gestire i rischi e le opportunità che le intelligenze artificiali generative portano alla democrazia e all'engagement politico.

 

Secondo Piercosma Bisconti, co-fondatore di DEXAI - Artificial Ethics e ricercatore in etica dell'AI, il problema dei deepfake non può essere risolto solo attraverso l'affidabilità tecnologica. È necessario considerare i deepfake come un fenomeno sociale da regolare, anziché come un problema squisitamente tecnologico. Solaris mira a farlo attraverso un'approccio multidisciplinare che comprende non solo l'analisi tecnica dei deepfake ma anche l'analisi del comportamento umano e delle dinamiche sociali.

 

Il progetto Solaris si divide in due fasi principali: la prima fase si concentra su come gli utenti interagiscono con i contenuti generati, cercando di capire in quali condizioni un utente si fida di un contenuto. Questo aiuta a identificare gli aspetti che rendono un deepfake credibile o sospetto, come le fonti, l'inquadratura, la qualità dell'immagine e altri elementi.

 

La seconda fase, forse ancora più cruciale, è dedicata a comprendere come reagire in caso di diffusione virale di un deepfake dannoso. Questa fase si concentra sul comportamento dei decision maker all'interno della catena socio-tecnica, dall'informazione all'effetto politico. Bisconti dà l'esempio di un deepfake che annuncia un'invasione statale, sottolineando che il problema non è solo riconoscere il deepfake ma anche gestire gli effetti del danno già fatto.

 

Solaris mira a sviluppare una metodologia politologica per gestire gli effetti dei deepfake, identificando le catene di effetti e le azioni da intraprendere. Questo processo potrebbe coinvolgere diverse autorità e istituzioni, con un protocollo ben definito per fermare la diffusione e limitare i danni.

 

In definitiva, il progetto Solaris è un passo importante verso la comprensione e la gestione dei deepfake. Affrontare il problema richiede un approccio olistico che non si limiti alla tecnologia ma che tenga conto degli aspetti sociali e politici. Solo così possiamo preservare la democrazia e mantenere la fiducia nell'informazione e nella realtà che ci circonda.

23/10/2023

Inserisci un commento

Nessun commento presente

Ultimissime

24 APR 2025

L’ADDIO A PAPA FRANCESCO: FEDELI IN FILA PER L’ULTIMO SALUTO

A San Pietro anche i grandi della Terra

24 APR 2025

25 APRILE, TRA MEMORIA E LUTTO NAZIONALE

Una Festa della Liberazione in tono sobrio

23 APR 2025

TERREMOTO A ISTANBUL, PAURA NELLA MEGALOPOLI SUL BOSFORO

Scossa di magnitudo 6.2

23 APR 2025

PIAZZA SAN PIETRO SI RIEMPIE DI FEDELI

L’ultimo abbraccio a Papa Francesco

23 APR 2025

L’ULTIMO SALUTO A PAPA FRANCESCO

Il mondo si raccoglie in preghiera

18 APR 2025

SANITÀ, 2025 ANNO RECORD PER I NUOVI FARMACI

In arrivo 112 autorizzazioni Ema, il 31% sono antitumorali