Deepfake fuori controllo, esperti e accademici invocano nuove regole

Una lettera firmata da centinaia di informatici, imprenditori, ricercatori e accademici chiede nuove leggi per arginare i rischi e sanzionare gli abusi dell’AI generativa.

(Immagine generata dall'AI)

L’intelligenza artificiale generativa continua a innescare il dibattito: centinaia di informatici, imprenditori tecnologici, ricercatori e accademici, attori e politici si uniscono in un appello alle istituzioni per contrastare i rischi dei deepfake. Tra i firmatari anche ricercatori di OpenAI, Google e DeepMind. Sebbene il fenomeno sia nato anni fa, solo di recente è andato fuori controllo, con l’esplosione di popolarità e di disponibilità di applicazioni di GenAI (la più eclatante, forse, è l'app di text-to-video a cui sta lavorando OpenAI). Secondo le statistiche di Home Security Heroes, il numero di deepfake in circolazione su scala globale tra il 2019 e il 2023 è cresciuto del 550%. 

La creazione di immagini, video e contenuti audio sintentici, sempre più realistici, è ormai alla portata di tutti o quasi e si presta ad abusi e utilizzi malevoli, tra cui disinformazione, diffamazione, pedopornografia, e ancora violazioni di copyright e di diritti d’immagine, anche perché spesso la natura artificiale di questi contenuti non viene apertamente segnalata. Mancano, inoltre, chiare regole e sanzioni per i trasgressori.

Per questo in una lettera aperta titolata “Smantellare la supply chain dei deepfake” più di 400 addetti ai lavori dell’informatica e del mondo accademico invocano la definizione di tali regole. “I deepfake sono una minaccia crescente per la società, e i governi dovrebbero imporre degli obblighi lungo la supply chain, per fermare la loro proliferazione”, si legge. E si è venuto a creare un vuoto legislativo perché “le attuali leggi non affrontano né limitano adeguatamente la produzione e diffusione di deepfake”. Non aiuta il fatto che spesso gli autori siano minorenni e dunque sfuggano ad alcune sanzioni.

La soluzione è considerare responsabili tutti coloro che agiscono nella “catena di fornitura dei deepfake”. Nella lettera vengono avanzate tre richieste: criminalizzare completamente la pedopornografia basata su deepfake, a prescindere dal fatto che quelli rappresentati in tali contenuti non siano persone reali; stabilire delle sanzioni penali per chiunque consapevolmente crei o faccia circolare deepfake dannosi; obbligare gli sviluppatori e i distributori di software a predisporre meccanismi preventivi, che impediscano di generare contenuti audio o video dannosi. “Se progettate saggiamente, queste regole potrebbero alimentare business socialmente responsabili e non dovrebbero essere troppo gravose”, sottolineano i firmatari.

La lettera contiene un disclaimer: non tutti i firmatari condividono necessariamente le stesse motivazioni, ma concordano su almeno alcuni dei punti evidenziati. Segue poi un elenco dei rischi collegati all’abuso dei deepfake, ovvero pornografia non consensuale, frodi (phishing e furto di identità), distorsione dei processi alla base delle democrazie (specie nelle elezioni), disinformazione e manipolazione delle masse (con la creazione di contenuti falsi spacciati per reali) e inoltre danni per professioni come quelle di attori e musicisti (che si vedono “sostituiti” da sosia digitali, senza compenso per l’utilizzo della loro immagine).

Secondo i firmatari, si dovrebbe anche lavorare sul fronte della responsabilità, oltre che su quello della legalità: produttori di fotocamere, sviluppatori software e media company dovrebbero condividere delle buone pratiche, come l’uso di firme crittografiche e procedure che consentono di verificare l’autenticità di un file audio, di un’immagine o filmato.

https://www.ictbusiness.it/news/deepfake-fuori-controllo-esperti-e-accademici-invocano-nuove-regole.aspx