Dichiarazione di Bletchley, svolta per lo sviluppo responsabile dell’intelligenza artificiale: ecco perché

Condividi questo articolo

Il vertice di Bletchley Park segna una svolta storica per lo sviluppo sicuro e responsabile dell’intelligenza artificiale: i leader mondiali hanno firmato un accordo storico, ribattezzato Dichiarazione di Bletchley, per la regolamentazione condivisa della tecnologia. Ecco i punti cardine

Pubblicato il 08 Nov 2023

Luisa Franchina

Presidente Associazione Italiana esperti in Infrastrutture Critiche

Gli Stati leader nell’ambito dell’intelligenza artificiale (IA), riuniti per la prima volta dal Regno Unito e comprendenti gli Stati Uniti e la Cina, insieme all’Unione Europea, hanno raggiunto un accordo senza precedenti a Bletchley Park lo scorso primo novembre 2023.

Tale accordo stabilisce una comprensione condivisa sulle opportunità e i rischi posti dall’IA di frontiera e la necessità per i governi di lavorare insieme per affrontare le sfide più significative.

Indice degli argomenti

La Dichiarazione di Bletchley sullo sviluppo sicuro dell’IA

La Dichiarazione di Bletchley sull’IA sicura coinvolge 28 paesi da tutto il mondo, compresi l’Africa, il Medio Oriente, l’Asia e l’UE, concordando l’urgente necessità di comprendere e gestire collettivamente i potenziali rischi attraverso uno sforzo globale congiunto per garantire che l’IA sia sviluppata e implementata in modo sicuro e responsabile a beneficio della comunità globale.

WHITEPAPER

Sei sicuro della conformità ESG dei tuoi prodotti? Elimina ogni dubbio scaricando l'eBook!

Contract Management

Privacy/Compliance

Inizio modulo

Leggi l'informativa sulla privacy

  • Acconsento alla comunicazione dei dati a terzi appartenenti ai seguenti settori merceologici: servizi (tra cui ICT/digitali), manifatturiero, commercio, pubblica amministrazione. I dati verranno trattati per finalità di marketing tramite modalità automatizzate e tradizionali di contatto (il tutto come specificato nell’informativa)

Fine modulo

I paesi che hanno sottoscritto la Dichiarazione includono il Brasile, la Francia, l’India, l’Irlanda, il Giappone, il Kenya, il Regno dell’Arabia Saudita, la Nigeria e gli Emirati Arabi Uniti.

Durante il summit, diversi leader politici, figure di spicco nel settore tecnologico come Elon Musk e rappresentanti delle aziende, studiosi e della società civile hanno discusso l’intelligenza artificiale di frontiera, ovvero l’IA avanzata che potrebbe superare le attuali capacità dei sistemi.

La posizione dell’Italia sull’intelligenza artificiale di frontiera

Il presidente del Consiglio italiano, Giorgia Meloni, ha sottolineato le opportunità e i rischi legati all’intelligenza artificiale, inclusi meccanismi decisionali opachi, discriminazioni, invasioni nella vita privata e possibili utilizzi malevoli dell’IA.

Meloni ha evidenziato la necessità di un quadro normativo adeguato e di una regolamentazione che accompagni l’innovazione, affinché l’IA non accentui ulteriormente il divario tra ricchi e poveri, con particolare attenzione alla classe media già in difficoltà.

Una cooperazione globale per affrontare i rischi dell’IA

Il vertice ha portato alla firma della Dichiarazione di Bletchley, che richiede una cooperazione globale per affrontare i rischi legati all’IA, tra cui la violazione della privacy e la perdita di posti di lavoro.

Nello specifico, la Dichiarazione soddisfa gli obiettivi chiave del vertice stabilendo un accordo e una responsabilità condivisi riguardo ai rischi, alle opportunità e a un processo avanti per la collaborazione internazionale sulla sicurezza dell’IA di frontiera e la ricerca, in particolare attraverso una maggiore collaborazione scientifica.

I paesi hanno riconosciuto che potrebbero sorgere rischi significativi a causa di un uso intenzionale o di problemi di controllo non intenzionali dell’IA di frontiera, con particolare preoccupazione causata dai rischi di cyber sicurezza, biotecnologia e disinformazione.

La Dichiarazione afferma che c’è “potenziale per gravi danni, sia deliberati che accidentali, derivanti dalle capacità più significative di questi modelli di IA”. I paesi hanno anche notato i rischi al di là dell’IA di frontiera, tra cui la parzialità e la privacy.

Sostenere una rete di ricerca sulla sicurezza dell’IA di frontiera

Riconoscendo la necessità di approfondire la comprensione dei rischi e delle capacità non completamente comprese, i partecipanti hanno concordato di lavorare insieme per sostenere una rete di ricerca scientifica sulla sicurezza dell’IA di frontiera.

Ciò si basa sull’annuncio del Primo Ministro del Regno Unito la scorsa settimana relativo all’istituzione del primo Istituto per la Sicurezza dell’IA al mondo e complementa gli sforzi internazionali esistenti, tra cui G7, OCSE, Consiglio d’Europa, Nazioni Unite e il Partenariato Globale sull’IA.

La Dichiarazione specifica che i rischi sono “meglio affrontati attraverso la cooperazione internazionale”. Come parte della definizione di un processo in avanti per la collaborazione internazionale sulla sicurezza dell’IA di frontiera, la Repubblica di Corea ha accettato di co-ospitare un vertice ristretto virtuale sull’IA nei prossimi 6 mesi. La Francia ospiterà il prossimo vertice in persona tra un anno.

Ulteriori dettagli su questi eventi saranno confermati in seguito.

Ciò assicura un’eredità duratura dal Vertice e un’azione internazionale continua per affrontare i rischi dell’IA, compresi il contributo a politiche basate sul rischio nazionali e internazionali in questi paesi.

La Dichiarazione, basandosi sull’annuncio della scorsa settimana dei processi emergenti del Regno Unito per la sicurezza dell’IA, riconosce anche che coloro che sviluppano queste straordinarie e potenzialmente pericolose capacità dell’IA di frontiera hanno una particolare responsabilità nell’assicurare la sicurezza di questi sistemi, incluso l’implementazione di sistemi per testarli e altre misure adeguate.

@RIPRODUZIONE RISERVATA