Intelligenza artificiale: sospenderne lo sviluppo per sei messi

L'appello arriva da una lettera aperta con oltre 1000 firmatari, tra cui Elon Musk. "Corsa fuori controllo dell'AI" dicono gli scienziati, chiedendo di bloccare ulteriori addestramenti di intelligenza artificiale per poter sviluppare protocolli di sicurezza

Laura DI CINTIOMarzo 30, 2023

 1 minuto di lettura

 Condividi

Facebook Twitter LinkedIn

0

“Negli ultimi mesi c’è stata una corsa fuori controllo dei laboratori di intelligenza artificiale per sviluppare e impiegare menti digitali sempre più potenti che nessuno – neanche i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile”. Così oltre mille scienziati ed esperti scrivono in una lettera aperta pubblicata dal Future for Life Institute, organizzazione che studia i potenziali rischi per l’umanità derivanti dallo sviluppo di nuove tecnologie che sfuggano al controllo dell’uomo.

I firmatari dell’appello chiedono lo stop per almeno sei mesi ad ulteriori addestramenti di intelligenza artificiale più potenti di Gpt-4, l’ultimo aggiornamento di OpenAi della famosa ChatGpt. “La pausa dovrebbe essere pubblica, verificabile e includere tutti – continua la lettera – se non sarà attuata rapidamente i governi dovrebbero intervenire e istituire una moratoria”. Gli scienziati chiedono infatti di non delegare ai leader tecnologici le decisioni sugli sviluppi, ma che se ne occupino invece i governi, affrontando il tema sotto l’aspetto etico e creando nuove autorità di regolamentazione e controllo.

“Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che potrebbero superarci di numero, renderci obsoleti e sostituirci?”, queste le domande dell’appello.

La pausa invocata consentirebbe di sviluppare protocolli di sicurezza – soprattutto sotto gli aspetti di fake news e cybersecutity – per rendere gli sviluppi dell’AI più “sicuri, trasparenti e affidabili”, in quanto “i sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l’umanità”, affermano gli scienziati.

Tra i firmatari della lettera aperta, nomi di spicco del settore tecnologico come Elon Musk e Steve Wozniak, cofondatore di Apple, insieme a ricercatori ed esperti mondiali di AI, come Stuart Russel e Yoshua Bengio.

Leave a Reply

Your email address will not be published. Required fields are marked *