A.I. generativa, Stati Uniti al lavoro per la regolamentazione

La Casa Bianca sta raccogliendo pareri per definire regole di accountability per le aziende che sviluppano e vendono intelligenza artificiale.

Pubblicato il 12 aprile 2023 da Redazione

Visti i rapidissimi progressi di ChatGPT e applicazioni simili, è difficile immaginare che cosa l’intelligenza artificiale generativa diventerà in futuro, anche solo tra qualche mese o anno. Preoccupazioni su possibili utilizzi malevoli e impatti negativi sulla società (occupazione, scuola, sicurezza) sono legittime, specie in assenza di un quadro regolatorio. Mentre l’Unione Europea sta ancora definendo il testo finale dell’AI Act (destinato a regolare il più ampio ambito dell’intelligenza artificiale, non solo generativa), negli Stati Uniti qualcosa si muove: la National Telecommunications and Information Administration (Ntia), agenzia interna al Dipartimento del Commercio, sta studiando la possibilità di applicare delle misure di controllo per garantire che i sistemi di AI siano “legali, efficaci, etici, sicuri e degni di fiducia”, riporta Reuters.

Non c’è quindi una posizione di rifiuto, ma un invito ad andarci con i piedi di piombo. “Sistemi di AI responsabile potrebbero apportare benefici enormi, ma solo se affrontiamo le loro potenziali conseguenze e danni”, ha dichiarato Alan Davidson, amministratore dell’agenzia governativa. “Affinché questi sistemi raggiungano il pieno potenziale, le aziende e i consumatori devono potersi fidare di loro”.

La Ntia sta valutando le possibili misure per garantire che i sistemi di AI “funzionino come dichiarano, e senza causare danni”, e presenterà la relazione risultante alla Casa Bianca prossimamente. L’ufficio presidenziale, infatti, ha iniziato a raccogliere pareri su eventuali misure di accountability per chi sviluppa e utilizza sistemi di AI. Non è chiaro se e quanto la recente petizione promossa dal Center for Artificial Intelligence and Digital Policy abbia influenzato le mosse di Washington.

L’opinione espressa dal presidente Joe Biden è condivisibile ma forse un po’ ingenua: “Le società tecnologiche hanno, secondo me, la responsabilità di garantire che i propri prodotti siano sicuri prima di renderli pubblici”. Il problema è che la sicurezza intrinseca di un software di AI (la correttezza con cui elabora dati, la capacità di difesa da cyberattacchi, l’assenza di pregiudizi) non esclude possibili derive e utilizzi malevoli.


Daniel Zhang, presidente e Ceo di Alibaba Group 

La mossa di Alibaba Cloud
Intanto non passa giorno senza che qualche società tecnologica annunci novità nel campo dell’AI generativa. Il colosso cinese Alibaba ha introdotto nella propria offerta cloud un software di comprensione ed elaborazione del linguaggio (large language model) che permetterà ai clienti di creare applicazioni basate su intelligenza artificiale. “Siamo davanti a un momento di spartiacque tecnologico, trainato dall’AI generativa e dal cloud computing, e le aziende di tutti i settori hanno iniziato ad abbracciare la trasformazione intelligente per stare un passo avanti”, ha dichiarato il presidente e Ceo di Alibaba Group, Daniel Zhang.

Non è tutto: il nuovo modello linguistico, Tongyi Qianwen, sarà progressivamente integrato in tutte le applicazioni di Alibaba rivolte alle aziende, con l’obiettivo di migliorare l’esperienza d’uso e la navigazione e di fornire supporto tramite chat e funzioni di ricerca. Supporterà sia il cinese sia l’inglese e sarà inizialmente inserito in DingTalk (la piattaforma Ucc di Alibaba per la collaborazione lavorativa a distanza) e nei dispositivi di domotica di Tmall Genie. Difficile non trovare un parallelismo con la strategia seguita da Microsoft per il cloud di Azure e la piattaforma Teams.

Tag: intelligenza artificialeAi generativa

Potrebbe interessarti anche

https://www.ictbusiness.it/cont/news/a-i-generativa-stati-uniti-al-lavoro-per-la-regolamentazione/47665/1.html#.ZDnNLnZBzIU

Leave a Reply

Your email address will not be published. Required fields are marked *