Uno studio di Bcg evidenzia nelle aziende un diffuso bisogno di regole per un uso responsabile dell’AI. Molti, però, non sono pronti a gestirle.
Pubblicato il 03 maggio 2023 da Valentina Bernocco

Si parla ancora di intelligenza artificiale generativa, mentre l’Europa recupera il ritardo sull’AI Act e mentre a Hollywood va in scena la protesta degli sceneggiatori preoccupati di perdere il lavoro a causa della “macchina del plagio”, di applicazioni che in futuro potrebbero scrivere al loro posto testi per il cinema e la Tv. Il recente “semaforo verde” del Garante della privacy italiano a OpenAI è un segnale di ragionevolezza, è la consapevole necessità di non poter censurare tecnologie che stanno prendendo piede in tutto il mondo e in molti mercati.
Di fronte alle sorprendenti capacità di ChatGPT, Midjourney e altre applicazioni di AI generativa, un po’ ovunque sta emergendo il bisogno di regole chiare che mettano dei paletti e tutelino sicurezza, privacy e proprietà intellettuale. E se addirittura uno tra i padri del deep learning, l’informatico Geoffrey Hinton, teme future guerre scatenate da decisioni prese dall’uomo, negare l’esistenza di qualsiasi rischio non sembra più possibile. Intanto a Washington la vicepresidente Kamala Harris ha convocato alla Casa Bianca, per parlare di intelligenza artificiale, gli amministratori delegati di Microsoft e Alphabet e delle due (ex) startup su cui queste aziende hanno investito, cioè rispettivamente OpenAI e Anthropic.
Il bisogno di regole sull’utilizzo dell’AI emerge anche da uno studio di Bcg, “Digital Acceleration Index”, condotto a livello internazionale su 2.700 dirigenti d’azienda. Tra gli europei intervistati, il 35% dei dirigenti ha detto che nuove regole sono necessarie per adottare l’AI in modo etico e responsabile, e in Italia la percentuale sale al 49%. Inoltre il 34% delle aziende italiane incluse nel campione ha già al proprio interno una figura responsabile dell’intelligenza artificiale (chief AI).
Naturalmente lo scenario è immaturo e molte imprese ancora non sanno bene come muoversi di fronte agli ultimi sviluppi tecnologici e normativi. Solo il 28%, sul totale del campione, ha detto che la propria organizzazione è pronta a gestire le nuove regole sull’AI, ma ci sono aree di maturità. In Italia ben l’89% dei dirigenti del settore energetico sostiene che l’azienda sia già pronta, mentre nell’ambito finanziario la quota è 87,5%, nell’informatica è 83%.
L’AI Act europeo, in via di approvazione, pone limiti e obblighi alle applicazioni di intelligenza artificiale in base ai potenziali rischi, violazioni di privacy e discriminazioni che potrebbero derivarne (la sorveglianza biometrica di massa e la valutazione del credito basata sul social scoring, per esempio, sono vietate). Per le aziende che trasgrediscono sono previste sanzioni pecuniarie fino a un massimo del 6% dei ricavi annui.

(Immagine di rawpixel.com su Freepik; immagine di apertura di starline su Freepik)
A detta degli analisti di Bcg, un buon modo per affrontare il problema è concretizzare all’interno dell’azienda un programma di Intelligenza Artificiale Responsabile (RAI), fondato su principi di responsabilità, trasparenza, privacy, sicurezza, equità inclusione. Questi valori devono essere preservati sia nelle attività di training degli algoritmi sia nello sviluppo delle applicazioni e nel loro utilizzo.
“Le iniziative RAI possono rappresentare il quadro di riferimento sia per chi crea strumenti di intelligenza artificiale che per chi li utilizza, aiutando entrambe le parti a confrontarsi positivamente con la regolamentazione”, ha commentato Enzo Barba, partner di Bcg X, divisione della società di consulenza specializzata sull’AI. “Questo aspetto è rilevante soprattutto per le aziende italiane che si trovano ad operare in un contesto regolamentare molto attento alle dinamiche di sviluppo delle nuove tecnologie e del loro impatto sulla privacy degli utenti”.
C’è da dire che i principali colossi dell’informatica e del digitale, aziende del calibro di Microsoft, Alphabet o Accenture, in quanto sviluppatori e vendor di intelligenza artificiale hanno definito da tempo le proprie linee guida sull’AI responsabile. Lo scenario è però in rapida trasformazione, così come lo sono i rischi di fronte alle ultime evoluzioni dei large language model e alla loro rapida diffusione, grazie ad app gratuite per l’utente finale e a servizi disponibili per gli sviluppatori tramite cloud.
Tag: corporate responsability, intelligenza artificiale, openai, chatGPT, Ai generativa
Potrebbe interessarti anche