Perché le aziende hanno paura dell’intelligenza artificiale?

Ecco cosa devono fare le aziende in attesa della AI Liability directive per non frenare l'innovazione

di Gianmatteo Nunziante*

29 ottobre 2022

I pregiudizi dell'intelligenza artificiale, l'inclusione nei team dell'It e i mestieri del futuro

I punti chiave

Ascolta la versione audio dell'articolo

3' di lettura

Da un recente studio condotto su un campione di circa 10 mila piccole, medie e grandi imprese risulta che il 43% di quelle che ancora non utilizzano sistemi di IA (intelligenza artificiale) lo fanno per paura della «responsabilità per danni prodotti dall'AI», che si configura quindi come la maggiore barriera esterna all'utilizzo della IA (fonte: European enterprise survey on the use of technologies based on artificial intelligence, IPSOS, 2022). Si tratta di un dato che evidenzia in modo rilevante le difficoltà di crescita di questo mercato.

Proprio sulla base di queste considerazioni e dati statistici la Commissione Europea il 28 settembre 2022 ha adottato una proposta di direttiva sull'adattamento delle norme in materia di responsabilità extra-contrattuale all'AI (AI Liability Directive). La direttiva si confronta con la difficoltà – a volte insormontabile – che un utente finale che abbia sofferto danni per effetto dell'AI deve affrontare per dimostrare, secondo i canoni stringenti imposti dalla legge, che il danno di cui chiede il ristoro sia effettivamente la diretta conseguenza di un output (o mancato output) dell'AI.

Il caso dell’incidente automobilistico

Un caso di scuola emblematico di situazioni che potrebbero rientrare in questa categoria è quello dell'incidente automobilistico, laddove almeno uno dei veicoli coinvolti sia in tutto o in parte supportato da AI: in questo caso può risultare difficile stabilire se l'incidente sia dovuto ad un mero guasto meccanico, ad un malfunzionamento di un software o ad una decisione errata presa in autonomia dall'AI.

Qualora si giunga alla conclusione che si tratti di un errore dell'AI, la complessità della value-chain alla base del prodotto finito – ed il conseguente numero di fornitori coinvolti - è tale da rendere particolarmente difficile l'imputazione dell'errore all'uno o all'altro singolo componente o anche all'interazione tra l'uno e l'altro componente.

La proposta di direttiva in dettaglio

La nuova direttiva proposta si basa su due principi cardine. Il primo prevede l'attribuzione al giudice competente del potere di ordinare (i) la disclosure di prove relative ad uno specifico sistema di AI ad alto rischio sospettato di aver provocato danni e (ii) l'adozione di misure specifiche volte alla conservazione di tali prove. Il secondo riguarda invece la presunzione dell'esistenza del nesso di causalità, al ricorrere di talune circostanze, tra la negligenza del convenuto e il risultato prodotto (o non prodotto) dall'AI.

Dallo shock petrolifero alla spirale prezzi-salari: storia dell’inflazione in Italia

di Dino Pesole

Superbonus 110%, così il passaggio dei documenti frena la quarta cessione

di Giuseppe Latour

Mercato dei bond «congelato»: perché il rischio è la crisi sistemica

di Morya Longo

Si tratta di un timido tentativo volto ad attenuare – più che invertire del tutto – l'onere probatorio gravante sull'attore: e del resto non si può non tener conto degli interessi contrapposti in ballo, da un lato quello alla sicurezza del consumatore e, dall'altro lato, quello dell'innovatore che, da un regime di indiscriminata responsabilità oggettiva, vedrebbe paralizzato il proprio slancio innovativo.

Andando avanti si può prefigurare per i sistemi di AI ad alto rischio un regime di assicurazione obbligatoria accompagnato da un fondo rischi per le vittime dell'AI: il che garantirebbe il consumatore (quanto meno sotto il profilo dell'effettività del ristoro) senza paralizzare la capacità inventiva.

Gli effetti virtuosi di una corretta giurisdizione

Si stima che le due misure proposte dalla direttiva possano generare un incremento nel mercato dell'AI tra i 500 milioni di euro a oltre un miliardo perché, garantendo l'accesso ad un sistema giurisdizionale efficiente, accrescerebbe la fiducia dei cittadini in questi sistemi di intelligenza artificiale.Il problema è che i tempi necessari a legiferare sono fin troppo dilatati.

Allo stato attuale siamo in presenza di una mera proposta di direttiva: una volta approvata, ci vorranno 2 anni per implementarla. Tempi inconciliabili con l'innovazione. Piuttosto potrebbe risultare utile far ricorso (in parallelo) ad un sistema di soft-law: codici di autoregolamentazione, ad esempio, che maturando spontaneamente nell'ecosistema dell'innovazione (già per natura transfrontaliero) sarebbero in grado di codificare in tempo reale best-practice coerenti e mirate, anche in termini di allocazione convenzionale di responsabilità tra i vari componenti della value-chain.

Ovviamente il limite starebbe nella natura pattizia della regolamentazione: ma questa sarebbe anche la sua forza. Oltre, infatti, alla connaturata snellezza e concretezza, l'autoregolamentazione ha l'insuperabile pregio di nascere dal basso, dove le esigenze sono avvertite, e senza mediazioni politiche.

*Avvocato socio fondatore dello studio legale Nunziante Magrone

Riproduzione riservata ©

https://www.ilsole24ore.com/art/perche-aziende-hanno-paura-dell-intelligenza-artificiale-AEnvN3BC