L'Organizzazione Mondiale della Sanità invita a seguire principi di trasparenza, inclusione e privacy nell’uso dei large language model per attività di diagnostica e di assistenza medica.
Pubblicato il 16 maggio 2023 da Redazione

Le applicazioni di intelligenza artificiale oggi sono al centro di molti interessi, aspettative e anche preoccupazioni. L’ultimo allarme lanciato è quello dell’Organizzazione Mondiale della Sanità, che invita alla cautela nell’utilizzo dei dei large language model (Llm), i modelli di apprendimento automatico, analisi e generazione del linguaggio, come i più noti GPT-3, GPT-4 (frutto del lavoro di OpenAI) e Bard (sviluppato da Alphabet e gradualmente integrato in Google Search).
Oggi queste tecnologie iniziano a essere sperimentate in applicazioni di ambito medico, specie come supporto alle attività di diagnostica (per esempio nella lettura di referti come tac e risonanze) e di definizione delle cure. Il rischio, a detta dell’Oms, è che l’intelligenza artificiale possa racchiudere e perpetrare favoritismi o discriminazioni. D’altra parte può anche essere una preziosa risorsa per migliorare l’assistenza sanitaria, sia potenziando le capacità diagnostiche sia sopperendo alle carenze di personale.
L’Oms si dice “entusiasta sull’utilizzo appropriato delle tecnologie, inclusi gli Llm, per supportare i professionisti della sanità, i pazienti, i ricercatori e gli scienziati”. Allo stesso tempo, è preoccupata del fatto che “la cautela che normalmente sarebbe esercitata nei confronti di qualsiasi altra tecnologia non sia esercitata in modo significativo con i large language model”.
Quattro, in particolare, i rischi evidenziati dall’Oms. Innanzitutto il bias potenzialmente insito nei dati usati per l’addestramento degli algoritmi: da qui potrebbero derivare informazioni inaccurate o devianti, e di conseguenza rischi per la salute, l’equità e l’inclusione. Inoltre i modelli linguistici potrebbero generare risposte solo apparentemente corrette (almeno per un non addetto ai lavori) e in realtà fallaci o anche totalmente errate. Alcuni di questi stessi rischi erano già stati evidenziati da uno studio del Parlamento Europeo datato 2022.
In terzo luogo, i modelli linguistici potrebbero essere stati allenati su dati non pertinenti alla destinazione d’uso o potrebbero non proteggere dati sensibili, come quelli relativi alla salute delle persone. Un quarto rischio è quello di utilizzi impropri: testi, audio e video creati dall’AI potrebbero servire, per esempio, per diffondere fake news su temi sanitari, con conseguenze rilevanti (basti pensare a quello che è successo con la pandemia di Covid sui social media, e con il supporto dell’AI i contenuti falsi sembrerebbero ancor più convincenti).

(Immagine di Freepik)
Una “adozione precipitosa di sistemi non testati potrebbe indurre in errore gli operatori sanitari, causare danno ai pazienti, erodere la fiducia nell’AI e quindi minare o rallentare i benefici di lungo termine e gli utilizzi di queste tecnologie nel mondo”, scrive l’Oms. L’organizzazione chiede un intervento dei legislatori a tutela della sicurezza dei pazienti, suggerendo di considerare le proprie linee guida per l’intelligenza artificiale in sanità.
L’agenzia non pone veti ma invita alla cautela, a ponderare bene l’uso degli Llm in applicazioni di diagnostica e di assistenza sanitaria, in modo da “proteggere e promuovere il benessere, la sicurezza e l’autonomia degli esseri umani, e da preservare la salute pubblica”. Cautela significa, secondo l’Oms, aderire pienamente a valori di trasparenza e inclusione, e inoltre prevedere il coinvolgimento dei cittadini, la supervisione di esperti, una rigorosa valutazione delle applicazioni e, non da ultimo, chiare responsabilità .
Tag: sanità, healthcare, intelligenza artificiale, Ai generativa