Promesse e problemi dell’intelligenza artificiale in sanità
Secondo le stime di MarketsAndMarkets il mercato dell’AI applicata al settore medico varrà più di 100 miliardi di dollari nel 2028. Bias e accountability due punti critici.
Il settore sanitario è ormai permeato di tecnologie informatiche diventate essenziali in molti ambiti, non solo quelli amministrativi ma anche la diagnostica, la refertazione e l’erogazione delle cure. E l’intelligenza artificiale, nelle sue molte forme, sta trovando terreno fertile nell’healthcare, pur con tutte le cautele necessarie in un ambito popolato di dati sensibili e nel quale è in gioco la salute o la vita delle persone. Il machine learning ha il vantaggio di poter analizzare, aggregare e comparare enormi quantità di dati, come mai l’essere umano, anche agevolato da altre tecnologie informatiche, potrebbe fare. E soprattutto, sa evidenziare correlazioni, tendenze e indicazioni utili per tracciare previsioni.
Da diversi anni si parla, per esempio, del machine learning applicato all’analisi di radiografie o risonanze magnetiche o alla diagnosi precoce di varie patologie, o ancora in biotecnologia allo studio di nuovi farmaci. Neurologia, ortopedia, oncologia sono alcuni degli ambiti della medicina in cui l’AI già viene utilizzata. Inoltre, consolidandosi nel tempo, potrà servire per offrire cure sempre più personalizzate e sopperire in parte alla carenza di personale dedicato ai pazienti.
Gli esempi di sperimentazioni in corso sono innumerevoli, ma una particolarmente interessante porta la firma di DeepMind, società britannica controllata da Alphabet. Da molti anni le tecnologie di deep learning di Google vengono usate, in combinazione con l’imaging tridimensionale, per la diagnosi di casi di retinopatia diabetica, una complicazione del diabete che può portare alla cecità. Ora però i ricercatori di DeepMind hanno sviluppato un modello di GenAI capace di generare immagini realistiche di retine patologiche. Il modello è stato allenato su un dataset di 100mila immagini reali e potrà servire per sviluppare nuovi metodi di diagnosi e trattamento della retinopatia diabetica. Sempre di diabete si sono occupati gli scienziati del Massachusetts Institute of Technology (Mit) di Boston autori di un modello di GenAI capace di creare immagini realistiche di cellule pancreatiche beta, quelle che secernono insulina. In questo caso per l’allenamento dell’algoritmo sono state usate ben un milione di immagini reali di cellule beta (umane e animali), e come nell’esempio precedente il modello potrà aiutare sia nella diagnostica sia nella definizione di nuove terapie per il diabete.
UN BOOM ANNUNCIATO?
Secondo le stime di MarketsAndMarkets, nel 2023 il mercato dell’AI applicata al settore medico ha raggiunto un valore di 14,6 miliardi di dollari. Il giro d’affari avrà un tasso composto di crescita annuale dell’47,5% in un quinquennio, superando i 100 miliardi di dollari (102,7 miliardi) nel 2028. La previsione include non solo le tecnologie mediche in senso stretto ma anche i dispositivi indossabili usati per monitoraggi e telemedicina, gli assistenti virtuali, la robotica, le applicazioni di ambito farmaceutico, i sistemi di cybersicurezza al servizio del settore, i software basati su AI per la gestione amministrativa (per prenotazioni, cartelle cliniche e altro) e per le assicurazioni mediche. Alcune delle grandi aziende vendor (informatiche e non) oggi protagoniste del mercato sono Nvidia, Intel, Microsoft, Google, Amazon (la divisione cloud Aws), Siemens, Micron, General Electric, Johnson & Johnson.
Affinché l’annunciato boom si realizzi, andranno affrontati alcuni degli attuali problemi irrisolti, evidenziati da molti studi e articoli scientifici, come il bias (il pregiudizio insito negli algoritmi a seconda della base di dati utilizzata per il training) e la difficoltà nel definire metriche significative per il rilevamento di patologie. Uno studio del Parlamento Europeo, pubblicato a maggio del 2022, identificava in particolare sette rischi legati all’uso dell’AI in campo sanitario: i potenziali errori indotti nelle diagnosi e nelle cure; il bias e le disuguaglianze nel trattamento sanitario che potrebbero derivarne; l’assenza di trasparenza; gli eventuali abusi delle tecnologie (se troppo facilmente accessibili a personale non competente); i danni di privacy per l’esposizione di dati sensibili a potenziali attacchi informatici; la mancanza di accountability; ostacoli e rischi insiti nell’adozione di tecnologie che potrebbero indebolire il rapporto fra medici e pazienti.
Va detto che alcuni di questi rischi riguardano più in generale la digitalizzazione del settore sanitario e non, nello specifico, l’intelligenza artificiale. L’aspetto dell’accountability è invece particolarmente critico: se un algoritmo suggerisce una diagnosi o un percorso di cura, un farmaco o un intervento chirurgico, chi si prende la responsabilità di quella scelta? Gli sviluppatori dell’algoritmo, l’azienda che lo commercializza, l’ospedale o il medico?
Immagine di rawpixel.com su Freepik
LE LACUNE LEGISLATIVE
Attualmente, si legge nello studio, “persistono lacune nelle regolamentazioni nazionali e internazionali su chi debba essere considerato responsabile per errori e fallimenti dei sistemi di AI, specialmente in medicina”. Per tutte queste ragioni, l’adozione di sistemi di AI in campo medico è necessariamente regolamentata. Negli Stati Uniti la Food & Drug Administration (Fda) ammette l’utilizzo di algoritmi di analisi delle immagini che abbiano dimostrato un’accuratezza non inferiore all’80%. La lista dei dispositivi di machine learning approvati dall’Fda includeva, nell’aggiornamento dello scorso luglio, soprattutto applicazioni per la radiologia (79%) e a distanza per la cardiologia, la neurologia, la gastroenterologia/urologia e l'anestesiologia.
E in Europa? Come noto, l’AI Act approvato da Parlamento e Commissione Europea rappresenta la prima importante regolamentazione di scala internazionale (considerando l’Unione Europea come un’entità geografica e politica equiparabile agli Stati Uniti o alla Cina). Per ora non sono previste regole ad hoc per le tecnologie di AI in campo sanitario, ma vale il principio generale secondo cui le applicazioni devono essere valutate per il livello di rischio che rappresentano e in base al rapporto costi/benefici. Presumibilmente, le tecnologie di medical AI saranno considerate tra quelle ad alto rischio, dunque saranno soggette a particolari obblighi di compliance. Inoltre ci si aspetta che l’AI Act incorpori il precedente Regolamento europeo 2017/745 (Eu Medical Device Regulation 2017/745), che definisce le classi di rischio e gli obblighi di compliance per i vari attori della filiera.