L’intelligenza artificiale garantisce molti vantaggiosi impieghi anche in ambito sanitario. Con risorse umane più libere di dedicarsi alla cura e notevoli risparmi economici. Attenzione però alle inedite responsabilità e ai rischi per la salute e la privacy dei pazienti: ci vogliono competenza, consapevolezza e formazione.
Sono bastati pochissimi anni e la sigla IA (o, per “girarla” all’anglosassone, AI) è diventata un vero mantra”: tutti, ormai, nella nostra prassi quotidiana abbiamo a che fare con gli strabilianti progressi dell’intelligenza artificiale, in ogni campo della vita e del lavoro. E la cosa, in fondo, se da un lato ci spaventa, dall’altro ci affascina non poco.
Il “mantra” IA approda in sanità Non si possono negare, d’altra parte, il grande aiuto e il prezioso supporto che le nuove tecnologie ci assicurano un po’ in tutti i settori: la sanità non fa certo eccezione, anzi. L’utilizzo delle applicazioni di IA in ambito medico offre indubbi vantaggi: dalla fase diagnostica, con diagnosi più accurate e rapide, a quella degli interventi chirurgici di precisione, dalla personalizzazione terapeutica ad aspetti estremamente pratici -ma significativi in un’ottica di benessere e qualità della vita- come la gestione del servizio di “hospitality” sanitaria (dalle prenotazioni alle degenze), la possibilità di ottimizzare gli interventi, le tempistiche e l’efficacia delle cure.
La questione è (anche) economica È anche un fatto economico, se è vero, come recentemente riportato da Forbes, che in Italia il suo impiego in sanità promette, nel prossimo futuro, un risparmio di quasi 22 miliardi di euro all’anno. C’è tuttavia anche l’altro lato della medaglia: a maggiori possibilità corrispondono nuove ed accresciute responsabilità. Ed è proprio sul filo di questo sottile equilibrio che intende muoversi la nostra riflessione. Partiamo dalla parte “mezza piena” del bicchiere, come sempre aiutandoci coi numeri: in questo caso quelli della recente ricerca “L’impatto dell’Intelligenza Artificiale in Italia dalla finanza alla sanità”, curata dalla Rome Business School.
Un settore in grande “exploit” Ebbene, nonostante nel settore permanga una certa diffidenza verso la tecnologia (appena un quarto delle aziende sanitarie italiane, lo scorso anno, aveva in programma investimenti in IA (con un misero 4% che pensava ad utilizzare a questo scopo i fondi PNRR), il mercato del comparto è complessivamente raddoppiato nell’ultimo biennio (entro il 2030 si sfonderà il tetto dei 3 miliardi di valore), e i risparmi previsti nel solo settore sanitario si aggirano intorno al 10-15%. In Europa il valore del comparto, stando a quanto riporta Statista, si è aggirato intorno ai 208 miliardi di dollari, con una previsione, di qui a 5 anni, che andrà a sfiorare i 2mila miliardi.
Tanti i vantaggi… Ai vantaggi di natura non direttamente economica si è già fatto cenno: i dispositivi medici intelligenti e i sistemi di monitoraggio remoto e robotica assistenziale permetteranno non solo un’assistenza personalizzata e tempestiva, ma saranno di grande ausilio e di sicuro supporto per lo stesso personale sanitario. In tal senso si può azzardare a stimare una automatizzazione del 36% delle attività nel settore sociosanitario, il che permetterebbe al contempo di svincolare risorse umane per operazioni più complesse.
… ma senza prescindere dalla professionalità umana Proprio questa è la chiave: ad è la stessa Ocse, Organizzazione per la cooperazione e lo sviluppo economico, a dirci che l’utilizzo consapevole dell’IA può aiutare gli operatori sanitari a dedicare più tempo di qualità alle cure, consentendo loro di concentrarsi maggiormente sull’interazione con i pazienti e sgravando medici e personale da ripetitive incombenze burocratiche e amministrative (che in questo momento si “prendono” oltre la metà della una giornata lavorativa-tipo di un medico). In generale, insomma, si può dire che l’intelligenza artificiale possa essere di grande aiuto in sanità da molteplici punti di vista.
Il lato oscuro dell’innovazione Occorre però fare attenzione ai rischi che ogni importante innovazione, tecnologica ma ancor prima culturale, reca con sé. Soprattutto quando si parla di settori sensibili come quello sanitario. Tra i nuovi profili di responsabilità non si può non richiamare, ad esempio, quella legata all’utilizzo dei big data, perché il massiccio utilizzo di dati che il sistema di intelligenza artificiale è in grado di gestire (e, di fatto, deve elaborare per poter operare in modo efficace ed efficiente) pone un duplice ordine di problemi: da un lato la possibile presenza di falle nel sistema, con conseguenti pericolose distorsioni, dall’altro la riservatezza e il rischio di fuga di dati sensibili.
Verificare affidabilità e sicurezza In ordine all’affidabilità tecnica, si dovrebbe innanzitutto prendere in considerazione la possibilità di bias-deviazioni o malfunzionamenti del sistema, che potrebbero provocare conseguenze anche catastrofiche: pensiamo soltanto a cosa potrebbe accadere in caso di diagnosi errate, o terapie scambiate. E qui entra in scena l’uomo: sarà infatti cura della struttura implementare sistemi di controllo e verifica dei modelli operativi, delle banche dati, dell’accuratezza dei dati e della solidità del sistema.
Supervisione e controllo (umani) In buona sostanza si dovrà affidare a professionisti umani il compito della supervisione e validazione ultima delle indicazioni elaborate dalla macchina: per una volta sarà dunque l’essere umano a controllare la macchina e non viceversa, come comunemente si tende a credere. Si vedano a tal proposito il documento “Ethics Guidelines for Trustworthy AI”, mediante il quale la Commissione Europea ha raccomandato che l’utilizzo dell’AI promuova i diritti fondamentali della persona, e il Regolamento UE 2017/745 sui dispositivi medici, che stabilisce che i fabbricanti adottino un approccio di valutazione e gestione del rischio longlife, ribadendo la necessità della partecipazione attiva dell’uomo.
Prevenire il rischio “deskilling” Non è un problema semplice, perché in ultima analisi ci si dovrà sempre assicurare che l’intervento sanitario, sia esso diagnostico o terapeutico, costituisca nei fatti l’espressione della professionalità del medico: questo da un lato a causa della non completa sostituibilità della sensibilità umana necessaria nelle professioni di caregiving (e meno male!), dall’altro per disinnescare il rischio di “deskilling”, ossia l’emorragia di competenze dovuta ad un utilizzo eccessivo e totalizzante della tecnologia (un po’ come il classico alunno che non sa più scrivere in corsivo o fare un’addizione in colonna, per banalizzare).
Nuovi sistemi, nuove competenze Sempre in tema di competenze, occorrerà poi acquisirne di nuove, legate proprio all’impiego dei sistemi di intelligenza artificiale, e saperle integrare con quelle più tradizionali: qui si apre il lungo capitolo della formazione, la cui responsabilità, almeno secondo la pionieristica giurisprudenza a stelle e strisce (in alcuni Stati Usa sono già disponibili sentenze in questo senso), è in prima battuta in capo ai produttori: sono questi ultimi, secondo ad esempio la Corte Suprema dello Stato di Washington, a doversi fare carico di fornire adeguata formazione al personale sanitario incaricato dell’impiego dei nuovi sistemi, pena addirittura, in caso di eventuali danni, la possibilità di incriminazione in virtù di una sorta di “responsabilità oggettiva”.
Quando è a rischio la privacy Altro rischio, sempre con risvolti di natura penale, è quello legato alla riservatezza, o privacy: l’adozione di questi sistemi presuppone banche di dati particolarmente sensibili (le cosiddette “particolari categorie di dati personali”, per rifarsi al GDPR 679/16), e in caso di malfunzionamenti -o attacchi hacker mirati, piuttosto frequenti in sanità come abbiamo avuto modo di constatare- occorre fare molta attenzione. Non si tratta di un rischio peregrino, visti i recenti fatti di cronaca un po’ in tutta Italia: solo per limitarsi ai mesi più recenti, lo scorso giugno un super attacco hacker contro un’azienda sanitaria nel milanese ha provocato un non breve blocco degli interventi chirurgici e ha portato alla pubblicazione online di oltre mille giga (1 terabyte!) di dati estremamente sensibili, tra cui prescrizioni e referti medici.
Il pericolo è concreto! In sostanza, per una sorta di “eterogenesi dei fini” tipica delle dinamiche di società complesse, l’impiego di dati sensibili, di per sé finalizzato alla cura e al benessere dei pazienti, potrebbe invece aumentare il rischio di lesione della loro privacy o di altri diritti fondamentali, non da ultimi quelli legati a una manipolazione dolosa dei dati che renderebbe inefficaci o addirittura dannose le cure. Per questo la struttura sanitaria, oltre a ottenere il consenso della persona che ha in cura e a rilasciare le doverose informative, dovrà dunque accrescere gli standard e i processi di sicurezza, nonché rafforzare i sistemi di controllo e le procedure in caso di “data breach”.
Innovazione sì, ma con consapevolezza e attenzione Tornando sul terreno più squisitamente burocratico, si dovrà fare attenzione anche a rivedere i modelli di informativa e gli incarichi per il trattamento dei dati personali, recependo le innovazioni e le inedite prassi introdotte dall’impiego dell’intelligenza artificiale. Teniamo alta quindi l’asticella dell’attenzione, per governare il progresso e non caderne nostro malgrado in balia. Come sempre accade, a fronte di importanti possibilità aperte dalle nuove tecnologie vi è una nutrita serie di attenzioni e accorgimenti che l’intera struttura sanitaria e il singolo operatore devono avere ben presenti, al fine di gestire più consapevolmente questa ulteriore tappa di una transizione tecnologica e digitale ormai inarrestabile.