Un rapporto dell’OMS rivela che meno del 10% degli Stati membri ha definito standard di responsabilità in caso di errori. L’incertezza normativa è la principale barriera all’adozione e rischia di compromettere sicurezza dei pazienti ed equità delle cure.
L’intelligenza artificiale è già entrata negli ospedali europei, ma le regole per governarla restano largamente assenti. È questo il dato più allarmante che emerge dal rapporto “Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region“, la prima valutazione sistematica condotta dall’Ufficio Regionale per l’Europa dell’OMS sull’integrazione dell’IA nei sistemi sanitari di 50 Paesi.
I numeri parlano chiaro: solo l’8% degli Stati membri ha pubblicato una strategia nazionale specifica per l’IA in sanità. E ancora meno ha sviluppato standard di responsabilità che definiscano obblighi e doveri di produttori e utilizzatori in caso di danni causati da sistemi di IA.
Un vuoto normativo che frena l’innovazione e minaccia i pazienti
L’incertezza legale non è un problema astratto. Secondo l’indagine dell’OMS, rappresenta la principale barriera all’adozione dell’IA in sanità: l’86% dei Paesi la considera un ostacolo di rilevanza maggiore o moderata, più di qualsiasi altro fattore, inclusi i costi.
Questa incertezza produce effetti paradossali. Da un lato, i clinici esitano ad affidarsi a strumenti di cui non comprendono le implicazioni legali. Dall’altro, in assenza di regole chiare, rischiano di delegare eccessivamente alle macchine decisioni che dovrebbero restare sotto controllo umano. In entrambi i casi, a pagare il prezzo sono i pazienti.
Il problema si aggrava quando l’IA viene utilizzata al di fuori dei contesti sanitari tradizionali. App per il benessere, chatbot per la salute mentale, dispositivi indossabili: strumenti che sfuggono spesso alla regolamentazione dei dispositivi medici, ma che influenzano concretamente le scelte di salute delle persone. La linea di confine tra strumenti clinici regolamentati e prodotti consumer vagamente supervisionati diventa sempre più sfumata, lasciando potenziali vuoti nella protezione dei cittadini.
Quando l’algoritmo sbaglia, chi risponde?
La questione della responsabilità è il nodo centrale. Se un sistema di IA fornisce una diagnosi errata o suggerisce un trattamento inappropriato, chi ne risponde? Il produttore del software? L’ospedale che lo ha adottato? Il medico che ha seguito l’indicazione dell’algoritmo?
Oggi, nella grande maggioranza dei Paesi europei, queste domande non hanno risposta. Solo il 14% degli Stati membri sta attualmente sviluppando nuovi standard di responsabilità specifici per l’IA in sanità. Gli altri navigano in un limbo normativo e giurisprudenziale, dove le regole esistenti, pensate per tecnologie diverse, vengono stiracchiate per coprire situazioni impreviste.
Il rapporto dell’OMS sottolinea che la mancanza di standard chiari sulla responsabilità può rendere i clinici riluttanti a utilizzare l’IA oppure, al contrario, eccessivamente dipendenti da essa, aumentando in entrambi i casi i rischi per la sicurezza dei pazienti.
Il rischio di una sanità a due velocità
L’assenza di un quadro regolatorio adeguato non minaccia solo la sicurezza: rischia di amplificare le disuguaglianze nelle cure. I sistemi di IA vengono addestrati su dati che spesso non rappresentano adeguatamente tutte le popolazioni. Senza regole che impongano valutazioni di equità e monitoraggio dei bias, gli algoritmi possono perpetuare o addirittura aggravare disparità esistenti.
Il divario si manifesta anche tra Paesi. Gli Stati con infrastrutture digitali avanzate e framework normativi consolidati sono in grado di integrare l’IA nei loro sistemi sanitari con maggiore rapidità e sicurezza. Gli altri rischiano di restare indietro o, peggio, di adottare tecnologie senza le necessarie garanzie.
L’indagine dell’OMS mostra che questo divario è già visibile. In Europa occidentale, il 71% dei Paesi ha identificato aree prioritarie per l’IA in sanità. In Asia centrale, solo il 25%. Le differenze nella formazione del personale sono altrettanto marcate: nel Nord Europa il 50% dei Paesi offre formazione in servizio sull’IA ai professionisti sanitari, nel Sud Europa solo il 15%.
L’IA generativa: un nuovo fronte scoperto
Un capitolo particolarmente critico riguarda l’IA generativa, quella che alimenta chatbot e assistenti virtuali sempre più sofisticati. Nonostante i rischi documentati di disinformazione, allucinazioni e bias, solo il 6% dei Paesi ha sviluppato requisiti legali specifici per questi sistemi nel settore sanitario.
È un ritardo preoccupante. I modelli linguistici di grandi dimensioni stanno già entrando nelle comunicazioni con i pazienti, nel supporto alle decisioni cliniche e nella sintesi delle informazioni sanitarie. Lo fanno spesso senza che esistano regole chiare su trasparenza, accuratezza e responsabilità.
Cosa chiedono i Paesi per sbloccare l’adozione
L’indagine dell’OMS ha raccolto anche le indicazioni degli Stati membri su quali misure potrebbero facilitare l’adozione dell’IA in sanità. Il consenso è netto: il 92% dei Paesi ritiene che regole chiare sulla responsabilità per produttori, implementatori e utilizzatori avrebbero un impatto positivo significativo. Il 90% indica come essenziali linee guida su trasparenza, verificabilità e spiegabilità delle soluzioni di IA.
Non si tratta di frenare l’innovazione, ma di creare le condizioni perché possa dispiegarsi in modo sicuro. Come evidenzia il rapporto, la regolamentazione non serve solo a mitigare i rischi ma anche a promuovere l’innovazione responsabile, la fiducia del pubblico e l’accesso equo.
Le raccomandazioni dell’OMS
Il rapporto si conclude con indicazioni operative per i decisori politici. Sul fronte normativo, l’OMS raccomanda di stabilire responsabilità chiare per tutti gli attori della catena, dagli sviluppatori ai clinici, con meccanismi accessibili per il risarcimento quando i sistemi di IA causano danni.
Viene sottolineata l’importanza di garantire che gli stakeholder comprendano le componenti chiave dei sistemi di IA, dalle fonti dei dati agli algoritmi, dai processi decisionali ai limiti, validando sicurezza e affidabilità attraverso studi prospettici prima dell’implementazione nella pratica clinica.
L’OMS raccomanda inoltre di integrare linee guida etiche e incentivare la progettazione responsabile, incorporando standard etici, legali e tecnici nei programmi di pre-certificazione e incoraggiando gli sviluppatori ad adottare approcci di sicurezza e diritti umani fin dalla progettazione.
Un’urgenza che non può più attendere
Il messaggio del rapporto è inequivocabile: l’IA sta già trasformando la sanità europea, ma la governance non tiene il passo. Solo l’8% dei Paesi ha una strategia nazionale per l’IA in salute. Meno del 10% ha definito chi risponde quando qualcosa va storto.
Questa forbice tra tecnologia e regole non è sostenibile. Ogni giorno che passa senza un quadro normativo adeguato è un giorno in cui i pazienti sono potenzialmente esposti a rischi non governati, in cui le disuguaglianze rischiano di allargarsi, in cui la fiducia dei cittadini e dei professionisti sanitari viene messa alla prova.
L’intelligenza artificiale può davvero migliorare la salute delle persone. Ma solo se sapremo costruire regole chiare, responsabilità definite e sistemi di controllo efficaci. Il tempo per farlo è adesso.

