Il primo agosto 2024 è entrata in vigore la legge europea sull’intelligenza artificiale, l’AI Act. Si tratta del primo regolamento globale sull’intelligenza artificiale (IA) al mondo, che mira a promuovere lo sviluppo e la diffusione responsabili dell’IA nell’UE.
Applicato a svariati settori, inclusa la sanità, l’AI Act ha compiuto i primi passi nel 2021 con la proposta da parte della Commissione europea ed è stabilito che la maggior parte delle sue norme troveranno applicazione a partire dall’agosto 2026.
Si tratta dunque di un percorso articolato, in cui diversi attori hanno contribuito, e potranno ancora farlo, alla definizione ed effettiva implementazione di questa norma rivoluzionaria.
Indice degli argomenti
-L’applicazione dell’IA al settore sanitario
-Motivi di entusiasmo per l’applicazione dell’IA nel settore sanitario
-Le priorità dell’opinione pubblica in materia di politica sanitaria
-Motivi di preoccupazione per l’applicazione dell’IA nel settore sanitario
-Rischi di pregiudizi
-Mancanza di diversità
-Decisioni distorte basate sull’IA
-Protezione della privacy e della riservatezza
-Protezione della proprietà intellettuale e dei segreti commerciali
-Migliorare la fiducia dei pazienti
-Le sfide per l’Ue e i Paesi membri
-Come si inserirà il nuovo regolamento all’interno della legislazione in essere
-Obiettivi inconciliabili?
-Come conciliare un processo legislativo lungo su tematiche caratterizzate da rapidi cambiamenti
-Il necessario sostegno alle Autorità
L’applicazione dell’IA al settore sanitario
Assieme a diversi stakeholder, abbiamo approfondito quali sono le implicazioni dell’AI Act nello specifico per il settore della sanità. Lo abbiamo fatto da una prospettiva che considera non solo il contesto specifico in cui la legge nasce ed è destinata ad una applicazione diretta, ossia l’UE e i suoi paesi membri, ma anche i potenziali risvolti su scala globale.
Partiamo da una considerazione: l’applicazione dell’IA nel settore sanitario non è equivalente a quella in altri settori. Il punto di partenza può essere medesimo: l’IA è portatrice di una serie di benefici rivoluzionari insieme ad alcuni importanti rischi; ma la posta in gioco è decisamente più alta. Ha infatti a che fare con i nostri dati personali più sensibili. E le sue conseguenze impattano direttamente la nostra vita.
Come l’UE, anche il resto del mondo si sta occupando di regolamentare l’intelligenza artificiale con la differenza che l’UE, con l’AI Act, ha dato alla luce quello che può essere considerata la prima (e al momento unica) legislazione più completa e influente in materia.
Quando l’UE ha approvato il suo regolamento generale sulla protezione dei dati (GDPR) nel 2016, ha stabilito un nuovo standard molto elevato per la privacy online. Molte imprese hanno scelto di seguire le leggi del l’UE anche quando operano al di fuori del l’Europa; aderire a un unico standard a livello mondiale era preferibile rispetto a seguire un mosaico di standard in diverse giurisdizioni. Dunque, anche con l’intelligenza artificiale, l’Europa potrebbe ancora una volta stabilire le regole del gioco globale.
Motivi di entusiasmo per l’applicazione dell’IA nel settore sanitario
Nell’annunciare l’AI Act, il Parlamento europeo ha elencato i “molti vantaggi dell’IA.” Il primo in quella lista, davanti a energia sostenibile, produzione più efficiente e trasporto più pulito, era proprio quello di “una migliore assistenza sanitaria.”
Il New England Journal of Medicine ha scritto che l’IA “offre enormi promesse per migliorare quasi tutti gli aspetti di come forniamo e riceviamo cure.” Gli strumenti basati sull’IA potrebbero consentire ai pazienti di autodiagnosticarsi, e anche di risparmiare tempo agli operatori sanitari riducendo la documentazione. Gli algoritmi basati sull’IA potrebbero trasformare il modo in cui ricerchiamo e trattiamo le malattie rare, identificando modelli che sarebbero difficili o impossibili da rilevare per gli analisti umani, mentre la modellazione predittiva potrebbe prevedere come queste malattie rare progrediscono, consentendo un trattamento più mirato.
E la lista continua. L’IA potrebbe contribuire a creare sperimentazioni virtuali che integrino le prove cliniche, il che significa che medicinali, vaccini, dispositivi e procedure potrebbero raggiungere la popolazione più rapidamente e con costi di sviluppo inferiori. I modelli di “Digital twins” potrebbero aiutare a prevedere come un paziente può rispondere ad una procedura o farmaco. “Can AI help heal the world?” si domandava The Economist nel 2022; una domanda che già allora appariva del tutto retorica.
Le priorità dell’opinione pubblica in materia di politica sanitaria
A fronte di queste prospettive di applicazione l’entusiasmo della popolazione è molto alto. Brunswick ha recentemente condotto un sondaggio tra la popolazione maggiorenne di Italia, Germania, Francia e Spagna per comprendere le priorità dell’opinione pubblica in materia di politica sanitaria. I 2.000 intervistati (500 per Paese) sono stati interpellati su numerosi aspetti, tra cui l’uso dell’IA nel settore sanitario.
Ne emerge un quando interessante, dove la maggioranza della popolazione mostra entusiasmo all’idea di utilizzare l’IA artificiale in ambito sanitario (italiani e spagnoli in particolare), specie tra coloro che sono giovani, con una buona condizione finanziaria e in salute.
In particolare, è interessante osservare come la maggior parte dei rispondenti identifica proprio nelle applicazioni dell’IA la soluzione più efficace per rispondere a quelli che ad oggi risultano le maggiori criticità strutturali del sistema sanitario: i tempi di attesa per accesso a trattamenti e cure e la carenza di professionisti.
Motivi di preoccupazione per l’applicazione dell’IA nel settore sanitario
I principali rischi dell’IA nell’assistenza sanitaria, secondo un report datato 2022 del Parlamento europeo, sono: “potenziali errori e danni al paziente; rischio di pregiudizi e maggiori disuguaglianze sanitarie; mancanza di trasparenza e fiducia; e vulnerabilità agli attacchi informatici e alle violazioni della privacy.” Sebbene alcuni di questi rischi non siano specifici dell’assistenza sanitaria, le loro conseguenze lo sono.
Rischi di pregiudizi
Pensiamo al rischio di pregiudizio, per esempio. L’intelligenza artificiale si basa su grandi quantità di dati. In ambito sanitario, questo significa dati personali relativi alla salute. Tali dati potrebbero riflettere e perpetuare diversi tipi di pregiudizi, che possono essere particolarmente concentrati su gruppi e minoranze più vulnerabili.
Mancanza di diversità
Il nostro collega Ben Hirschler ha evidenziato la mancanza di diversità nelle sperimentazioni cliniche: “Le sperimentazioni cliniche sono insufficienti perché non riflettono in modo accurato la diversità dei diversi gruppi di pazienti”, ha scritto. “Questo significa che i dati che generano non riescono a cogliere l’intero quadro dei benefici (e talvolta degli effetti negativi) che la medicina moderna può apportare.” L’IA potrebbe ulteriormente aumentare la diffusione e l’applicazione errata di tali dati distorti.
C’è una vicenda, che è emblematica di questo rischio, su una chatbot di IA a cui è stato chiesto: “Il medico e l’infermier* si sono sposati e uno/a è rimasta incinta. Chi è rimasto incinta?” La risposta della chatbot è stata: l’infermiera. Informato che si trattava di un infermiere uomo, la chatbot non ha capito la domanda in quanto non poteva cogliere che il medico era una donna e l’infermiere un uomo.
Tali pregiudizi e dati non rappresentativi comportano rischi per i pazienti. “Ciò può portare a decisioni distorte basate sull’IA, che possono ulteriormente accentuare le disparità sanitarie, la discriminazione, il trattamento ineguale e l’accesso ineguale all’assistenza sanitaria”, ha sottolineato Milana Trucl, responsabile delle politiche per il Forum europeo dei pazienti, un’organizzazione senza scopo di lucro i cui membri rappresentano collettivamente più di 150 milioni di pazienti in tutta Europa.
Decisioni distorte basate sull’IA
Tali pregiudizi e dati non rappresentativi comportano rischi per i pazienti. “Ciò può portare a decisioni distorte basate sull’IA, che possono ulteriormente accentuare le disparità sanitarie, la discriminazione, il trattamento ineguale e l’accesso ineguale all’assistenza sanitaria”, ha sottolineato Milana Trucl, responsabile delle politiche per il Forum europeo dei pazienti, un’organizzazione senza scopo di lucro i cui membri rappresentano collettivamente più di 150 milioni di pazienti in tutta Europa.
Protezione della privacy e della riservatezza
Un’altra preoccupazione è la protezione della privacy e della riservatezza sia per i pazienti che per le aziende. I pazienti ovviamente non vogliono che i loro dati siano usati o accessibili senza il loro consenso, o per scopi per cui non sono d’accordo. “Anche il limitato coinvolgimento dei pazienti durante lo sviluppo dell’IA comporta un rischio, in quanto può portare a soluzioni che non soddisfano adeguatamente le esigenze specifiche del paziente”, afferma Trucl. “Tra i principali rischi individuati vi sono anche la mancanza di regole chiare in materia di responsabilità, supervisione umana e trasparenza, nonché la fuga, la divulgazione non autorizzata o l’uso involontario dei dati sanitari. Tale trattamento e uso improprio di dati sensibili potrebbe avere conseguenze di vasta portata.”
Protezione della proprietà intellettuale e dei segreti commerciali
Per le aziende, la protezione della proprietà intellettuale e dei segreti commerciali è di primaria importanza. L’IA generativa in particolare può porre sfide a entrambi: “il sistema di IA non è progettato per distinguere tra informazioni riservate e non riservate,” Reuters ha riferito nel dicembre 2023. “L’input non sarà considerato segreto commerciale e l’output non sarà considerato segreto commerciale…”
Man mano che l’IA si integra in più aspetti dell’assistenza c’è anche il timore che l’IA possa sostituire piuttosto che aiutare i fornitori di assistenza sanitaria. Mentre la tecnologia rende le cure più efficienti, si teme infatti che potrebbe anche ridurre l’empatia rendendo il processo guidato dai dati piuttosto che dai medici. Sara Roda, consulente politica del CPME [Comitato Permanente dei Medici Europei], afferma che l’organizzazione preferisce il termine “intelligenza aumentata”: “l’IA dovrebbe essere utilizzata per migliorare le competenze dei medici e le capacità specifiche”, dice Roda. Avere medici che co-progettano l’IA in sanità aiuterà a garantire quel rapporto complementare.
Migliorare la fiducia dei pazienti
Una sfida finale, che è forse la più importante è quella della fiducia. Che potrebbe migliorare il modo in cui pazienti, professionisti della sanità e politici diventano “AI literate“, ossia consapevoli di ciò che significa per loro, il loro lavoro, i loro dati, le loro vite. Dimostrare che le soluzioni e gli strumenti basati sull’IA sono affidabili sarà dunque fondamentale per garantire questo processo.
Molte delle considerazioni avanzate sui rischi dell’IA in sanità trovano anche conferma dai risultati del già menzionato sondaggio a cura di Brunswick.
È infatti fondamentale ricordare che esiste una significativa minoranza di cittadini ancora poco propensa all’utilizzo dell’IA in sanità. In particolare, sono molto preoccupati dai potenziali errori e dal rischio di creare danni ai pazienti, così come dalla paura di generare perdita di posti di lavoro. In aggiunta a queste preoccupazioni, gli italiani in particolare si aspettano che ci sia una forte regolamentazione degli aspetti legati alla trasparenza dei processi governati dall’IA.
Di queste sfide e rischi dovrà sicuramente tenerne conto la comunità di stakeholder dell’UE chiamata a portare a compimento nei prossimi anni il processo di implementazione del AI Act, così come il resto del mondo.
Le sfide per l’Ue e i Paesi membri
Guardando invece specificamente all’UE e i suoi paesi membri, abbiamo individuato tre sfide “esclusive”.
Come si inserirà il nuovo regolamento all’interno della legislazione in essere
Come la legislazione specifica per l’IA si inserirà nella legislazione già esistente del settore sanitario, in particolare il regolamento sui dispositivi medici (MDR) e il regolamento sui dispositivi medico-diagnostici in vitro (IVDR). Lo stesso vale per il modo in cui si inserirà nella legislazione futura, come quella che istituirà lo spazio europeo dei dati sanitari.
“L’AI Act rappresenta un significativo passo avanti nella regolamentazione della protezione dei dati sanitari,” dice Patrick Boisseau, direttore generale di MedTech Europe, l’associazione professionale leader per l’industria delle tecnologie mediche. “È imperativo rafforzare le misure esistenti e allinearsi alle norme settoriali come MDR/IVDR, ma anche alla legislazione orizzontale come il GDPR, i diritti di proprietà intellettuale e la direttiva sui diritti di segreto commerciale.”
Sofia Palmieri, ricercatrice presso l’Università di Gent che si è concentrata sulle sfide giuridiche ed etiche del l’IA nel settore sanitario, teme che “nonostante il MDR sia un regolamento piuttosto recente, potrebbe non essere in grado di riassumere le caratteristiche specifiche che giustificavano una regolamentazione speciale per l’IA”. In tal senso è “particolarmente preoccupata per la convalida clinica dei sistemi di IA che continuano a imparare dai nuovi dati ricevuti. Occorre esaminare attentamente l’attuale normativa sui dispositivi medici per valutare se possa garantire la sicurezza clinica e l’efficacia di questo tipo di sistema di IA nel tempo.”
Come sia Boisseau che Palmieri alludono, il panorama legislativo è dunque complicato e lo diventerà ancora di più.
Obiettivi inconciliabili?
Due degli obiettivi dichiarati dell’UE sono di “promuovere … il benessere dei suoi cittadini” e “il progresso scientifico e tecnologico.” Pertanto, da un lato, l’applicazione dell’IA è considerato un acceleratore in questo senso, dato il suo potenziale nel favorire il progresso nella maggior parte dei settori, incluso quello sanitario.
Dall’altro, tuttavia due dei valori fondatori dell’UE sono “libertà” e “diritti umani”, e l’Europa ha la reputazione di adottare leggi severe come la GDPR per proteggere i diritti individuali e la privacy. La natura dell’intelligenza artificiale crea inevitabilmente nuove e profonde sfide per molti diritti e libertà. Il modo di equilibrare questi obiettivi concorrenti non è necessariamente unico per l’Europa, ma sicuramente la scelta in questo ambito sarà molto critica.
Come conciliare un processo legislativo lungo su tematiche caratterizzate da rapidi cambiamenti
Effy Vayena, professore fondatore del laboratorio di etica e politica sanitaria presso l’ETH di Zurigo, e Andrew Morris, direttore di Health Data Research UK, hanno scritto che la legislazione in materia di IA “dovrà tenere il passo con gli sviluppi tecnologici in corso, cosa che non avviene attualmente. Dovrà anche tener conto della natura dinamica degli algoritmi, che apprendono e cambiano nel tempo.”
Questa sfida è amplificata dal processo legislativo europeo. Prendiamo l’EU AI Act: la Commissione europea lo ha proposto nel 2021; il Consiglio dell’UE ha adottato l’approccio generale nel 2022 e a metà del 2023 il Parlamento europeo ha espresso la propria posizione. La nuova legge è entrata in vigore ad agosto 2024 e, come scrivevamo, avrà una piena applicazione nell’arco di due anni. La GDPR addirittura ha radici normative che risalgono a più di due decenni.
I proponenti affermano che un approccio così misurato produce una legislazione efficace e ponderata. Gli autori, d’altro canto, temono che un simile approccio sia troppo rigido per la tecnologia che sta cercando di regolare. È stato soprannominato “il problema della Regina Rossa“, riferendosi al consiglio della Regina Rossa ad Alice in “Attraverso lo Specchio”: “Ora qui, vedi, ci vuole tutta la corsa che puoi fare, per rimanere nello stesso posto. Se vuoi andare da qualche altra parte, devi correre due volte più veloce!”
Il necessario sostegno alle Autorità
Alcuni mesi fa l’OMS ha pubblicato un elenco di considerazioni per la regolamentazione dell’IA nel settore sanitario. Il passo finale di tale elenco è stato: “Promuovere la collaborazione tra organismi di regolamentazione, pazienti, professionisti del settore sanitario, rappresentanti del l’industria e partner governativi.” Tale collaborazione, secondo Patrick Boisseau di MedTech Europe, è parte integrante del l’UE nel raggiungimento di un delicato equilibrio: proteggere i dati sanitari personali, dare la priorità all’innovazione e migliorare gli outcome sanitari.
Per le imprese dunque sarà importante, tenendo conti dei rischi discussi e delle aspettative dei vari stakeholder, accompagnare l’implementazione di questa nuova legislazione comunicando la propria visione di valore dell’IA nella sanità sia ai politici che al pubblico in generale, mentre si cerca di trovare un equilibrio tra gli obiettivi a volte contrastanti della politica pubblica. Comunicare questo valore richiederà una volontà di adattarsi al cambiamento dello scenario e la capacità di articolare un messaggio credibile, chiaro e pertinente.
Per tutto il dibattito su come l’Europa dovrebbe regolare l’IA, c’è in ogni caso un aspetto che non viene messo in discussione: ossia che rimane ancora in corso. Si tratta di una discussione a cui le organizzazioni sanitarie e le aziende hanno l’opportunità di partecipare e possibilmente di contribuire a definirne la forma.
Testo a cura di: Francesca Scassellati Sforzolini
Partner, Healthcare and Lifesciences Global Lead di Brunswick
Cesare Calabrese
Associate di Brunswick