Grazie all’intelligenza artificiale, gli algoritmi che elaborano dati medici aiutano a leggere le immagini in modo sempre più accurato, arrivando persino a suggerire una diagnosi, ma non va trascurato l’elemento della condivisione di dati sensibili sulla salute. Se dal punto di vista medico l’uso della tecnologia offre grandi vantaggi, dal punto di vista normativo può rivelarsi problematico. Un esempio pratico lo si è avuto lo scorso anno quando un accordo tra l’azienda di apprendimento automatico Google DeepMind e l’ospedale londinese Royal Free è stato dichiarato illegale dalle autorità governative.
Questo perché Royal Free non ha rispettato le regole imposte dal Data Protection Act europeo in termini di privacy. Per sperimentare l’impiego dell’intelligenza artificiale nell’individuazione preventiva di malattie ai reni, l’ospedale ha infatti fornito i dati relativi a 1,6 milioni di pazienti a Google DeepMind. L’intento era sicuramente encomiabile, ma le autorità britanniche hanno individuato numerose carenze nel trasferimento dei dati dei pazienti e che i pazienti stessi non sono stati adeguatamente informati che i loro dati sarebbero stati usati per dei test.
La mancanza da parte dell’ospedale Royal Free nel chiedere il consenso dei pazienti non è solo una notizia negativa per la privacy, ma potrebbe anche rallentare o addirittura impedire che l’apprendimento automatico, potenzialmente salvavita, venga utilizzato in ambito sanitario.
Dati indispensabili per addestrare e testare la macchina
Un istituto sanitario dispone di una vasta gamma di dati sui pazienti, dalla prima presentazione alla diagnosi, al trattamento e ai risultati finali. Lo sviluppatore della soluzione di intelligenza artificiale ha bisogno di quei dati per addestrare e testare la sua macchina. L’obiettivo finale è che, dopo aver inserito tutti questi dati, la macchina abbia un comportamento uguale (se non migliore) a quello dei medici umani nella diagnosi o nella raccomandazione di un corso di trattamento.
Per quanto la finalità delle due organizzazioni sia meritoria, qualsiasi accordo che veda un’istituzione sanitaria condividere parte dei dati dei propri pazienti con uno sviluppatore esterno deve tenere pienamente conto dei dati pertinenti e delle norme sui registri sanitari. Se ciò non accade, le conseguenze possono essere gravi.
A seconda della zona del mondo in cui avviene la collaborazione, la condivisione dei dati tra fornitori di servizi sanitari e costruttori di sistemi di intelligenza artificiale potrebbe implicare l’esame delle leggi sulla protezione dei dati dell’UE (incluso l’imminente GDPR, General Data Protection Regulation), piuttosto che il rispetto di quanto imposto dall’Health Insurance Portability and Accountability Act (HIPAA) negli Stati Uniti o da una miriade di equivalenti norme locali in altre giurisdizioni.
I dati personali sensibili e l’elaborazione delle informazioni
All’interno dell’UE, è regolamentata la possibilità di un fornitore di servizi sanitari di condividere i dati dei pazienti che costituiscono “dati personali” con un costruttore di sistemi di intelligenza artificiale per qualsiasi scopo non collegato alla “cura diretta” di un paziente. La maggior parte dei dati medici rientra nella definizione di “dati personali”. Inoltre, tutti i dati personali che riguardano la salute fisica o mentale di una persona sono considerati “dati personali sensibili” e l’elaborazione può avvenire solo in circostanze più limitate.
Anche se vengono rimosse le informazioni identificative di base (come il nome o il codice fiscale del paziente), ci saranno quasi sempre dettagli sufficienti nei record personali per collegare di nuovo tali dati a un individuo. I raggi X, le scansioni e altre immagini mediche non sono sostanzialmente diverse dalle fotografie dal punto di vista della protezione dei dati. Un esperto può riconoscere un individuo abbastanza facilmente dai dati di scansione, nello stesso modo in cui una fotografia identifica immediatamente un individuo. Anche se la maggior parte delle persone non sarebbe in grado di riconoscere un individuo da una Tac, i dati di scansione potrebbero essere utili nell’identificazione non solo per gli esperti: possono infatti essere utilizzati per costruire un modello 3D virtuale dal quale potrebbe essere molto semplice anche per un occhio inesperto associare una persona particolare alla scansione.
La condivisione dei dati passati dei pazienti – record, scansioni, risultati – dovrebbe essere giustificata da uno o più dei motivi previsti dalla legge in materia. Mentre l’attuale regime UE basato sulla direttiva del 1995 stabilisce già dei controlli (per esempio, l’elaborazione di “dati personali sensibili” deve soddisfare i requisiti di cui all’Allegato 3 al Data Protection Act 1998), dal maggio 2018 il regolamento sulla protezione dei dati (GDPR) aggiornerà e armonizzerà l’approccio in tutta l’UE. L’articolo 9, paragrafo 2, lettera h) e l’articolo 9, paragrafo 2, lettera i) consentono il trattamento di dati personali sensibili in relazione alla diagnosi, al trattamento e ai casi in cui sia “necessario per motivi di interesse pubblico nel settore della sanità pubblica, come protezione contro gravi minacce per la salute a carattere transfrontaliero o per garantire elevati livelli di assistenza sanitaria e di medicinali o dispositivi medici “.
I costruttori di sistemi di intelligenza artificiale e gli operatori sanitari devono procedere con cautela quando fanno affidamento sugli articoli 9 (2) (h) e 9 (2) (i) per giustificare la condivisione dei dati. È probabile che saranno interpretati in modo restrittivo dalle autorità competenti.
Le istituzioni sanitarie conservano già veri e propri tesori di dati, ma pochi di essi sono stati raccolti tenendo conto di eventuali consensi che potrebbero essere richiesti per condividere tali dati con sviluppatori di sistemi di intelligenza artificiale esterni.
La ricerca di consensi appropriati per condividere i dati sensibili sulla salute
La sentenza Royal Free / DeepMind citata in precedenza sottolinea che i dati personali non possono essere semplicemente riutilizzati senza ulteriori riflessioni. In alcuni casi, potrebbero essere utilizzate tecniche di pseudonimizzazione o di privacy differenziale che consentono di trarre conclusioni statisticamente valide dai set di dati senza che alcun individuo all’interno di quel set sia identificabile. Tuttavia, in molti casi, il vero valore per gli sviluppatori di soluzioni di intelligenza artificiale deriva dal monitoraggio dei singoli casi nell’intero iter, dalla presentazione alla diagnosi, dal trattamento ai risultati. I fornitori di servizi sanitari devono iniziare a pensare a questo problema ora, mentre si impegnano con i pazienti attuali e nuovi.
La ricerca di consensi appropriati per condividere i dati per le collaborazioni future (previste o probabili) porterà a rendere disponibile il valore sociale, scientifico ed economico di questi set di dati. Se fatte correttamente, queste collaborazioni consentiranno notevoli vantaggi alle generazioni future, che potranno beneficiare delle nuove tecniche e dei trattamenti sviluppati.