Le indicazioni dell’OMS per la sicurezza in ambito AI

Le indicazioni dell'OMS per la sicurezza in ambito AI

OMS e AI: le indicazioni per un uso consapevole e sicuro

L’Intelligenza Artificiale è una tecnologia sempre più diffusa e utilizzata in diversi ambiti della vita quotidiana, incluso quello della salute, ma come per ogni innovazione tecnologica, è importante considerare gli aspetti legati alla sicurezza e gestione del rischio.

Per questo motivo l’Organizzazione Mondiale della Sanità (OMS), riconoscendo il grande potenziale dell’IA nell’accelerare la trasformazione digitale dell’assistenza sanitaria, nella nuova pubblicazione Regulatory considerations on Artificial Intelligence for health, elenca le principali considerazioni normative sull’Intelligenza Artificiale volte a promuovere un uso sicuro, efficace e responsabile della stessa in ambito sanitario.

Il documento, che fornisce indicazioni alle autorità pubbliche sull’IA applicata alla sanità, si inserisce nella strategia globale OMS sulla salute digitale 2020-2025 che mira a migliorare la salute di tutti in qualsiasi luogo e a qualunque età, tramite lo sviluppo e l’adozione di tecnologie digitali appropriate, accessibili, economiche, scalabili, sostenibili e incentrate sulla persona, al fine di prevenire, rilevare e rispondere alle malattie.

L’OMS evidenzia che l’IA offre numerose possibilità in ambito sanitario che possono rendere più efficienti e accurate le attività di prevenzione, diagnosi, trattamento e monitoraggio delle malattie, rafforzare l’erogazione dei servizi sanitari alle popolazioni meno servite, migliorare la sorveglianza della salute pubblica, far progredire la ricerca sanitaria e lo sviluppo di farmaci, supportare la gestione dei sistemi sanitari che si trovano sotto pressione e consentire ai professionisti di eseguire diagnosi mediche complesse, in modo da perfezionare i percorsi di cura e assistenza.

Tuttavia, spesso le tecnologie di IA esistenti ed emergenti, compresi i modelli linguistici di grandi dimensioni, vengono usate senza che vi sia una piena comprensione di come tali sistemi possano funzionare e sui potenziali benefici o danni per gli utenti finali, inclusi gli operatori sanitari e i pazienti.

Di conseguenza, per facilitare l’uso sicuro e appropriato dell’IA e garantire la protezione dei dati sensibili e la sicurezza di tutti i soggetti coinvolti nelle attività sanitarie, l’OMS, insieme a Unione Internazionale delle Telecomunicazioni (UIT), ha istituito FG-AI4H, un Focus Group sull’Intelligenza Artificiale per la salute.

FG-AI4H, a sua volta, ha creato diversi gruppi di lavoro, tra cui il Working Group on Regulatory Considerations, in cui autorità regolatorie, responsabili politici e soggetti dell’università e dell’industria interessati all’adozione dell’IA nella sanità si sono occupati di regolamentazione e “buone pratiche”, tenendo conto dei rischi e delle opportunità offerte dalle nuove tecnologie.

Considerazioni normative dell’OMS sull’AI nella sanità: 6 aree tematiche

L’Intelligenza Artificiale è sempre più usata in sanità. Si pensi ai dispositivi medici che supportano il processo decisionale clinico e facilitano la valutazione dei dati, riducendo gli errori e migliorando il triage. L’IA è impiegata anche nello sviluppo di nuove terapie e farmaci e aiuta a identificare i trattamenti migliori e prevedere la risposta dei pazienti.

Oltre a rispettare elevati standard di qualità e integrità dei dati, i sistemi di Intelligenza Artificiale devono essere sicuri ed efficaci. Un obiettivo che secondo l’OMS può essere raggiunto solo con un dialogo continuo tra tutte le parti che compongono l’ecosistema dell’IA per la salute (in particolare, sviluppatori, produttori, autorità di regolamentazione, utenti e pazienti).

L’OMS ha identificato sei aree chiave per la definizione di una regolamentazione dell’Intelligenza Artificiale applicata alla salute:

  1. Documentation and transparency: per promuovere la fiducia, l’OMS sottolinea l’importanza della trasparenza e della documentazione, ad esempio documentando l’intero ciclo di vita del prodotto e monitorando i processi di sviluppo;
  2. Risk management and artificial intelligence systems development lifecycle approach: per la gestione del rischio, questioni come l’«uso previsto», l’«apprendimento continuo», gli interventi umani, i modelli di addestramento e le minacce alla sicurezza informatica devono essere affrontati in modo completo, con modelli più semplici possibile;
  3. Intended use and analytical and clinical validation: la convalida esterna dei dati e la chiarezza sull’uso previsto dell’IA aiutano a garantire la sicurezza e a facilitare la regolamentazione;
  4. Data Quality: l’impegno per la qualità dei dati, ad esempio attraverso una rigorosa valutazione dei sistemi prima del rilascio, è fondamentale per garantire che i sistemi non amplifichino distorsioni ed errori;
  5. Privacy and data protection: le sfide poste da normative importanti e complesse, come il GDPR in Europa e l’Health Insurance Portability and Accountability Act (HIPAA) negli Stati Uniti d’America, devono essere affrontate con particolare attenzione alla comprensione dell’ambito di applicazione della giurisdizione e dei requisiti di consenso, al servizio della privacy e della protezione dei dati;
  6. Engagement and collaboration: promuovere la collaborazione tra gli organismi di regolamentazione, i pazienti, gli operatori sanitari, i rappresentanti del settore e i partner governativi può contribuire a garantire che i prodotti e i servizi rimangano conformi alle normative durante tutto il loro ciclo di vita.
Articolo precedenteDirettiva NIS 2 cybersecurity, cos’è e come mettersi in regola
Articolo successivoFatturazione elettronica forfettari: le nuove modalità di delega