L'OMS per un'AI sicura ed etica in ambito sanitario

L'Organizzazione Mondiale della Sanità invita alla cautela...

L'OMS per un'AI sicura ed etica in ambito sanitario

L'Organizzazione Mondiale della Sanità invita alla cautela nell'utilizzo di modelli linguistici di grandi dimensioni generati dall'intelligenza artificiale per proteggere e promuovere il benessere, la sicurezza e l'autonomia delle persone e preservare la salute pubblica

L'OMS per un'AI sicura ed etica in ambito sanitarioI modelli di linguaggio di grandi dimensioni (LLM) sono algoritmi Deep learning capaci di riconoscere contenuti, generarli, riassumerli, tradurli e persino prevederli. Generati dall'intelligenza artificiale (AI), i LLM stanno diventando ogni giorno più popolari grazie a piattaforme come ChatGPT e Bard. Tuttavia, quando si tratta di utilizzare questa tecnologia per scopi sanitari, occorre prestare attenzione, secondo un avviso recentemente pubblicato dall'Organizzazione Mondiale della Sanità (OMS), che esorta una supervisione rigorosa per garantire che l'AI venga utilizzata in modo sicuro, efficace ed etico.

"Sebbene l'OMS sia entusiasta dell'uso appropriato delle tecnologie per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati, si teme che la cautela normalmente prestata nei confronti di qualsiasi nuova tecnologia non venga esercitata in modo coerente con i LLM", afferma l'organizzazione. L'OMS richiama l'attenzione sulla "precipitosa adozione di sistemi non testati", che "potrebbe indurre errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell'AI e quindi minare (o ritardare) i potenziali benefici a lungo termine e gli usi di tali tecnologie".

L'OMS elenca alcuni punti che richiedono una attenta supervisione affinché le tecnologie siano utilizzate in modo sicuro, efficace ed etico:

  • i dati utilizzati per addestrare l'AI possono essere distorti, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l'equità e l'inclusività;
  • i LLM generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto per le risposte relative alla salute;
  • gli LLM possono essere addestrati su dati per i quali potrebbe non essere stato precedentemente fornito il consenso per tale uso, e gli LLM potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un'applicazione per generare una risposta;
  • gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione (contenuti testuali, audio o video) altamente convincente e difficilmente distinguibile dai contenuti sanitari affidabili.

L’OMS raccomanda pertanto ai decisori politici di “garantire la sicurezza e la protezione dei pazienti mentre le aziende tecnologiche lavorano per la diffusione commerciale dei LLM".

Già nel 2021, più di un anno prima che questi strumenti tecnologici raggiungessero l’apice della popolarità, l’OMS aveva pubblicato il documento Ethics and Governance of Artificial Intelligence for Health: WHO Guidance ed evidenziava i rischi legati all'uso non regolamentato dell'AI in ambito clinico, rischi che potrebbero vedere i diritti e gli interessi dei pazienti e delle comunità "subordinati ai potenti interessi commerciali delle aziende tecnologiche o agli interessi dei governi in materia di sorveglianza e controllo sociale".

Dato il numero di piattaforme di AI che sono state rese disponibili al pubblico negli ultimi 6 mesi, non sorprende che questi strumenti possano essere incorporati nella pratica clinica. Per questo risulta di fondamentale importanza la necessità di formare adeguatamente gli operatori sanitari sulle competenze digitali, in modo da garantire che abbiano le conoscenze necessarie per utilizzare in modo appropriato le nuove tecnologie in ambito clinico.

L'OMS per un'AI sicura ed etica in ambito sanitarioI modelli di linguaggio di grandi dimensioni (LLM) sono algoritmi Deep learning capaci di riconoscere contenuti, generarli, riassumerli, tradurli e persino prevederli. Generati dall'intelligenza artificiale (AI), i LLM stanno diventando ogni giorno più popolari grazie a piattaforme come ChatGPT e Bard. Tuttavia, quando si tratta di utilizzare questa tecnologia per scopi sanitari, occorre prestare attenzione, secondo un avviso recentemente pubblicato dall'Organizzazione Mondiale della Sanità (OMS), che esorta una supervisione rigorosa per garantire che l'AI venga utilizzata in modo sicuro, efficace ed etico.

"Sebbene l'OMS sia entusiasta dell'uso appropriato delle tecnologie per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati, si teme che la cautela normalmente prestata nei confronti di qualsiasi nuova tecnologia non venga esercitata in modo coerente con i LLM", afferma l'organizzazione. L'OMS richiama l'attenzione sulla "precipitosa adozione di sistemi non testati", che "potrebbe indurre errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell'AI e quindi minare (o ritardare) i potenziali benefici a lungo termine e gli usi di tali tecnologie".

L'OMS elenca alcuni punti che richiedono una attenta supervisione affinché le tecnologie siano utilizzate in modo sicuro, efficace ed etico:

  • i dati utilizzati per addestrare l'AI possono essere distorti, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l'equità e l'inclusività;
  • i LLM generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto per le risposte relative alla salute;
  • gli LLM possono essere addestrati su dati per i quali potrebbe non essere stato precedentemente fornito il consenso per tale uso, e gli LLM potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un'applicazione per generare una risposta;
  • gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione (contenuti testuali, audio o video) altamente convincente e difficilmente distinguibile dai contenuti sanitari affidabili.

L’OMS raccomanda pertanto ai decisori politici di “garantire la sicurezza e la protezione dei pazienti mentre le aziende tecnologiche lavorano per la diffusione commerciale dei LLM".

Già nel 2021, più di un anno prima che questi strumenti tecnologici raggiungessero l’apice della popolarità, l’OMS aveva pubblicato il documento Ethics and Governance of Artificial Intelligence for Health: WHO Guidance ed evidenziava i rischi legati all'uso non regolamentato dell'AI in ambito clinico, rischi che potrebbero vedere i diritti e gli interessi dei pazienti e delle comunità "subordinati ai potenti interessi commerciali delle aziende tecnologiche o agli interessi dei governi in materia di sorveglianza e controllo sociale".

Dato il numero di piattaforme di AI che sono state rese disponibili al pubblico negli ultimi 6 mesi, non sorprende che questi strumenti possano essere incorporati nella pratica clinica. Per questo risulta di fondamentale importanza la necessità di formare adeguatamente gli operatori sanitari sulle competenze digitali, in modo da garantire che abbiano le conoscenze necessarie per utilizzare in modo appropriato le nuove tecnologie in ambito clinico.


Ultimo aggiornamento: 12 Gennaio 2024

×

Question-Time.it

×

Password dimenticata

Password dimenticata

Indirizzo email non valido

Password dimenticata

Inserisca il suo indirizzo email. Riceverà un messaggio con il link per effettuare il reset della password.