L'Organizzazione Mondiale della Sanità invita alla cautela nell'utilizzo di modelli linguistici di grandi dimensioni generati dall'intelligenza artificiale per proteggere e promuovere il benessere, la sicurezza e l'autonomia delle persone e preservare la salute pubblica
I modelli di linguaggio di grandi dimensioni (LLM) sono algoritmi Deep learning capaci di riconoscere contenuti, generarli, riassumerli, tradurli e persino prevederli. Generati dall'intelligenza artificiale (AI), i LLM stanno diventando ogni giorno più popolari grazie a piattaforme come ChatGPT e Bard. Tuttavia, quando si tratta di utilizzare questa tecnologia per scopi sanitari, occorre prestare attenzione, secondo un avviso recentemente pubblicato dall'Organizzazione Mondiale della Sanità (OMS), che esorta una supervisione rigorosa per garantire che l'AI venga utilizzata in modo sicuro, efficace ed etico.
"Sebbene l'OMS sia entusiasta dell'uso appropriato delle tecnologie per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati, si teme che la cautela normalmente prestata nei confronti di qualsiasi nuova tecnologia non venga esercitata in modo coerente con i LLM", afferma l'organizzazione. L'OMS richiama l'attenzione sulla "precipitosa adozione di sistemi non testati", che "potrebbe indurre errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell'AI e quindi minare (o ritardare) i potenziali benefici a lungo termine e gli usi di tali tecnologie".
L'OMS elenca alcuni punti che richiedono una attenta supervisione affinché le tecnologie siano utilizzate in modo sicuro, efficace ed etico:
L’OMS raccomanda pertanto ai decisori politici di “garantire la sicurezza e la protezione dei pazienti mentre le aziende tecnologiche lavorano per la diffusione commerciale dei LLM".
Già nel 2021, più di un anno prima che questi strumenti tecnologici raggiungessero l’apice della popolarità, l’OMS aveva pubblicato il documento Ethics and Governance of Artificial Intelligence for Health: WHO Guidance ed evidenziava i rischi legati all'uso non regolamentato dell'AI in ambito clinico, rischi che potrebbero vedere i diritti e gli interessi dei pazienti e delle comunità "subordinati ai potenti interessi commerciali delle aziende tecnologiche o agli interessi dei governi in materia di sorveglianza e controllo sociale".
Dato il numero di piattaforme di AI che sono state rese disponibili al pubblico negli ultimi 6 mesi, non sorprende che questi strumenti possano essere incorporati nella pratica clinica. Per questo risulta di fondamentale importanza la necessità di formare adeguatamente gli operatori sanitari sulle competenze digitali, in modo da garantire che abbiano le conoscenze necessarie per utilizzare in modo appropriato le nuove tecnologie in ambito clinico.
Ultimo aggiornamento: 28 Giugno 2023
Password dimenticata
Indirizzo email non valido
Inserisca il suo indirizzo email. Riceverà un messaggio con il link per effettuare il reset della password.