L’intelligenza artificiale generativa sta arrivando nel settore sanitario, ma non tutti ne sono contenti

Crediti immagine: Nadezhda Fedronova/Getty/Getty Images

L’intelligenza artificiale generativa, in grado di creare e analizzare immagini, testi, audio, video e altro ancora, si sta facendo sempre più strada nel settore sanitario, con il supporto di grandi aziende tecnologiche e startup.

Google Cloud, la divisione servizi e prodotti cloud di Google, sta collaborando con Highmark Health, un'azienda sanitaria senza scopo di lucro con sede a Pittsburgh, su strumenti di intelligenza artificiale generativa progettati per personalizzare l'esperienza di assunzione dei pazienti. La divisione AWS di Amazon afferma che sta lavorando con clienti senza nome su un modo per utilizzare l'intelligenza artificiale generativa per l'analisi Banche dati mediche per i “determinanti sociali della salute”. Microsoft Azure sta contribuendo a creare un sistema di intelligenza artificiale generativa per Providence, la rete sanitaria senza scopo di lucro, per ordinare automaticamente i messaggi inviati dai pazienti agli operatori sanitari.

Notevoli startup di intelligenza artificiale nel settore sanitario includono Ambience Healthcare, che sta sviluppando un'applicazione di intelligenza artificiale generativa per i medici; Nabla, assistente AI ambientale per i professionisti; e Abridge, che crea strumenti analitici per la documentazione medica.

Il diffuso entusiasmo per l’intelligenza artificiale generativa si riflette negli investimenti negli sforzi di intelligenza artificiale generativa rivolti all’assistenza sanitaria. Complessivamente, fino ad oggi, l’intelligenza artificiale generativa nelle startup sanitarie ha raccolto decine di milioni di dollari in capitale di rischio, e la stragrande maggioranza degli investitori nel settore sanitario afferma che l’intelligenza artificiale generativa è stata un enorme successo. Sono rimasto molto colpito Le loro strategie di investimento.

Ma sia i professionisti che i pazienti non sono d’accordo sulla questione se l’IA generativa focalizzata sull’assistenza sanitaria sia pronta per il debutto.

L’intelligenza artificiale generativa potrebbe non essere ciò che la gente desidera

In L'ultimo sondaggio di Deloitte, solo circa la metà dei consumatori americani (53%) ha affermato di ritenere che l’intelligenza artificiale generativa possa migliorare l’assistenza sanitaria, ad esempio rendendola più accessibile o riducendo i tempi di attesa per gli appuntamenti. Meno della metà ha dichiarato di aspettarsi che un’intelligenza artificiale produttiva renda le cure mediche più accessibili.

Andrew Borkowski, responsabile dell’intelligenza artificiale presso Virginia Sunshine Healthcare Network, il più grande sistema sanitario VA negli Stati Uniti, non crede che questo pessimismo sia ingiustificato. Borkowski ha avvertito che l’implementazione dell’intelligenza artificiale generativa potrebbe essere prematura a causa dei suoi limiti “significativi” e delle preoccupazioni sulla sua efficacia.

“Uno dei problemi principali dell’intelligenza artificiale generativa è la sua incapacità di gestire domande mediche complesse o situazioni di emergenza”, ha dichiarato a TechCrunch. “La sua base di conoscenze limitata – ovvero l’assenza di informazioni cliniche aggiornate – e la mancanza di esperienza umana lo rendono inadatto a fornire consulenza medica completa o raccomandazioni terapeutiche”.

READ  Il volo dello United per Houston è stato dirottato a causa di un "problema meccanico"; "Tutti erano spaventati", dice il passeggero.

Molti studi indicano che questi punti sono validi.

In un articolo pubblicato su JAMA Pediatrics, ChatGPT, il chatbot generato dall'intelligenza artificiale di OpenAI, che alcune organizzazioni sanitarie hanno sperimentato per casi d'uso limitati, Scoperto di commettere errori Diagnosi delle malattie infantili nell'83% dei casi. E dentro Test GPT-4 di OpenAI come assistente diagnostico, i medici del Beth Israel Deaconess Medical Center di Boston hanno notato che il modello classificava la diagnosi sbagliata come prima risposta quasi due volte su tre.

L'intelligenza artificiale generativa di oggi ha difficoltà anche con le attività amministrative mediche che sono parte integrante del flusso di lavoro quotidiano dei medici. Nel benchmark di MedAlign per valutare quanto bene l'intelligenza artificiale può fare cose come riassumere le cartelle cliniche dei pazienti e cercare tra le note, GPT-4 fallisce nel 35% dei casi.

OpenAI e molti altri fornitori di intelligenza artificiale generativa Mettono in guardia dal fare affidamento sui loro modelli per una consulenza medica. Ma Borkowski e altri dicono che possono fare di più. “Affidarsi esclusivamente all’intelligenza artificiale generativa nel settore sanitario può portare a false diagnosi, trattamenti inappropriati o persino situazioni pericolose per la vita”, ha affermato Borkowski.

Jan Egger, che dirige le terapie guidate dall'intelligenza artificiale presso l'Istituto di intelligenza artificiale in medicina dell'Università di Duisburg-Essen e che studia le applicazioni della tecnologia emergente alla cura dei pazienti, condivide le preoccupazioni di Borkowski. Ritiene che attualmente l’unico modo sicuro per utilizzare l’intelligenza artificiale ostetrica nell’assistenza sanitaria sia sotto la stretta supervisione e il monitoraggio di un medico.

“I risultati potrebbero essere completamente sbagliati e diventa più difficile mantenerne la consapevolezza”, ha detto Egger. “Certamente, l’intelligenza artificiale generativa può essere utilizzata, ad esempio, per pre-scrivere le lettere di dimissione, ma i medici hanno la responsabilità di verificarla e prendere la decisione finale.

L’intelligenza artificiale generativa può perpetuare gli stereotipi

Un modo particolarmente dannoso in cui l’IA generativa nel settore sanitario può andare storto è perpetuare gli stereotipi.

In uno studio del 2023 presso Stanford Medicine, un team di ricercatori ha testato ChatGPT e altri chatbot generati dall’intelligenza artificiale su domande sulla funzionalità renale, sulla capacità polmonare e sullo spessore della pelle. I coautori hanno scoperto che non solo le risposte di ChatGPT erano spesso sbagliate, ma includevano anche molte convinzioni errate di lunga data secondo cui esistono differenze biologiche tra i bianchi e i neri, falsità che sono note per portare gli operatori sanitari a diagnosticare erroneamente i problemi sanitari .

READ  I russi si affrettano a prelevare dollari USA dagli sportelli automatici mentre il tasso di cambio del rublo scende a un minimo storico

L’ironia della sorte è che i pazienti che hanno maggiori probabilità di essere discriminati dall’intelligenza artificiale generativa nel settore sanitario sono anche quelli che hanno maggiori probabilità di utilizzarla.

Persone che non hanno copertura sanitaria – Persone di colore, in gran parte, secondo uno studio di KFF – sono più disposti a provare l'intelligenza artificiale generativa per cose come trovare un medico o supporto per la salute mentale, ha mostrato un sondaggio di Deloitte. Se le raccomandazioni sull’intelligenza artificiale fossero viziate da pregiudizi, ciò potrebbe esacerbare le disuguaglianze di trattamento.

Tuttavia, alcuni esperti sostengono che l’intelligenza artificiale generativa sta migliorando in questo senso.

In uno studio di Microsoft pubblicato alla fine del 2023, I ricercatori hanno affermato di aver raggiunto una precisione del 90,2%. Su quattro benchmark medici impegnativi utilizzando GPT-4. Vanilla GPT-4 non è riuscita a raggiungere questo risultato. Ma, dicono i ricercatori, attraverso un’ingegneria rapida – progettando vettori per GPT-4 per produrre output specifici – sono stati in grado di aumentare il risultato del modello fino a 16,2 punti percentuali. (Vale la pena notare che Microsoft è uno dei principali investitori in OpenAI.)

Oltre i chatbot

Ma porre una domanda a un chatbot non è l’unica cosa a cui è utile l’intelligenza artificiale generativa. Alcuni ricercatori affermano che l’imaging medico potrebbe trarre grandi vantaggi dal potere dell’intelligenza artificiale generativa.

A luglio, un gruppo di scienziati ha svelato un sistema chiamato cRinvio basato sull'integrazione del flusso di lavoro clinico (CoDoC), in uno studio pubblicato su Nature. Il sistema è progettato per capire quando i professionisti dell’imaging medico dovrebbero affidarsi all’intelligenza artificiale per la diagnosi rispetto alle tecniche tradizionali. Secondo i coautori, CoDoC ha ottenuto risultati migliori rispetto agli specialisti, con una riduzione del 66% del flusso di lavoro clinico.

E nel novembre a Gruppo di ricerca sperimentale cinese Panda, un modello di intelligenza artificiale utilizzato per rilevare potenziali lesioni pancreatiche nei raggi X. UN Lo studio ha mostrato PANDA deve prestare molta attenzione nel classificare queste lesioni, che spesso vengono scoperte troppo tardi per l'intervento chirurgico.

Infatti, Arun Thirunavukkarasu, ricercatore clinico presso l’Università di Oxford, ha affermato che non c’è “niente di unico” nell’intelligenza artificiale generativa che ne impedisca l’implementazione in contesti sanitari.

READ  Gli investitori stanno esaminando la domanda di veicoli elettrici, la direzione e la roadmap del prodotto una volta esaurite le scorte

“Sono possibili applicazioni più banali della tecnologia dell’intelligenza artificiale generativa In A breve e medio termine, includono la correzione del testo, la documentazione automatica di note e lettere e funzionalità di ricerca migliorate per migliorare le cartelle cliniche elettroniche dei pazienti. “Non vi è alcun motivo per cui la tecnologia dell’intelligenza artificiale generativa, se è efficace, non possa essere implementata”. In Questi tipi di ruoli sono perfetti.

“scienza rigorosa”

Ma mentre l’intelligenza artificiale generativa si dimostra promettente in aree specifiche e ristrette della medicina, esperti come Borkowski sottolineano gli ostacoli tecnici e di conformità che devono essere superati prima che l’intelligenza artificiale generativa possa diventare utile – e affidabile – come strumento sanitario ausiliario universale.

“Significativi problemi di privacy e sicurezza circondano l’uso dell’intelligenza artificiale generativa nel settore sanitario”, ha affermato Borkowski. “La natura sensibile dei dati medici e il potenziale uso improprio o accesso non autorizzato agli stessi pone gravi rischi alla riservatezza dei pazienti e alla fiducia nel sistema sanitario. Inoltre, il panorama normativo e legale che circonda l’uso dell’intelligenza artificiale generativa nel settore sanitario è ancora in evoluzione Rimangono domande relative alla responsabilità, alla protezione dei dati e alla pratica medica da parte di entità non umane che devono essere risolte.

Anche Thirunavkarasu, un ottimista sull’intelligenza artificiale generativa nel settore sanitario, afferma che dietro gli strumenti rivolti ai pazienti dovrebbe esserci “scienza dura”.

“Soprattutto senza una supervisione medica diretta, devono esserci studi pragmatici di controllo randomizzato che dimostrino benefici clinici per giustificare l’implementazione dell’IA ostetrica rivolta al paziente”, ha affermato. “Andare avanti con una sana governance è essenziale per superare eventuali danni imprevisti derivanti da un dispiegamento su larga scala”.

L’Organizzazione Mondiale della Sanità ha recentemente pubblicato linee guida che richiedono questo tipo di scienza e supervisione umana dell’IA generativa nel settore sanitario, nonché l’introduzione di audit, trasparenza e valutazioni di impatto di questa IA da parte di terzi indipendenti. L’obiettivo, che l’Organizzazione Mondiale della Sanità delinea nelle sue linee guida, è incoraggiare la partecipazione di un gruppo eterogeneo di persone allo sviluppo dell’intelligenza artificiale generativa per l’assistenza sanitaria e l’opportunità di esprimere preoccupazioni e fornire input durante tutto il processo.

“Fino a quando le preoccupazioni non saranno adeguatamente affrontate e non saranno messe in atto adeguate garanzie, un’implementazione diffusa dell’intelligenza artificiale medica potrebbe essere… dannosa per i pazienti e per il settore sanitario nel suo complesso”, ha affermato Borkowski.



Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto