Intelligenza Artificiale e Medicina

L’articolo che segue è stato tradotto interamente dall’intelligenza artificiale. E’ stato creato in gran parte con l’IA. Persino l’empatia che Uomini Illuminati hanno insegnato all’intelligenza artificiale, è meglio di quella che disponiamo noi medici, a volte. Isaac Asimov scriveva romanzi di fantascienza, nella sua epoca. Oggi lo definirei un mediocre profeta. Leggetelo, è interessante.

ChatGPT (Intelligenza Artificiale) vs chirurgo: la sfida dell’informazione.

Dopo aver esplorato il campo della medicina di precisione a livello molecolare, genetico e radiologico, l’intelligenza artificiale (IA) potrebbe rapidamente giocare un ruolo nell’interazione tra pazienti e medici. I grandi modelli di linguaggio (LLM, large language model) sono reti neurali in grado di afferrare il contesto, il tono, le sottigliezze e gli aspetti culturali del linguaggio.

Essi vengono utilizzati come IA generativa, ossia capaci di produrre nuovi testi o nuovi dati simili a quelli con cui sono stati addestrati.

I chatbot rappresentano un esempio di utilizzo tra i più conosciuti degli LLM. Si tratta di robot conversazionali che permettono di rispondere rapidamente alle domande degli utenti su prodotti, prestazioni o servizi. ChatGPT è il pioniere e il più noto di questi LLM.

Ricercatori di un centro tedesco, esperto in chirurgia del pancreas, hanno voluto testare la capacità di ChatGPT di rispondere alle domande dei pazienti riguardo alla chirurgia del cancro del pancreas, confrontando le risposte fornite da due chirurghi specialisti.

La valutazione delle risposte è stata effettuata da pazienti ed esperti medici, tenendo conto della precisione delle informazioni, della loro chiarezza per un pubblico non specialista e della loro dimensione empatica.1

intelligenza artificiale e medicina

10 domande, 2 chirurghi e ChatGPT

Dieci domande comuni poste dai pazienti prima di un intervento chirurgico per il cancro al pancreas sono state selezionate in collaborazione con un gruppo di pazienti esperti dell’ospedale di Heidelberg. ChatGPT (versione 4.0) e due chirurghi esperti hanno risposto in modo indipendente a queste domande.

Un pannello di 24 pazienti e 25 chirurghi ha valutato queste risposte utilizzando un questionario online anonimo. I criteri di valutazione includevano la precisione delle risposte, la loro accessibilità per un non specialista e la loro capacità di esprimere empatia.

La valutazione delle risposte rivelava diverse tendenze. I pazienti ritenevano che le risposte di ChatGPT fossero comparabili a quelle dei chirurghi in termini di precisione e chiarezza. ChatGPT ha ottenuto punteggi leggermente superiori in materia di empatia rispetto a uno dei chirurghi.

I pazienti preferivano le risposte del primo chirurgo nel 50% dei casi, quelle di ChatGPT nel 30% dei casi, mentre il secondo chirurgo non veniva mai scelto come migliore risposta. I chirurghi riconoscevano meglio le risposte generate dall’IA rispetto ai pazienti, che avevano maggiori difficoltà a differenziare le risposte umane da quelle dell’IA.

intelligenza artificiale e medicina

Uno strumento complementare che ha delle limitazioni

Questi risultati dimostrano che ChatGPT può essere uno strumento complementare nella comunicazione paziente-medico, in particolare per fornire spiegazioni chiare e accessibili su argomenti medici complessi. Risultati simili sono stati pubblicati per il cancro colo-rettale e la prevenzione delle patologie cardiovascolari.23

Tuttavia, l’IA presenta alcune limitazioni. Infatti, ChatGPT non è specificamente progettato per la medicina e può generare errori o “allucinazioni”, fenomeni sorprendenti a prima vista ma ben noti agli specialisti dell’IA (e sempre più al grande pubblico!).4

Questi errori sono dovuti al funzionamento intrinseco degli LLM e al loro modo di apprendere, che non consiste in un immagazzinamento, ma in un calcolo matematico. L’IA non riconosce il testo, ma crea frammenti chiamati token che rappresentano un segmento di parola con un identificativo matematico unico.

A volte è anche legato alla documentazione a cui il LLM si riferisce e, a seconda delle sue competenze, può “leggere” solo una parte. Alcuni LLM, ad esempio, non leggono i grafici né le infografiche. Infine, alcuni si auto-limitano in termini di riferimenti. È quindi importante rimanere sempre diffidenti rispetto alle risposte fornite dall’IA generativa.

In ogni caso, non sembra desiderabile al momento che l’IA sostituisca il fondamentale rapporto umano tra il medico e il paziente, in particolare per affrontare gli aspetti emotivi della malattia. È inoltre necessario segnalare chiaramente quando una risposta proviene da un’IA per evitare confusioni per i pazienti.

Infine, la questione della responsabilità medica in caso di errore commesso dall’IA rimane un tema cruciale da risolvere prima di una più ampia adozione in ambito clinico. Questa questione è simile a quella della responsabilità in caso di incidente con un veicolo autonomo.

intelligenza artificiale e medicina

Bibliografia

  1. Klotz R, Pausch TM, Kaiser J, et al. ChatGPT vs. surgeons on pancreatic cancer queries: accuracy & empathy evaluated by patients and experts. HPB (Oxford). 2024 Dec 3:S1365-182X(24)02427-4. doi: 10.1016/j.hpb.2024.11.012. ↩︎
  2. Sarraju A, Bruemmer D, Van Iterson E, et al. Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model. JAMA. 2023 Mar 14;329(10):842-844. doi: 10.1001/jama.2023.1044. ↩︎
  3. Emile SH, Horesh N, Freund M, et al. How appropriate are answers of online chat-based artificial intelligence (ChatGPT) to common questions on colon cancer? Surgery. 2023 Nov;174(5):1273-1275. doi: 10.1016/j.surg.2023.06.005. ↩︎
  4. Six N et Larousserie D. Le Monde, 2024. https://www.lemonde.fr/pixels/article/2024/06/17/faut-il-s-inquieter-des-hallucinations-des-ia-comme-chatgpt-ou-gemini_6240971_4408996.ht ↩︎

Comments are closed