Usando questo sito si accetta l'utilizzo dei cookie per analisi, contenuti personalizzati e annunci.

ChatGPT (Chat Generative Pre-trained Transformer) è un modello di elaborazione del linguaggio naturale che utilizza algoritmi di apprendimento basati su vasti quantitativi di dati provenienti da internet. Esso genera risposte simili a quelle che proporrebbe un essere umano alle richieste degli utenti. È stato sviluppato da OpenAI e rilasciato nel novembre 2022. I Transformers sono un'architettura impiegata principalmente nel campo della processazione del linguaggio naturale, mirata a risolvere compiti come la traduzione linguistica. ChatGPT analizza le parole fornite dagli utenti nell’input e predice quali parole seguiranno per andare a generare una risposta coerente in uno stile simile a quello umano. Ad oggi é stato ottimizzato per compiti linguistici come la generazione ed il completamento di testi, la traduzione, l'analisi del sentimento del testo, la generazione, nonché la spiegazione di codici di programmazione.
Finora, ChatGPT ha superato esami importanti come l'esame MBA della Wharton School, esami di giurisprudenza e l'esame di licenza medica degli Stati Uniti (USMLE). Il suo potenziale ruolo nella medicina è stato esplorato con risultati variabili. Le possibili applicazioni di ChatGPT in medicina includono il supporto alle decisioni mediche, dove può essere utilizzato come motore di ricerca avanzato per fornire rapidamente informazioni su condizioni cliniche, proposte di trattamento ed interazioni farmacologiche, offrendo raccomandazioni basate sulle evidenze. È stato studiato inoltre nell’ambito della predizione degli esiti prognostici dei pazienti. In aggiunta, può assistere i medici nella gestione delle cartelle mediche e nell'elaborazione di accurati riassunti del decorso della degenza, mirati alla compilazione di lettere di dimissione. Oltre a ciò, i grandi modelli di linguaggio come ChatGPT possono servire come strumenti educativi per studenti di medicina e tirocinanti clinici, permettendo loro di interagire con l'intelligenza artificiale per porre e/o rispondere a domande cliniche, facilitando così l'apprendimento medico.
ChatGPT ha il potenziale per fornire risposte precise e aggiornate a domande specifiche e tecniche, ma può anche essere un robusto strumento educativo, superiore o equivalente all'apprendimento da libri di testo o dalla letteratura scientifica. Può migliorare la comunicazione tra operatori sanitari, pazienti e famiglie, sia per spiegare o tradurre informazioni tecniche che per fornire sintesi di informazioni specialistiche e comprensibili a tutti. Inoltre, ChatGPT può assistere nel processo di scrittura di articoli scientifici, identificare domande di ricerca, fornire una panoramica dello stato attuale di un settore scientifico ed aiutare con attività come la formattazione di un testo o la revisione del contenuto e del linguaggio.
Bisogna prestare attenzione alle limitazioni ed ai rischi associati ai grandi modelli di linguaggio, come la tendenza di ChatGPT a produrre risposte convincenti ma errate o prive di senso, noto come "fenomeno di allucinazione". Inoltre, é possibile utilizzare in modo improprio questi modelli per scopi come la falsificazione di dati di ricerca, la generazione di notizie false o la commissione di plagio. È importante sottolineare come ChatGPT sia un modello di apprendimento automatico e, come tale, abbia delle limitazioni e possa essere utilizzato in modi errati, sia consapevolmente che inconsapevolmente. Uno dei rischi principali è proprio il sopracitato fenomeno delle "allucinazioni", in cui ChatGPT può produrre risposte apparentemente credibili ma errate o prive di senso, come inventare contenuti di pubblicazioni scientifiche, citare riferimenti bibliografici inesistenti o scrivere relazioni di casi su malattie inesistenti. Per questo, ad oggi ChatGPT non può sostituire l'esperienza di professionisti sanitari esperti, e le sue raccomandazioni devono essere sempre prese in considerazione nel contesto delle circostanze del singolo paziente.
Oltre a ChatGPT, tutti i grandi modelli di linguaggio attualmente esistenti possono essere oggetto di abusi, poiché hanno la capacità di generare dati e testi dall'aspetto convincente per un qualsiasi lettore. Questi abusi possono includere la falsificazione di dati o risultati di ricerca per soddisfare i requisiti di finanziamento o pubblicazione, la generazione di notizie false o disinformazione e il plagio. Ciò comporta gravi implicazioni quali il rischio di introdurre non solo errori ma anche contenuti plagiati nelle pubblicazioni, con conseguenze sul futuro della ricerca di qualsiasi settore, nonché sulle decisioni politiche nel campo della salute basate su informazioni non veritiere.
Un ulteriore difetto dei LLM (Large Language Models), come ChatGPT, è che vengono allenati su archivi di dati clinici preesistenti, i quali potrebbero contenere di per sé dei pregiudizi, portando il modello a rischiare di perpetuare i pregiudizi stessi. Ad esempio, poiché la maggior parte delle pubblicazioni scientifiche viene prodotta da Paesi ad alto reddito, le risposte di ChatGPT si baseranno sulle evidenze prodotte da questi Paesi, e la loro applicabilità nei contesti a basso e medio reddito dovrà essere messa in discussione. Inoltre, la privacy dei dati rappresenta una preoccupazione significativa riguardo alle informazioni condivise con ChatGPT attraverso le richieste degli utenti. Ciò potrebbe comportare la divulgazione involontaria di informazioni sensibili e la loro esposizione al pubblico, poiché ogni richiesta degli utenti viene incorporata nel database di ChatGPT e potrebbe essere utilizzata per migliorare l'addestramento dello strumento e potenzialmente inserita nelle risposte alle richieste di altri utenti.
Infine, i LLM avanzati rappresentano una fonte di preoccupazioni e rischi più ampi per la società, come sottolineato da esperti di apprendimento automatico e opinion leader, che chiedono di sospendere l'addestramento di questi modelli. Anche se è improbabile che i LLM possano mai sostituire completamente i medici, se potessero superare gli esami a cui i medici sono sottoposti, suggerire diagnosi differenziali, piani di indagini e trattamenti, riassumere informazioni e comunicare efficacemente con i pazienti e i loro familiari, cosa rimarrebbe da fare per i medici umani?
In conclusione, i LLM come ChatGPT dovrebbero essere considerati come potenziali strumenti preziosi per supportare il personale medico e non medico nelle attività quotidiane, nell'educazione e nella ricerca. Tuttavia, è essenziale che gli utenti siano consapevoli delle limitazioni e dei possibili abusi di questi strumenti, inclusa la loro capacità di generare risposte apparentemente confidenti ma completamente errate o perpetuare pregiudizi e disuguaglianze esistenti. Il campo dei LLM è in continua evoluzione e si prevede un rapido progresso nella performance, nella sicurezza e nella consapevolezza delle incertezze di questi strumenti.

 

Bibliografia di riferimento

  • Abd-Alrazaq A, AlSaad R, Alhuwail D, et al. Large language models in medical education: opportunities, challenges, and future directions. JMIR Med Educ 2023;9:e48291.
  • Athaluri SA, Manthena SV, Kesapragada VSRKM, et al. Exploring the boundaries of reality: investigating the phenomenon of artificial intelligence hallucination in scientific writing through ChatGPT references. Cureus 2023;15:e37432.
  • Au Yeung J, Kraljevic Z, Luintel A, et al. AI chatbots not yet ready for clinical use. Front Digit Health 2023;5:1161098.
  • Currie G, Singh C, Nelson T, et al. ChatGPT in medical imaging higher education. Radiography (Lond.) 2023;29:792-799.
  • Komorowski M, Del Pilar Arias López M, Chang AC. How could ChatGPT impact my practice as an intensivist? An overview of potential applications, risks and limitations. Intensive Care Med 2023;49:844-847.
  • Kung TH, Cheatham M, Medenilla A, et al. Performance of ChatGPT on USMLE: potential for AI-assisted medical education using large language models. PLOS Digital Health 2023;2:e0000198
  • Levine DM, Tuwani R, Kompa B, et al. The diagnostic and triage accuracy of the GPT-3 artificial intelligence model. medRxiv 2023;2023.01.30.23285067.
  • Manolitsis I, Feretzakis G, Tzelves L, et al. Training ChatGPT models in assisting urologists in daily practice. Stud Health Technol Inform 2023;305:576-579.
  • Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove. Nature 2023;613:620-621.
  • Waisberg E, Ong J, Masalkhi M, et al. GPT-4: a new era of artificial intelligence in medicine. Ir J Med Sci 2023.
  • The AI writing on the wall. Nat Mach Intell 2023;5:1.