Lanciato a gennaio 2026, ChatGPT Health è diventato rapidamente uno dei consulenti sanitari digitali più utilizzati. Tuttavia, un team di ricercatori ha deciso di sottoporre l’algoritmo a uno stress test rigoroso utilizzando 60 vignette cliniche (scritte da medici esperti) incrociate con 16 diverse condizioni fattoriali, per un totale di 960 risposte. Lo studio pubblicato su Nature Medicine solleva non poche preoccupazioni.

I risultati rivelano una performance “a U rovesciata”: il sistema è preciso nelle situazioni cliniche ordinarie, ma diventa pericolosamente inaffidabile agli estremi e, soprattutto, nelle emergenze critiche.

Emergenze declassate: il rischio del “sotto-triage”

L’aspetto più allarmante emerso dalla ricerca riguarda la gestione dei casi tempo-dipendenti. Tra le emergenze classificate come “gold-standard”:

  • Il 52% dei casi è stato sottovalutato: il sistema ha declassato l’urgenza nel rilevare quadri clinici critici;
  • Errori specifici: pazienti con chetoacidosi diabetica o insufficienza respiratoria imminente sono stati istruiti a cercare una valutazione entro 24-48 ore, ignorando la necessità di un accesso immediato al Pronto Soccorso;
  • Successo parziale: l’IA si è dimostrata affidabile solo per emergenze “da manuale” con sintomi classici, come l’ictus o l’anafilassi.

L’influenza dell’”Anchoring Bias”

Lo studio ha inoltre evidenziato come l’IA sia suscettibile ai condizionamenti esterni. Se nel descrivere i sintomi il paziente riportava che “familiari o amici minimizzavano il problema” (anchoring bias), la raccomandazione di ChatGPT Health virava significativamente verso cure meno urgenti.

L'aspetto più allarmante emerso dalla ricerca riguarda la gestione dei casi tempo-dipendenti.
L’aspetto più allarmante emerso dalla ricerca riguarda la gestione dei casi tempo-dipendenti

Questo dimostra una mancanza di “coraggio clinico” dell’algoritmo, che tende a assecondare il tono del racconto del paziente piuttosto che i parametri oggettivi di gravità.

Sicurezza e salute mentale: l’attivazione imprevedibile dei protocolli

Un altro aspetto critico evidenziato dallo studio di Nature Medicine riguarda la gestione dei messaggi di allerta per le crisi di salute mentale. Idealmente, davanti a segnali di ideazione suicidaria, l’IA dovrebbe attivare immediatamente protocolli di salvaguardia (come l’invio di contatti per centri antiviolenza o numeri di emergenza).

Tuttavia, i ricercatori hanno riscontrato un’attivazione del tutto imprevedibile e illogica:

  • Il sistema ha attivato i messaggi di crisi più frequentemente quando i pazienti descrivevano malesseri vaghi e senza un piano specifico;
  • Al contrario, paradossalmente, le risposte di emergenza sono state meno frequenti proprio quando i pazienti fornivano dettagli concreti e descrivevano un metodo specifico per compiere l’atto.
Un altro aspetto critico evidenziato dallo studio di Nature Medicine riguarda la gestione dei messaggi di allerta per le crisi di salute mentale. Davanti a segnali di ideazione suicidaria, l'IA dovrebbe attivare immediatamente protocolli di salvaguardia
Un altro aspetto critico evidenziato dallo studio di Nature Medicine riguarda la gestione dei messaggi di allerta per le crisi di salute mentale. Davanti a segnali di ideazione suicidaria, l’IA dovrebbe attivare immediatamente protocolli di salvaguardia ma i ricercatori hanno riscontrato un’attivazione del tutto imprevedibile e illogica

Questa incoerenza dimostra che gli algoritmi di sicurezza attuali non sono ancora in grado di distinguere correttamente la gravità del rischio psichiatrico, fallendo proprio nel momento di massimo pericolo per l’utente.

Implicazioni per la farmacia territoriale

Per il farmacista di comunità, questi dati sono un campanello d’allarme. Il cittadino che consulta l’IA prima di recarsi in farmacia potrebbe arrivare con una falsa percezione di sicurezza, convinto di poter attendere ore o giorni per sintomi che richiederebbero un intervento immediato.

La competenza professionale del farmacista resta quindi il filtro indispensabile per:

  1. Riconoscere i “falsi rassicurati” dall’IA, specialmente in presenza di sintomi sfumati legati a gravi patologie respiratorie o metaboliche;
  2. Contrastare i bias del paziente, che l’Intelligenza Artificiale non è ancora in grado di neutralizzare;
  3. Validare il triage, ricordando che, ad oggi, l’IA manca di quella validazione prospettica necessaria per garantire la sicurezza del paziente su scala consumer.

 

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here