La direttrice del Dipartimento del Commercio dello Utah, Margaret Woolley Busse, parla di «innovazione responsabile». John Whyte, Ceo dell’American Medical Association, è del parere opposto: «Nonostante l’intelligenza artificiale abbia infinite opportunità di trasformare la medicina in meglio, senza il contributo del medico presenta anche gravi pericoli per i pazienti e i medici». La Food and Drug Administration(FDA) non ha assunto una posizione in merito, limitandosi a spiegare che la questione «non rientra nelle sue competenze regolatorie».
Il rimando è all’iniziativa dello Utah, che – in collaborazione con Doctronic, startup di tecnologia sanitaria fondata nel 2023 da Adam Oskowitz, professore associato di chirurgia all’Università della California San Francisco, e Matt Pavelle, oggi co-amministratore delegato – ha avviato un test pilota che permette a un sistema di intelligenza artificiale di partecipare legalmente al processo decisionale medico per il rinnovo delle prescrizioni di 190 farmaci di uso comune. Sono esclusi quelli per l’ADHD, gli iniettabili e gli antidolorifici.
Come funziona
Doctronic ha sottoposto ai regolatori dello Utah dati su 500 casi di cure urgenti: il sistema di IA ha concordato con i medici nel 99,2% dei casi. Il programma pilota, che terminerà a fine 2026, ha fissato per il paziente un costo di 4 dollari a rinnovo. “Temporaneamente”, sottolineano dalla startup. In futuro, infatti, potrebbe scendere ancora, essere coperto dalle assicurazioni o compreso in un abbonamento annuale.
Come funziona? L’assistito che accede alla piattaforma Doctronic conferma di trovarsi fisicamente nello Stato dello Utah (requisito legale); a questo punto, il sistema di intelligenza artificiale verifica tramite geolocalizzazione, recupera la storia farmacologica, presenta l’elenco dei farmaci rinnovabili.
Tutto ponendo le stesse domande cliniche di un medico. Se i risultati acquisiti restituiscono il “semaforo verde”, la prescrizione viene inviata direttamente alla farmacia scelta dal paziente; al contrario – dunque nel caso emergano valori anonimi o interazioni sospette, per fare solo due esempi – il sistema di IA si rivolge a un medico umano.
Possibili rischi
Il programma pilota – che arriva quasi in concomitanza con l’avvento di ChatGpt Health e i dubbi sulla sua gestione delle emergenze, il sistema che OpenAI ha sviluppato in collaborazione con oltre 260 medici attivi in 60 Paesi – non è però anch’esso esente da rischi, specie di utilizzo improprio: persone con problemi di dipendenza potrebbero cercare di eludere il sistema per ottenere farmaci.

E ancora, c’è il pericolo di mancata individuazione di “alert” clinici o di interazioni farmacologiche che, invece, un medico umano coglierebbe. Non da ultimo, sussiste il rischio di errori statistici: quel 0,8% di casi in cui l’intelligenza artificiale è in disaccordo con i medici potrebbe declinarsi, su scala, in migliaia di prescrizioni errate. Le aspettative, comunque, restano alte: anche l’Arizona, il Texas e il Missouri, di concerto con Doctronic, starebbero negoziando programmi simili.
Tutto ciò avviene a un anno dall’introduzione della proposta di legge “Healthy Technology Act 2025”, a cura del rappresentante repubblicano David Schweikert, al Congresso degli Stati Uniti. Una proposta che potrebbe segnare una svolta epocale per la medicina negli Usa.
Il fine è modificare la “Section 503(b)” del Federal Food, Drug, and Cosmetic Act – la legge federale che disciplina la sicurezza e l’efficacia di farmaci, dispositivi medici e prodotti alimentari – e riconoscere quindi alle tecnologie di AI/ML (Artificial Intelligence/Machine Learning) lo status di “praticanti autorizzati”.
All’atto pratico, questo permetterebbe loro di prescrivere farmaci ai pazienti in modo automatizzato, senza la necessità di interventi umani.


