Sommario
L’Università di Buffalo annuncia un risultato che segna una svolta nella storia dell’intelligenza artificiale applicata alla medicina clinica: il sistema Semantic Clinical Artificial Intelligence (SCAI), sviluppato dai ricercatori della Jacobs School of Medicine, ha ottenuto un punteggio del 95,2% nella terza parte degli esami statunitensi di abilitazione medica (USMLE Step 3), superando sia GPT-4 Omni che la media dei medici abilitati. Il dato, pubblicato su JAMA Network Open, apre una nuova prospettiva sull’uso delle tecnologie semantiche per il supporto alle decisioni cliniche, spostando l’AI da semplice strumento a partner decisionale attivo.
SCAI non è un generatore statistico: struttura semantica e ragionamento clinico alla base delle sue risposte
Diversamente dalle IA generative tradizionali, che basano la risposta su associazioni statistiche apprese da internet, SCAI è costruito per ragionare in modo simile a un medico in formazione, utilizzando una base formale di 13 milioni di fatti clinici organizzati in reti semantiche. Ogni fatto è espresso attraverso triplette soggetto-relazione-oggetto (es. “penicillina tratta polmonite pneumococcica”), che permettono inferenze logiche sofisticate e contestualizzate.
Il sistema elimina dai suoi dataset tutti i contenuti potenzialmente soggetti a bias, come note cliniche soggettive, focalizzandosi su linee guida, dati genomici, letteratura recente, interazioni farmacologiche e documentazione di sicurezza del paziente. Questo approccio strutturato consente a SCAI di rispondere a domande complesse con un livello di coerenza e precisione non raggiunto da altri modelli linguistici.
Risultati USMLE: SCAI stabilisce un nuovo standard per l’AI clinica
La valutazione delle performance si è basata sugli esami USMLE, considerati la prova più completa per la certificazione medica negli Stati Uniti. Le domande che richiedevano interpretazione visiva sono state escluse, ma tutte le altre sono state sottoposte al sistema. SCAI ha superato ogni altra IA testata, incluso GPT-4 Omni, che ha ottenuto un punteggio del 90,5%.
Secondo il responsabile del progetto, Peter L. Elkin, MD, SCAI non solo eccelle nei test, ma è progettato per assistere realmente nella pratica clinica, sostenendo il processo decisionale in tempo reale attraverso il ragionamento semantico. È già accessibile al pubblico e ai professionisti tramite l’interfaccia: halsted.compbio.buffalo.edu/chat.
Come funziona SCAI: knowledge graph, inferenza semantica e riduzione della confabulazione
La forza di SCAI risiede nella capacità di combinare modelli linguistici di grandi dimensioni con un sistema di knowledge graph ad alta precisione. Il modello non si limita a produrre risposte, ma interroga basi di dati esterne attraverso la tecnica di retrieval-augmented generation, ottenendo informazioni in tempo reale e diminuendo la probabilità di confabulazione – ovvero la generazione di risposte false in mancanza di dati.
Ogni processo decisionale è basato su semantica formale, che permette a SCAI di mantenere coerenza interna e contesto. Questo lo distingue nettamente da strumenti come ChatGPT o Bard, i cui output possono essere convincenti ma non affidabili clinicamente.
Un assistente medico, non un sostituto: SCAI democratizza l’accesso alle cure specialistiche
Il valore di SCAI non sta solo nei punteggi ottenuti, ma nella capacità di ampliare l’accesso alla medicina di precisione. Con una base di conoscenza dinamica e interrogabile, lo strumento permette a medici di base di accedere in tempo reale a competenze specialistiche, migliorando la qualità delle decisioni cliniche. Il sistema può anche essere usato da pazienti esperti, educatori e ricercatori per valutazioni indipendenti e consultazioni personalizzate.
SCAI non sostituisce il medico, ma potenzia chi lo utilizza, afferma Elkin. “Un medico che usa l’AI potrà sostituire un medico che non lo fa, ma l’AI da sola non sostituirà mai la medicina basata sulla relazione umana.”