L’Ia meglio del medico
ma bisogna vigilare

C’è stato un tempo in cui solo gli scrittori di fantascienza potevano immaginare che una macchina fosse capace di pensare. Oggi, invece, l’intelligenza artificiale (IA) è entrata a pieno titolo nelle nostre vite: ci suggerisce cosa ascoltare, ci aiuta a cercare foto, guida le nostre auto e, sempre più spesso, affianca i medici nel loro lavoro quotidiano. Ma questa rivoluzione, che appare improvvisa, è in realtà il frutto di un lungo e affascinante percorso che affonda le sue radici in secoli di pensiero filosofico, matematico e scientifico.

Già nel Seicento, pensatori come René Descartes immaginavano il corpo umano come una macchina complessa, suggerendo che anche la mente potesse essere compresa e forse replicata attraverso strumenti meccanici. Gottfried Wilhelm Leibniz ipotizzava un linguaggio universale del pensiero umano, anticipando l’idea di una logica computazionale. Galileo Galilei, dal canto suo, dichiarava che il libro dell’universo è scritto in lingua matematica e solo attraverso quella si può davvero capire il mondo. Queste intuizioni, apparentemente astratte, hanno gettato le basi per lo sviluppo di una scienza che, secoli dopo, avrebbe permesso la nascita dell’intelligenza artificiale.

Matematica e salute

Nel XIX secolo, la matematica entra per la prima volta in modo sistematico nella medicina. Il medico francese Pierre-Charles-Alexandre Louis, con il suo “metodo numerico”, contribuisce alla nascita della statistica clinica. In Inghilterra, John Snow mappa la diffusione del colera, inaugurando l’epidemiologia moderna. Nello stesso periodo, Charles Babbage progetta la prima macchina calcolatrice programmabile e Ada Lovelace scrive il primo algoritmo, anticipando il concetto di software. Lungo questo filo rosso si innesta poi il lavoro di George Boole, che crea la logica binaria, e quello di Alan Turing, padre dell’informatica moderna, che negli anni ’30 dimostra come una macchina possa eseguire qualunque calcolo logico.

La storia dell’intelligenza artificiale in medicina si può ripercorrere attraverso cinque grandi fasi. La prima, tra gli anni Quaranta e Settanta, è quella della simulazione del cervello umano. Nascono i primi modelli teorici di neuroni artificiali, come quelli descritti da Warren McCulloch e Walter Pitts nel 1943, e viene coniato il termine “intelligenza artificiale” alla conferenza di Dartmouth del 1956. In questo periodo si costruiscono i primi sistemi in grado di giocare a scacchi o risolvere problemi matematici, gettando le basi per una nuova disciplina.

La seconda fase, tra gli anni Settanta e Ottanta, è quella dei cosiddetti sistemi esperti. Si tratta di software in grado di risolvere problemi specialistici, come la diagnosi medica, grazie alla conoscenza codificata di esperti umani. Questi programmi, basati inizialmente su logiche deterministiche e poi probabilistiche, ottengono successi importanti ma mostrano anche limiti evidenti: non riescono a gestire l’ambiguità, l’esperienza tacita e il buon senso, elementi essenziali nel ragionamento clinico.

La terza fase, tra gli anni Ottanta e il Duemila, coincide con l’ascesa del machine learning, ovvero la capacità dei sistemi di apprendere dai dati. Grazie all’introduzione dell’algoritmo di retropropagazione degli errori (backpropagation), le reti neurali artificiali diventano in grado di migliorarsi da sole, apprendendo da esempi concreti. Questi strumenti superano molti limiti della statistica classica: non richiedono che le variabili siano indipendenti o che i dati seguano distribuzioni lineari, e si adattano meglio alla complessità delle malattie croniche e multifattoriali. In questo nuovo paradigma, non si cerca più di forzare i dati entro modelli predefiniti, ma si lascia che sia il modello a modellarsi sui dati.

La quarta fase, a partire dagli anni Duemila, è quella del deep learning, ovvero delle reti neurali profonde. Grazie all’aumento della potenza computazionale – favorita anche dall’uso delle schede grafiche (GPU) nate per i videogiochi – i modelli diventano capaci di analizzare enormi quantità di dati e di riconoscere pattern sempre più complessi. Le applicazioni in medicina si moltiplicano: software basati su deep learning vengono approvati per la diagnosi automatica di retinopatia diabetica, tumori al seno e ai polmoni, patologie cutanee, deterioramento cognitivo e molto altro. In alcuni casi, le loro prestazioni sono equiparabili – se non superiori – a quelle dei medici specialisti.

Questo salto tecnologico ha reso possibili nuove architetture, come le reti generative avversarie (GAN), che creano immagini realistiche a partire da dati sintetici, o i meccanismi di attenzione, alla base dei modelli di linguaggio più avanzati. Inoltre, ha permesso la produzione di “dati sintetici” sicuri, privi di informazioni personali, ma statististicamente coerenti con i dati reali, utili per addestrare sistemi di IA senza rischi per la privacy.

Infine, l’ultima fase, ancora in corso, è quella dei grandi modelli linguistici, come GPT. Questi sistemi sono capaci di comprendere e generare testo, sintetizzare cartelle cliniche, rispondere a domande mediche, supportare la stesura di documenti sanitari o trascrivere dialoghi tra medico e paziente.

Dopo l’uscita di ChatGPT, la ricerca in ambito clinico ha subito un’accelerazione impressionante. Alcuni studi hanno persino rilevato che le risposte fornite da sistemi di IA possono essere percepite come più accurate e più empatiche rispetto a quelle fornite dai medici. Tuttavia, non mancano le ombre: la maggior parte degli studi utilizza dati sintetici o simulati, e solo una minima parte si basa su dati reali provenienti da pazienti. Inoltre, non esiste ancora uno standard condiviso per valutare la sicurezza, l’accuratezza o il rischio di bias di questi sistemi.

Punto di svolta

L’intelligenza artificiale può rappresentare una svolta epocale per la medicina. Noi a Villa Santa Maria, ad esempio, la utilizziamo da oltre 10 anni per le nostre attività di ricerca scientifica sotto forma di reti neurali, sofisticati sistemi di analisi che consentono di elaborare moli enormi di dati che altrimenti non sarebbero gestibili. Ma, come ogni tecnologia, deve essere usata con responsabilità, competenza e spirito critico. Non può e non deve sostituire il giudizio clinico umano, ma può rappresentare un prezioso alleato, in grado di potenziare le capacità del medico, ridurre gli errori, migliorare l’accesso alle cure.

In conclusione, l’IA è uno strumento, non un fine. Deve servire a migliorare le nostre decisioni, non a sostituirle. E finché non sarà del tutto trasparente il modo in cui questi sistemi arrivano a una certa risposta, sarà fondamentale mantenere alta la soglia dell’attenzione. Perché curare, prima ancora che un atto tecnico, è – e resterà – un atto umano.

(*) direttore scientifico Villa Santa Maria (Tavernerio)

© RIPRODUZIONE RISERVATA