Intelligenza artificiale

Sull’attitudine umana verso le innovazioni tecnologiche: dal Turco Meccanico del XVIII secolo ai sistemi contemporanei di Intelligenza Artificiale in medicina

Raffaele RasoiniRaffaele Rasoini, Laureato in Medicina nel 2002 e specializzato in Cardiologia nel 2006, è ricercatore presso l’IRCCS Don Carlo Gnocchi di Firenze e lavora presso vari centri medici dell’area fiorentina. Membro del gruppo Florence EBM Renaissance e del gruppo ISO-Spread, è interessato ai temi dell’evidence based-decision making nella multimorbidità, dell’overdiagnosis e delle applicazioni dell’intelligenza artificiale in medicina

 

 Camilla AlderighiIRCCS Fondazione Don Carlo Gnocchi, Firenze

La ricerca sull’Intelligenza Artificiale e sulle sue potenziali applicazioni in medicina sta suscitando molto interesse. In questo articolo, attraverso una similitudine storica, evidenziamo il conflitto tra l’attitudine comune verso tale innovazione tecnologica e il corpus di prove scientifiche che (non) la supportano.


Parole chiave: intelligenza artificiale, Turco meccanico, pro-innovation bias


Negli ultimi anni, il numero di pubblicazioni aventi come tema l’Intelligenza Artificiale e le sue potenziali applicazioni in medicina è aumentato considerevolmente. Numerosi studi, alcuni del tutto recenti, hanno messo in luce i progressi dei sistemi contemporanei di Intelligenza Artificiale, come l’elevata accuratezza dimostrata nelle predizioni diagnostiche e prognostiche, e, su questa base, molti ricercatori hanno ipotizzato che sistemi evoluti di apprendimento automatico possano divenire in grado, nel prossimo futuro, di supportare virtuosamente o addirittura, in casi specifici, di sostituire i medici nello svolgimento dei propri compiti.

Sebbene condividiamo l’idea che l’Intelligenza Artificiale sia ricca di potenzialità, nell’ambito della medicina contemporanea l’efficacia e la sicurezza di un nuovo intervento (sia esso un farmaco, un test diagnostico o un supporto decisionale basato sull’Intelligenza Artificiale) devono essere necessariamente definite da robuste prove scientifiche. Tuttavia, l’attitudine contemporanea prevalente nei confronti dei sistemi di Intelligenza Artificiale, nell’ambito sia della letteratura medica che della stampa laica, sembra in buona parte trascurare questo aspetto a favore di un’accoglienza entusiasta di tali innovazioni tecnologiche, atteggiamento che sintetizzeremo in questo articolo attraverso una curiosa similitudine storica.

Facciamo quindi un balzo indietro nel tempo e riferiamoci agli accadimenti che ebbero luogo a Vienna, alla corte di Maria Teresa d’Austria, dove nel 1770 fece la sua prima sorprendente apparizione il Turco. Vestito alla maniera mediorientale e seduto dietro a un grosso tavolo chiuso sul quale era posizionata una scacchiera, il Turco era pronto a sfidare al gioco degli scacchi chiunque avesse osato fronteggiarlo. Ciò che sbalordì i presenti alla dimostrazione fu che il Turco non era affatto un essere umano, bensì un automa. Il suo inventore, il barone Wolfang Von Kempelen, consigliere per la meccanica della casa reale d’Austria, lo aveva realizzato in un anno di lavoro per compiacere la regina.

Il Turco si dimostrò molto abile nel gioco degli scacchi, riuscendo a battere la grande maggioranza dei suoi sfidanti e fu persino portato in tournée nelle capitali europee, in Russia e in America. L’automa riscosse l’ammirazione e l’interesse di politici, letterati e matematici: sconfisse personaggi eminenti, come Giorgio III, Benjamin Franklin, Napoleone, e anche il giovane Edgar Allan Poe fu ispirato a scriverne in un noto racconto nel quale tentò di svelarne il funzionamento.

Ma il Turco non era affatto un prodigio della tecnologia. Come venne reso noto diversi decenni dopo la sua prima apparizione, si trattava invece di una truffa, un imbroglio molto ben organizzato. Dentro al tavolo era infatti nascosto un essere umano, un uomo di piccola statura e molto abile nel gioco degli scacchi che era in grado, dal basso, di osservare le mosse degli avversari e fare le sue contromosse controllando il braccio meccanico del Turco attraverso una serie di ingranaggi. Prima di ogni partita, nel momento in cui il barone Von Kempelen e i successivi proprietari del Turco aprivano gli sportelli sotto al tavolo proprio per dimostrare al pubblico come non ci fosse alcun trucco, quest’uomo si spostava rapidamente a destra o a sinistra, nascondendosi tra gli ingranaggi secondo uno schema prestabilito. 

La similitudine tra il caso del Turco meccanico del XVIII secolo e i sistemi contemporanei di Intelligenza Artificiale potrebbe sembrare forzata: come noto, infatti, in epoca recente sistemi di Intelligenza Artificiale si sono davvero dimostrati capaci di battere a scacchi i più abili giocatori al mondo e oggi truffe come quella del Turco non avrebbero più alcun senso o risonanza. Anzi, avrebbe senz’altro maggior probabilità di realizzarsi il contrario, ovvero che un giocatore di scacchi umano, deciso a vincere con ogni mezzo, nascondesse da qualche parte un sistema di Intelligenza Artificiale per farsi supportare durante la partita.

Inoltre, a differenza del caso del Turco, non esiste alcun raggiro alla base dell’Intelligenza Artificiale: quest’ultima riguarda infatti l’abilità, da parte di alcuni algoritmi matematici, di “migliorarsi” nel tempo attraverso un processo di apprendimento automatico, costellato di prove ed errori, e, in ultima istanza, di generare predizioni derivate dall’elaborazione di vasti insiemi di dati.

A nostro avviso, tuttavia, l’aneddoto del Turco può permettere di rintracciare alcune analogie utili a rendere più comprensibili diversi aspetti della retorica contemporanea sull’Intelligenza Artificiale.

In primo luogo, così come nel caso del Turco, il meccanismo attraverso cui un sistema evoluto di Intelligenza Artificiale genera le proprie predizioni è spesso incomprensibile a noi umani. Ricorriamo infatti al concetto di Black Box, scatola nera, per riferirci ad alcuni modelli di Intelligenza Artificiale, come quelli di deep learning, la cui accuratezza è inversamente proporzionale all’interpretabilità, tanto che abbiamo equiparato questi algoritmi agli antichi oracoli, le Pizie, il cui parere, ritenuto altamente affidabile e non discutibile, scaturiva attraverso un rituale volutamente complesso e inconoscibile ai questuanti.

Tuttavia, per dirla con una citazione cinematografica, “Il potere non è mai stato con gli oracoli, bensì con i preti, anche se questi ultimi hanno dovuto inventare gli oracoli [per conservarlo]” (Minority Report, 2002).

In altre parole, che lo si veda o meno, sebbene ben celato all’interno dei complessi meccanismi che stanno alla base dell’algoritmo, il ruolo dell’essere umano è centrale e imprescindibile anche nel caso dei sistemi di Intelligenza Artificiale. Questo è intuibile, dal momento che sono gli umani ad aver pensato e costruito questi sistemi, ma sono soprattutto gli umani ad averli istruiti, alimentandoli con vasti insiemi di dati, selezionati, ripuliti e classificati sempre a opera di umani. Infine, questi sistemi sono stati validati, in molti casi, attraverso un confronto con il giudizio di altri umani. Dunque, il fatto che nessun algoritmo di Intelligenza Artificiale possa prescindere dall’intervento umano realizza il paradosso secondo cui sistemi estremamente accurati riflettono necessariamente nel loro operato qualità e limiti eminentemente antropici, non ultimi i pregiudizi, le fallibilità e le idiosincrasie.

Altra analogia riguarda il fatto che gli scacchi sono un sistema chiuso e costituito da regole. Similmente, molte eccellenze contemporanee dell’Intelligenza Artificiale, che negli ultimi anni hanno contribuito a riportare alla notorietà questa disciplina anche al di fuori della medicina, sono sistemi chiusi. L’antica dama cinese “Go”, il gioco “Jeopardy!”, gli scacchi presuppongono, da parte di sistemi di Intelligenza Artificiale, risposte specifiche a domande specifiche come “Quale è la migliore mossa successiva da fare data l’attuale posizione delle pedine e date le regole del gioco?” oppure “Quale è la data di nascita di Winston Churchill?”.

I sistemi algoritmici, nel gioco così come in medicina, primeggiano all’interno di confini ben delineati che non sono tuttavia in grado di oltrepassare.

Traslando la questione al nostro settore, come medici è giusto allora domandarci quanto spesso nella nostra professione ci vengano poste domande specifiche che presuppongono risposte ben definite e quanto spesso, invece, siamo chiamati a rispondere a quesiti e a prendere decisioni che richiedono l’interazione di più sistemi complessi, l’inclusione di elementi di contesto e una forte componente di giudizio individuale e inter-individuale.

In altre parole, lo iato che separa la predizione (di un algoritmo) dalla decisione (umana) è molto profondo e, a nostro avviso, certamente non colmabile da un approccio matematico e riduzionista.

Altra analogia concerne la simbolica antitesi umano-macchina, anche questa emblematizzata nell’esperienza del Turco Meccanico. Ciò riflette molto della retorica contemporanea sull’Intelligenza Artificiale, ovvero pone l’accento sul ruolo competitivo dell’Intelligenza Artificiale rispetto a quello collaborativo: l’umano contro la macchina, lo scacchista umano contro l’automa, il medico contro l’Intelligenza Artificiale, come se l’impiego dell’uno escludesse l’altro. Ma, ci domandiamo, è corretto affrontare la nostra relazione con l’automazione in termini oppositivi?

Infine, vogliamo porre l’accento sulla credulità del “pubblico”, prima alla corte di Maria Teresa d’Austria, e, successivamente, in tutto il mondo occidentale. La favola del Turco andò avanti per oltre tre quarti di secolo prima che fosse svelato l’inganno. Tuttavia, l’ingenuità dell’epoca era comprensibile: era infatti l’inizio della rivoluzione industriale e le persone erano così affascinate dal rapido sviluppo della tecnologia che si era diffuso l’assunto secondo cui l’automazione avrebbe rimpiazzato gli umani in molti compiti, tra cui il lavoro. Ricorda qualcosa?

Ma, al di là della propensione iniziale verso l’accettazione acritica dell’innovazione (fenomeno noto come pro-innovation bias), quale è davvero l’evidenza scientifica dietro ai sistemi di Intelligenza Artificiale in medicina? Per adesso, molto limitata. La maggioranza degli studi sul tema sono stati infatti pubblicati su piattaforme di pre-print come ArXiv o BiorXiv, e dunque non sottoposti al vaglio della peer review. Esiste poi una crescente quota di lavori pubblicati su riviste peer reviewed, ma si tratta di studi che hanno analizzato dimensioni, di questi sistemi, che riteniamo surrogate (rispetto agli esiti clinici primari), come l’accuratezza delle predizioni in ambito diagnostico o prognostico. Se andiamo, tuttavia, a valutare quanti studi siano stati condotti in contesti clinici reali anziché sperimentali e quanti abbiano testato l’efficacia e la sicurezza di sistemi di Intelligenza Artificiale in riferimento agli outcome riguardanti la salute e la qualità di vita dei pazienti, la risposta è, per adesso, nessuno.

Quali possibili indicazioni, allora, per il futuro della ricerca sull’Intelligenza Artificiale? In primis, vogliamo sottolineare che è necessario superare l’attitudine di focalizzarsi sull’accuratezza come unica metrica di valutazione dei sistemi di Intelligenza Artificiale. Occorrono, infatti, studi che ne analizzino efficacia e sicurezza riguardo alla capacità di modificare favorevolmente gli outcome di salute e che ne valutino anche la tollerabilità sia da parte dei medici che da parte dei pazienti.

Se, ad esempio, dovesse emergere che gli outcome per una specifica patologia non si modificano a seguito dell’introduzione dell’Intelligenza Artificiale, ma che i medici devono impiegare molto più tempo davanti a un computer per inserire i dati necessari ad alimentare questi sistemi, limitando ulteriormente il tempo da dedicare al rapporto diretto con il paziente, ne sarebbe valsa la pena?

Inoltre, dovremmo riuscire a evadere dalla mitografia del confronto/sfida tra medici e sistemi di Intelligenza Artificiale, che sottende di fatto una presunta sostituibilità della nostra professione da parte dell’automazione, ipotesi a oggi del tutto inverosimile; bensì dovremmo confrontare gli esiti clinici derivanti da gruppi di medici che si avvalgono del supporto di sistemi di Intelligenza Artificiale, in contesti clinici reali, con quelli di gruppi di medici che non si avvalgono di questo supporto.

Infine, non è ovviamente pensabile un’implementazione acritica e deregolamentata dei sistemi di Intelligenza Artificiale, ma occorre che questi, una volta approvati dagli enti regolatori per l’utilizzo clinico sulla base di prove di efficacia e sicurezza, siano sottoposti a un monitoraggio post-marketing simile a quello a cui vanno incontro farmaci e dispositivi, con lo scopo di evidenziare, nel lungo periodo, anche le conseguenze inattese derivanti dalla loro applicazione pratica in contesti clinici diversi da quelli sperimentali.

 

Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.