
Cesare Giuseppe Cerri è professore ordinario senior di Medicina Riabilitativa all’Università Milano Bicocca. I suoi interessi di ricerca si estendono fino ai problemi etici ed epistemologici legati alla riabilitazione
L’intelligenza artificiale è sicuramente applicabile al contesto riabilitativo, come per la valutazione di ortesi e ausili o a supporto della diagnosi strumentale. Rimane irrisolto il problema etico: con quali valori vanno istruiti questi sistemi?
Una premessa necessaria è capire come funziona un programma di cosiddetta intelligenza artificiale (AI). In realtà già il nome stesso è tendenzialmente fuorviante in quanto di “intelligenza”, nel significato comunemente attribuito al termine dagli esseri umani, non c’è traccia.
In sintesi (per chi volesse approfondire consiglio l’interessante canale statquest su YouTube che ha una serie di filmati su reti neurali e AI, così come il canale 3blue1brown, serve solo conoscenza dell’inglese e competenze matematiche da liceo) alla base ci sono sostanzialmente due meccanismi: il paragone continuo fra dati in ingresso e previsioni in uscita, con modifica dei pesi usati negli algoritmi di calcolo di quest’ultime finché non si raggiunge l’equilibrio e la raccolta/selezione dei dati di interesse per una specifica applicazione. Già da questo è evidente che alla base delle attività del programma ci sono metodi probabilistici di tipo statistico, ad esempio per la determinazione di molti coefficienti si utilizza il calcolo dei minimi quadrati e gli algoritmi spesso fanno uso di funzioni di distribuzione.
Pertanto la prima considerazione da aver presente è la natura statistico-probabilistica dei risultati che possiamo ottenere come risposta ai nostri quesiti. La seconda considerazione, che forse è la più rilevante, è che i programmi AI aderiscono perfettamente al noto detto informatico “garbage in, garbage out”. Notissimo è l’episodio che ha coinvolto Google, costretta a ritirare un proprio programma di interazione chat perché addestrandosi in rete aveva assunto caratteristiche di risposta simili ad un pornografo nazista, avendo progressivamente selezionato input sempre più “politically scorrect”.
D’altro canto vi è un notevole entusiasmo sulla possibilità di utilizzare programmi AI in ambito medico e sicuramente le loro potenzialità non sono da trascurare anche in ambito riabilitativo. Di conseguenza alcune osservazioni su cosa potenzialmente sia fattibile e su quali siano i possibili rischi possono essere utile spunto di riflessione.
Potenzialità e limiti
Uno degli aspetti sottovalutati quando si parla di intelligenza artificiale è il fatto che i programmi sono altamente specializzati, al fine di renderli in grado di fare molto bene una sola cosa, ad esempio programmi di riconoscimento grafico non sono in grado di effettuare traduzioni e viceversa. Inoltre l’applicazione di cui più si parla attualmente, chatGPT, è ottimizzata per effettuare traduzioni, e può essere anche utilizzata per compiere ricerche bibliografiche simulando un comportamento umano dal punto di vista linguistico, ma non è in grado di svolgere attività di tipo grafico o di interagire verbalmente. Peraltro fallisce buona parte delle domande del test di Turing, prova che consiste in una serie di domande finalizzate a distinguere fra risposte date da un essere umano o da un computer.
Applicazioni in riabilitazione
L’AI in ambito riabilitativo potrebbe avere sopratutto due grossi campi di applicazione: supporto per la metodologia evidence based e supporto per la diagnostica strumentale, in particolare in ambito di analisi strumentali e di diagnostica funzionale per immagini. Altro campo ancora da sviluppare è quello relativo alla riabilitazione in ambito virtuale, così come la possibilità di utilizzo in ambito di rieducazione cognitiva. Da valutare anche le potenzialità per quanto riguarda il coordinamento organizzativo e gestionale nel contesto di equipe multidisciplinari e multi professionali.
Il principale vantaggio di questa tipologia di programmi è, comunque, la possibilità di elaborazione di una quantità di dati impossibile da gestire umanamente, questo fa sì che non sia da sottovalutare la capacità di rispondere in modo rapido e competente dal punto di vista scientifico (cioè sulla base di dati di letteratura) ai quesiti degli operatori e degli assistiti. Altro punto a favore è la capacità di automatizzare, migliorare e approfondire i reperti in diagnostica per immagini con eventuali suggerimenti per ulteriori accertamenti o interventi.
In linea teorica vi potrebbe anche essre la possibilità di sviluppare programmi ad personam con supervisione specialistica, ma gestiti direttamente dalla persona assistita sfruttando la possibilità di interagire con linguaggio comune e senza bisogno di particolari competenze informatiche.
Problematiche principali
Va però tenuto presente che vi sono perlomeno due grossi problemi: il primo è la validità dei dati su cui si effettua l’addestramento del programma, il secondo è legato alla modalità con cui vengono effettuati interventi di raffinamento e censura dal punto di vista etico.
Infatti il comportamento dei programmi di intelligenza artificiale dipende dall’addestramento delle loro reti neurali e dalle componenti di filtraggio e valorizzazione etica nella fase finale della produzione dei risultati impostata e gestita dal programmatore. Accanto a questo procedimento, nel caso di input più complessi, come ad esempio risposte a domande su uno specifico argomento, la programmazione prevede una serie di funzioni che assegnano un valore ad ogni tipologia di risposta in relazione ad una scala di valori predisposta a priori. Ad esempio termini considerati socialmente inaccettabili quali le parolacce avranno punteggi negativi, mentre espressioni legate all’amore e all’inclusione avranno elavati punteggi positivi, almeno nella attuale cultura occidentale. Questi punteggi determineranno anch’essi la probabilità di scelta delle varie risposte possibili.
Non ci sono problemi etici se lo scopo del programma è riconoscere un numero così come viene scritto, ma se ci immaginiamo ora un programma destinato a produrre o migliorare il piano riabilitativo in caso di persone con grave cerebrolesione non è esattamente la stessa cosa; non solo non ci sono regole matematiche, ma nemmeno un grande accordo fra gli scienziati su quale sia il risultato ottimale ottenibile in base alle condizioni di partenza e sopratutto potrebbero esserci punteggi legati ai costi delle possibili alternative. Quello che ci verrà proposto dipenderà esclusivamente dalla scelta dei dati forniti per l’addestramento e da parametri definiti a priori da chi produce il programma. Ricordo che recentemente ad una paraplegica canadese che chiedeva l’intervento dei servizi sanitari per installare un montascale a casa propria il servizio sanitario canadese ha ripetutamente proposto di ricorrere all’eutanasia come metodo per non soffrire del disagio, provate a pensare ad un programma AI con questo tipo di standard etico.
In questo contesto passa in secondo piano il rischio di errore interno all’elaborazione dati, peraltro difficile da rilevare in quanto spessissimo il come si giunga al risultato è praticamente inconoscibile.
La più grossa sorgente di pregiudizi è esterna: quali scelte saranno privilegiate per l’aspetto etico? Economiche, religiose, legali? Quali dati verranno utilizzati per l’addestramento dell’AI? É noto che in letteratura esiste un pregiudizio a sfavore dei risultati negativi; meno nota, ma anch’essa presente, è la diversità della valutazione del risultato riabilitativo di professionisti, familiari, caregivers e persona assistita. Questo solo considerando dati sottoposti a un vaglio di scientificità secondo canoni popperani, ma l’addestramento dovrebbe escludere o includere letteratura con canoni alternativi e/o dati provenienti da sorgenti quali giornali, riviste o fonti religiose.
Risulta dunque chiaro che le scelte del decisore, politico o aziendale, portano a risultati potenzialmente estremamente differenti fra loro e probabilmente, in una società multietnica e multiculturale, in contrasto con la visione valoriale di alcune delle persone assistite e dei loro cari.
In conclusione
Tenendo conto di questi limiti, comunque è sicuramente utile e possibile usare programmi di intelligenza artificiale in riabilitazione, ad esempio programmi specializzati nella ricerca e sintesi di dati possono essere di enorme aiuto nella valutazione di ortesi ad ausili, programmi di analisi bibliografica potrebbero fornirci in tempi estremamente brevi indicazioni in stile Cochrane su questioni aperte o possono essere utilizzati per lo scoring secondo criteri validati da varie società scientifiche rispetto alla validità e credibilità dei risultati di lavori scientifici.
Il tutto a condizione, parafrasando il consiglio ai propri allievi di un antico medico di fronte alle prime radiografie («attenzione a non vendere i vostri occhi al radiologo»), di non svendere l’intelligenza naturale a quella artificiale.
Cesare Giuseppe Cerri
LE INTELLIGENZE ARTIFICIALISONO DAVVERO INFALLIBILI?
Come si è detto, i protocolli che gestiscono le intelligenze artificiali non sono ancora perfetti. Sono soggetti spesso a conflitti interni o alla presenza di bug, data ancora la fase “sperimentale” in cui si trovano, prima della diffusione ad uso comune.
Potete fare a questo proposito un piccolo esperimento con chat GPT provando a chiedergli di fare un breve componimento elogiativo su di un personaggio molto “politicamente corretto” seguito da un secondo su uno non in linea con tale pensiero; oppure chiedere cosa pensa del matrimonio eterosessuale monogamico indissolubile.
Per quel che riguarda errori interni, invece, nella versione GPT 3.5 attualmente disponibile al momento della stesura dell’articolo (luglio 2023) è stata segnalata la citazione di lavori scientifici inesistenti o non pertinenti alla risposta.
Si suppone che le nuove versioni andranno a risolvere questi bug, ma se gli errori clamorosi possono esser rilevati in un programma il cui flusso di elaborazione non è verificabile, essendo sostanzialmente basato su backpropagation e altre funzioni tipiche della programmazione non sequenziale, non c’è alcuna certezza che non vi possano essere errori nascosti che produrranno i propri effetti solo in particolari circostanze non rilevabili a priori e che quindi necessiteranno, prima di essere scoperti, di un’applicazione che potremmo definire “evidence based”.
Cesare Giuseppe Cerri