Sanità e intelligenza artificiale: l’Italia guida l’Europa, ma serve un approccio “umanologico”

intelligenza artificiale

Il 17 settembre scorso il Senato ha dato il via libera definitivo alla prima legge italiana sull'intelligenza artificiale. Un primato in Europa, visto che siamo i primi ad avere un quadro normativo nazionale completamente allineato all'AI Act europeo. La legge, che introduce principi che richiamano la centralità delle persone, rafforza la governance nazionale autorizzando fino a 1 miliardo di euro di investimenti in equity e quasi-equity, gestiti tramite il Fondo di sostegno al venture capital e Cdp Venture Capital.

Bene, direte voi. E infatti è un passo importante. Ma ora viene il difficile: tradurre principi e norme in pratica quotidiana, soprattutto in Sanità dove ogni decisione ha un impatto diretto sulla salute delle persone.

Intelligenza artificiale: il problema delle definizioni elastiche

Partiamo da una questione che può sembrare tecnica ma non lo è affatto: cosa intendiamo davvero per intelligenza artificiale? I criteri dell'AI Act sono così ampi che rischiano di includere praticamente qualsiasi software, dalla calcolatrice del telefono al sistema di gestione delle cartelle cliniche.

In Sanità questo crea un problema serio. Se tutto diventa "AI", come distinguiamo tra un semplice algoritmo di calcolo e un sistema che davvero apprende dai dati e può influenzare le decisioni cliniche? Non è solo una questione semantica: significa creare aspettative sbagliate nei pazienti e confusione nei professionisti.

intelligenza artificiale

Tra entusiasmo e responsabilità

L'intelligenza artificiale "vera" - quella basata su machine learning e deep learning - sta già entrando negli ospedali italiani. Pensiamo ai sistemi di supporto alla diagnosi radiologica o agli algoritmi predittivi per identificare pazienti a rischio. Strumenti potenti, ma che pongono questioni delicate.

Da un lato c'è il rischio di creare una pressione implicita sui medici che non usano questi strumenti, come se fosse una colpa non adottare l'ultima tecnologia disponibile. Dall'altro c'è il pericolo opposto: affidarsi troppo alla macchina e perdere di vista il quadro clinico complessivo.

La legge italiana è chiara: la responsabilità resta sempre al professionista. Ma serve molto di più di una norma scritta per gestire questi equilibri nella pratica quotidiana.

Oltre le etichette accademiche

Alex Dell'Era, co-coordinatore del gruppo Scienze della vita di FERPI e Adjunct Professor presso il DiTEiM del CUIRIF
Alex Dell'Era, co-coordinatore del gruppo Scienze della vita di FERPI e Adjunct Professor presso il DiTEiM del CUIRIF

Negli ultimi anni sono nati diversi approcci per rendere la tecnologia più "umana": Human-Centered AI, Value Sensitive Design, umanesimo digitale. Contributi importanti, ma spesso troppo teorici per chi deve prendere decisioni concrete in corsia o in ambulatorio.

Quello che serve è un approccio più pratico, che aiuti davvero a orientarsi. Un framework che chiamo "Umanologico" - termine che suona un po' inventato, lo ammetto, ma che cattura l'idea di mettere la logica umana al centro dell'innovazione tecnologica.

Intelligenza artificiale: 5 domande per non perdere la bussola con

Invece di grandi principi astratti, propongo cinque domande concrete da porsi ogni volta che si introduce una nuova tecnologia in ambito sanitario:

È etico? Non solo nel senso di rispettare le norme, ma di essere coerente con i valori che guidano la pratica medica. Un sistema che discrimina inconsapevolmente alcuni gruppi di pazienti non è accettabile, anche se tecnicamente funziona.

È empatico? La tecnologia deve facilitare la relazione medico-paziente, non sostituirla. Uno strumento che non permette a un professionista della salute di passare più tempo con il paziente è un problema, non una soluzione.

È chiaro? Trasparenza non significa solo pubblicare il codice sorgente, ma rendere comprensibili le logiche di funzionamento a chi deve usare lo strumento e a chi ne subisce le conseguenze.

È sostenibile? Non solo economicamente, ma anche dal punto di vista organizzativo e ambientale. Una tecnologia che richiede risorse eccessive o che diventa obsoleta in pochi mesi non è una buona scelta.

Crea valore condiviso? I benefici devono arrivare a tutta la comunità: pazienti, professionisti, sistema sanitario, società. Un'innovazione che avvantaggia solo il fornitore tecnologico è miope.

L'occasione italiana

Con la nuova legge nazionale sull'intelligenza artificiale, l'Italia ha l'opportunità di diventare un laboratorio di innovazione responsabile. Non si tratta solo di applicare le norme europee, ma di sviluppare un modello originale che altri paesi potrebbero seguire.

Serve però un impegno concreto: decreti attuativi rapidi, formazione continua per i professionisti, infrastrutture dati condivise tra le regioni, dialogo costante tra tutti gli attori coinvolti. Non basta scrivere buone leggi se poi mancano gli strumenti per metterle in pratica.

La tecnologia al servizio dell'umanità

La legge italiana segna un punto di partenza importante, ma il percorso è ancora lungo, infatti chi lavora nelle scienze della vita, sa che il percorso vero comincia adesso. L'approccio "umanologico" può essere una bussola per non perdere di vista ciò che conta davvero: le relazioni umane, la fiducia reciproca, il bene comune.

Solo così la tecnologia potrà davvero migliorare la Sanità, senza farci dimenticare che dietro ogni dato, ogni algoritmo, ogni decisione automatizzata ci sono sempre persone, che meritano rispetto, cura e attenzione.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome