
La Sanità italiana approccia la rivoluzione Ai in un momento storico piuttosto delicato, caratterizzato da lenti processi di disintermediazione e dematerializzazione delle prescrizioni, e da vincoli normativi che stanno da tempo mettendo alla prova il sistema, già prima della pandemia. Ne parliamo con Valeria Lazzaroli, Chairperson di Enia – Ente nazionale per l’intelligenza artificiale, che ci spiega i dettagli di questo accidentato percorso verso la transizione digitale.
L’Ai avanza spietata e non aspetta nessuno, anche in Sanità. Quali ostacoli incontrerà in questo scenario normativo così contorto?
«L’intelligenza artificiale si innesta su una geografia sanitaria disomogenea, segmentata da autonomie regionali che hanno prodotto architetture dati incompatibili, standard semantici eterogenei e livelli di maturità digitale molto differenti. Questo rende complesso il passaggio da una sanità “documentale” a una sanità “data-driven”. Il primo grande ostacolo è dunque l’interoperabilità reale, non solo tecnica, ma semantica, organizzativa e giuridica. Il secondo ostacolo riguarda la qualità epistemica e la continuità del dato clinico, essenziale per alimentare modelli predittivi solidi. In ambiti come la biopsia liquida, che richiede l’integrazione di dati molecolari, fenotipici e temporali, la frammentazione informativa rende difficile la costruzione di modelli di Ai affidabili.
E.N.I.A, un supporto etico per innovatori, istituzioni e territori
Così si definisce nella presentazione online l’Ente Nazionale per l’Intelligenza Artificiale, un’istituzione indipendente del Terzo Settore, apartitica e non profit, nata per presidiare lo sviluppo dell’intelligenza artificiale in chiave etica, sistemica e generativa, come leva strategica per la trasformazione della società, dell’economia e delle istituzioni. Assume il ruolo di custode civico, presidio epistemologico e facilitatore intergenerazionale nell’ecosistema dell’AI, promuovendo una cultura dell’algoritmo che sappia coniugare rigore scientifico, responsabilità pubblica e valore umano. Suo obiettivo è agire come organo di indirizzo culturale, consulenza critica e mediazione sociale, per garantire che l’intelligenza artificiale non sia solo tecnologia che decide, ma conoscenza che illumina.
Tecniche avanzate come la causal inference, il transfer learning e l’active learning diventano inapplicabili se i dataset sono isolati, rumorosi o incompleti. Ma la vera zavorra che oggi blocca l’adozione sistemica dell’intelligenza artificiale in sanità è il contesto normativo disallineato, un vero e proprio ginepraio che genera incertezza e paura. La Legge Gelli-Bianco (Legge 24/2017) ha introdotto la responsabilità professionale sanitaria con criteri stringenti, basati sull’aderenza a linee guida accreditate. Tuttavia, oggi, i medici si trovano a operare in un quadro in cui queste linee guida non includono l’uso di strumenti Ai, lasciando un vuoto normativo. A questo si somma l’Ai Act, che classifica molti sistemi Ai sanitari come “ad alto rischio”, imponendo requisiti severi su trasparenza, tracciabilità e gestione degli errori. In teoria è un progresso, in pratica genera una forte inerzia, perché nessuna struttura vuole esporsi all’onere di validare ex novo strumenti di supporto decisionale già in uso. Infine il Regolamento Macchine, aggiornato al 2023, che disciplina i sistemi autonomi integrati nei dispositivi medici, sovrappone ulteriori responsabilità sia al produttore che all’operatore.
Questo combinato disposto – Gelli-Bianco, Ai Act, Regolamento Macchine – crea uno scenario paradossale: il medico, per proteggersi, preferisce non usare l’Ai, anche quando potrebbe migliorarne la capacità diagnostica. Non per ignoranza, ma per la paura fondata di trovarsi senza protezione normativa, in una zona grigia dove la responsabilità si distribuisce in modo opaco tra clinico, struttura, produttore e sviluppatore. Senza una cabina di regia nazionale che armonizzi queste normative, promuova modelli di responsabilità condivisa e introduca sandbox regolatori in ambito sanitario, l’intelligenza artificiale rischia di rimanere un corpo estraneo. Serve un ecosistema di fiducia che parta dalla chiarezza normativa per abilitare davvero la transizione digitale, evitando che la tecnologia diventi una zavorra burocratica invece che uno strumento di cura.
Parliamo dell'Ai Act: se da un lato mira a creare un quadro normativo in grado di promuovere l'innovazione responsabile nell'Ai proteggendo i cittadini da potenziali rischi, dall’altro espone il sistema a ulteriori inerzie, alibi e rallentamenti nel processo di sviluppo delle architetture tecnologiche, già piuttosto in ritardo nel nostro Paese. Lei come vede tutta la questione dal punto di vista dei principali protagonisti di questa transizione, vale a dire i medici?
L’Ai Act è una straordinaria opportunità e non un ostacolo, ma, come ogni architettura normativa ambiziosa, richiede una lettura lucida, non burocratica. Il rischio, oggi concreto, è che venga percepita come un freno solo perché il sistema umano, tecnico e istituzionale, non è ancora pronto a reggerne l’ambizione. I medici, in particolare, si trovano in una posizione difficile perché intuiscono le potenzialità dell’Ai come alleata nella diagnosi precoce, nella personalizzazione terapeutica, nella prevenzione, ma temono di doverne rispondere legalmente senza disporre di strumenti concreti per comprenderla, governarla, e soprattutto integrarla nella pratica clinica in modo conforme.
La medicina non può diventare vittima di un’iper-regolamentazione che confonde la compliance con l’innovazione, o che punisce l’adozione pionieristica anziché proteggerla. Serve una nuova alleanza tra giuristi, informatici, ingegneri clinici e medici, per rendere l’Ai Act un esercizio di chiarezza condivisa, non un alibi per l’immobilismo.
In Enia stiamo lavorando su un modello di Digital Twin Regolatori come ambienti simulativi che permettano a ospedali e imprese di testare l’applicazione delle norme prima del deployment reale. Prevedere il rischio prima di subirlo è già una forma alta di etica. Ma sarebbe un errore strategico sottovalutare il contesto geopolitico e culturale in cui l’Ai Act si inserisce. L’Europa ha compiuto un atto mirabile: ha posto l’essere umano al centro della trasformazione algoritmica, distinguendosi dal resto del mondo per rigore etico e tensione democratica.
Tuttavia questo slancio rischia di perdere forza se il continente non riuscirà a mantenere la leadership normativa e di pensiero che ancora conserva. L’europeo, oggi, si è un po’ impigrito: ha smesso di evolvere in termini di mentalità, di capitale umano e di coraggio industriale. Le imprese, soprattutto le Pmi, non agiscono ancora in una logica data-driven, non hanno una cultura del rischio, né un approccio forward-looking, e spesso trascurano proprio la funzione del risk management, che è la chiave per accompagnare ogni transizione con consapevolezza.
In questo quadro, l’Ai Act viene vissuto come uno tsunami normativo, un carico che sovrasta piuttosto che accompagnare. Ma non sarà colpa dell’Ai Act se non saremo puntuali all’appuntamento con la quinta rivoluzione industriale. Il testo europeo ha fatto la sua parte e ora tocca a noi, alle istituzioni, alle Università, alle imprese, ai corpi intermedi e alla medicina per costruire le infrastrutture cognitive, culturali e organizzative per renderlo attuabile, senza snaturarlo. Perché l’alternativa non è “meno regole”, ma meno cittadino e più mercato, e questo, per l’Europa, sarebbe il vero fallimento.
Il tema della formazione è cruciale quando si parla di Ai in ambito sanitario: da dove partire per rendere più agevole il compito di categorizzazione, ingresso e monitoraggio dei dati insieme alla loro analisi in ottica di medicina preventiva?
La medicina preventiva è la frontiera naturale per l’intelligenza artificiale: qui il dato precede la malattia, anticipa le traiettorie cliniche e consente interventi mirati prima ancora che si manifesti il bisogno acuto. Ma per liberarne il potenziale occorre agire su tre livelli formativi.
Primo: alfabetizzazione algoritmica diffusa, già nei corsi di laurea in medicina, per formare medici non solo esperti di corpo umano, ma anche “cittadini digitali”, capaci di dialogare con modelli predittivi, comprendere metriche di performance, distinguere correlazioni da causalità.
In secondo luogo occorre una formazione interdisciplinare continua, che integri la dimensione clinica con elementi di statistica, informatica medica, scienze computazionali e interpretazione dei dati. Non si tratta di trasformare il medico in un data scientist, ma di renderlo in grado di leggere con consapevolezza il linguaggio dell’Ai, così come legge un Ecg o un esame ematochimico.
Il terzo fattore è rappresentato dagli strumenti di visualizzazione intuitiva e le interfacce trasparenti (dashboard cliniche, cruscotti predittivi, modelli explainable-by-design, ndr.) che consentano al professionista sanitario di diventare interprete attivo dei pattern, e non un mero fruitore passivo di output algoritmici.
Basterebbero solo questi interventi?
«Ovviamente tutto questo non può bastare. È un errore pensare che la trasformazione algoritmica in sanità riguardi solo i medici. Se l’intelligenza artificiale è una “nuova infrastruttura cognitiva”, allora tutto il capitale umano del sistema sanitario deve essere coinvolto e formato. Le risorse amministrative, i tecnici informatici, i dirigenti di struttura, i coordinatori infermieristici: ognuno, con competenze differenziate, può diventare un abilitatore della medicina data-driven. Un front office che comprende il valore dei dati migliora la raccolta delle informazioni. Un operatore amministrativo che conosce i principi della data governance evita ridondanze e disallineamenti. Un dirigente che padroneggia le metriche di interoperabilità e scalabilità favorisce scelte infrastrutturali più lungimiranti. Senza questo ecosistema alfabetizzato, l’Ai rimane una promessa isolata, e le motivazioni scientifiche del medico rischiano di naufragare in un contesto organizzativo non pronto a sostenerle. La medicina preventiva del futuro è un puzzle complesso, dove ogni tessera, anche apparentemente distante dalla clinica, concorre a costruire interoperabilità e solidità predittiva. Formare l’intero sistema significa generare fiducia, creare cultura del dato, e mettere in condizione ogni attore di contribuire attivamente a una sanità più intelligente, equa e anticipativa.
È possibile immaginare a breve un sistema di dati sicuro e condiviso tra tutti gli attori del settore sanitario? Che cosa sta succedendo o è già successo in altri Paesi, e che cosa possiamo imparare da loro?
Sì, possiamo immaginarlo. Ma occorre uscire dalla retorica del “cloud come panacea” e abbracciare una visione radicalmente diversa, perché la sovranità del dato è un diritto infrastrutturale, non una variabile tecnica. In ambito sanitario, il dato è corpo digitalizzato, memoria clinica, rischio e opportunità insieme e non può essere affidato a logiche estrattive o a piattaforme centralizzate esposte a rischi sistemici. Paesi come Francia e Germania hanno già avviato infrastrutture basate su architetture federate di tipo edge e fog computing, dove il dato viene elaborato il più vicino possibile alla fonte, cioè alle strutture sanitarie, ai territori, ai dispositivi, garantendo tracciabilità, minimizzazione della circolazione e maggiore resilienza agli attacchi informatici.
Questi modelli decentralizzati ma interoperabili evitano la concentrazione dei dati in grandi hub cloud, che rappresentano obiettivi ad alta vulnerabilità. Il Canada ha sviluppato consorzi pubblico-privati di data stewardship attraverso entità indipendenti che governano il ciclo di vita del dato con criteri di eticità, auditabilità e accesso per finalità di ricerca.
L’Estonia ci mostra il valore di un’identità digitale unificata, sicura e trasparente, che consente l’accesso ai servizi sanitari con controllo diretto da parte del cittadino. Ma la sfida dei prossimi anni sarà ancora più profonda con il progressivo spostamento dei servizi digitali su infrastrutture satellitari, avvicinandoci così a uno scenario in cui gli attacchi cyber non saranno più da “uomo contro macchina”, ma da “macchina contro macchina”.
Le minacce non colpiranno solo server o piattaforme, ma direttamente dispositivi clinici in rete: sensori wearable, chirurgia robotica, pompe infusionali intelligenti, protesi neurali, digital twin terapeutici. In questo contesto, solo un’architettura edge-native, distribuita, locale, resistente per design, può garantire l'integrità e la continuità dei servizi essenziali. Un approccio fondato su sovranità, ridondanza e coordinamento civico tra le strutture territoriali è l’unica strada per evitare che la sanità digitale diventi ostaggio di vulnerabilità globali perché non si tratta solo di proteggere dati, ma di preservare fiducia, continuità assistenziale e dignità umana. L’Italia per colmare il divario ha già nelle disponibilità, professionalità eccellenti, Regioni virtuose, una tradizione di servizio pubblico ma serve un piano operativo nazionale che connetta queste risorse in un ecosistema federato di fiducia, dove ogni dato generato sia custodito e restituito alla collettività come bene comune.
È importante ricordare che il sistema sanitario non si regge esclusivamente sulla figura del medico. Accanto ad essa operano quotidianamente numerosi professionisti sanitari che, da tempo, si confrontano con normative tecniche complesse come il Regolamento Macchine e, oggi, anche con le implicazioni dell’Ai Act.
Tecnici di laboratorio biomedico, tecnici di radiologia, tecnici ortopedici, igienisti dentali, tecnici della prevenzione, tecnici della perfusione cardiovascolare — solo per citarne alcuni — sono categorie che già da anni integrano nella loro pratica l’uso di dispositivi complessi, soggetti a rigorose norme europee su sicurezza, tracciabilità e interoperabilità. La responsabilità, quindi, non può e non deve essere vista esclusivamente in capo al medico: l’evoluzione tecnologica in sanità è (e deve essere) un processo interprofessionale.
Il mio intervento vuole essere un invito a una riflessione costruttiva, in particolar modo sull’etica delle nuove tecnologie in ambito sanitario e sul loro impatto nel quotidiano di tutti i professionisti della salute. Intelligenza artificiale, automazione e digitalizzazione non possono essere affrontate solo come questioni normative o di compliance: richiedono una visione condivisa, un aggiornamento delle competenze e una rinnovata attenzione alla responsabilità diffusa, che includa ogni attore coinvolto nella cura.
Cordialità
Dr.Roberto Di Bella