Big data, Oracle: superato il disordine, al via l’analisi

Gli aspetti critici dei Big Data nel mondo della Sanità sono ormai noti da tempo. Quello che resta sempre attuale invece, è la ricerca del percorso più adatto a trasformarli in opportunità. Quel puzzle unico di varietà, frammentazione, eterogeneità e distribuzione, crea una serie di scenari particolarmente estesa. Il valore della sfida resta tuttavia di quelli importanti, se non unico. Interesse e impegno da parte del mondo IT quindi non mancano, così come i risultati iniziano a rivelarsi interessanti.

«Se guardiamo al mercato degli analytics nel suo insieme, secondo un recente studio dell’Osservatorio del Poltecnico di Milano, i settori PA e Sanità sono proprio gli ultimi per quote di mercato – osserva Daniele Cesario, data & analytics sales representative di Oracle -. Indica la presenza di problematiche diverse, economiche, procedurali e soprattutto culturali».

Il dato al centro della Sanità, il paziente al centro dei dati

Aspetto positivo e meno scontato però, l’attenzione è rivolta nella giusta direzione. «I settori principali di spesa nei Big ata sono allineati al resto del mercato e vanno verso tre destinazioni principali – prosegue Cesario -. Fast Data per grandi volumi di dati in rapido cambiamento, Data Scientist per l’attività di analisi dei dati e infine la Data Governance. In pratica, tutto ruota intorno al dato».

Questo è uno dei segnali più importanti lanciati dal mondo della Sanità all’IT. L’importanza del dato è nota, come gestirlo molto meno. Soprattutto, è necessario sviluppare un modello dedicato per riuscire a gestire in crescita per volumi, eterogeneo e dal quale ricavare informazioni in modo estremamente flessibile.

«Le fonti dei Big Data devono rivelarsi sicure, conformi e gestite a dovere – spiega Cesario -. Per noi è importante creare uno strato IT unico dove mettere in comune tutto il patrimonio informativo per metterlo a disposizione degli analisti. Spazio quindi a intelligenza artificiale e analisi statistiche avanzate».

Un passaggio importante è lo spostamento del baricentro dei dati sempre più verso il paziente. Cresce infatti l’utilizzo di sistemi di monitoraggio orientati a Internet, anche da remoti. Dati contestuali, analisi, IoT si combinano con la parte amministrativa e quella gestionale. Una delle sfide più interessanti oggi è passare da un’analisi descrittiva, a un’ottica maggiormente predittiva.

Superato il disordine, si può passare all’analisi

Preso atto della situazione, la differenza sul mercato si vede tra chi riesce a gestirla. «Il nostro approccio è partire dalla governance del dato e l’interoperabilità. In modo però sicuro, costruendo un livello dove mettere a fattor comune le fonti eterogenee. Più ancora di Big Data, trovo adatto parlare di Data Lake. Da qui, si può costruire un data warehouse utile poi per analisi specifiche».

Per chi sui dati ha costruito le proprie fortune, un passaggio all’apparenza scontato. In realtà, il modo migliore per mettere ordine tra informazioni di ogni natura e provenienza e permettere così agli utenti finali, clinici e dirigenti della Sanità, di potersi occupare solamente dell’aspetto pratico, nel rispetto delle proprie competenze e conoscenze.

«È utile cercare l’interazione con chi può aiutare sulla sensibilità all’interno delle strutture, a partire dai direttori generali e dai CIO. Relazioni da incrociare con le realtà da cui provengono i dati. Interlocutori in grado di fare da interfaccia tra il reparto IT e il cliente, persone in grado di tradurre il linguaggio di business nel contesto sanitario».

Caccia alle idee

Cresce di conseguenza il peso dei partner. System integrator in prima fila, ma anche chi è in grado di portare piccole novità molto mirate, capaci però di favorire il necessario cambio di mentalità. «Dedichiamo grande attenzione anche al mondo startup. In particolare, intelligenza artificiale e machine learning, ma anche realtà aumentata e intelligence applicata al mondo social».

«La nostra filosofia attuale di Autonomous Database si sposa molto bene con questo settore – conclude Cesario -. Un nuovo approccio ai Big Data con caratteristiche di intelligenza artificiale tali da introdurre automatismi dove prima era necessario l’intervento umano, con relativo rischio di errore. Permette al database quasi di autogestirsi e porta benefici non solo all’IT. Per esempio, si passa da settimane a giorni per la fase di realizzazione e riduce i fermi per manutenzione».

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here