Nel recente passato si è affermato con forza il bisogno per le imprese di aumentare la propria efficacia sul mercato attraverso l’analisi dei Big Data, ovvero l’enorme mole di dati che viene generata quotidianamente e che rappresenta un potenziale ancora inesplorato, in grado di fornire una sorta di bussola utile ai manager per indirizzare le proprie scelte.
Anche in Italia, in linea con lo scenario internazionale, il volume complessivo dei dati analizzato è in costante crescita (+23% nel 2014, secondo la ricerca Big Data Analytics & Business Intelligence (BDA&BI) del Politecnico di Milano). Ciononostante, le opportunità restano molteplici, se si pensa che ancora oggi meno del 50% dei dati disponibili nei sistemi aziendali viene effettivamente utilizzato nelle applicazioni di Big data analytics. Ma come coglierle?
A cosa serve l’analisi dei dati
Accanto a soluzioni cross-industry, che risolvono esigenze comuni a tipologie diverse di imprese, tipicamente quelle relative al customer service o alla segmentazione della clientela, si vanno affermando soluzioni specifiche per alcuni settori. Eccone alcune.
• Finance: gestione del rischio creditizio, analisi dell’andamento degli indici azionari, gestione delle frodi, analisi sui comportamenti dei clienti;
• Retail: ottimizzazione della distribuzione e della logistica, analisi sul comportamento nello store, ottimizzazione di prezzo, cross e up-selling;
• Manufacturing: gestione degli asset e manutenzione, previsione della domanda, ricerca e sviluppo nuovi prodotti, operations analytics;
• Utility e Telco: pianificazione della capacità della rete, manutenzione della rete, analisi dei churn, marketing geolocalizzato, analisi dei consumi;
• PA e Sanità: analisi delle frodi e degli errori, supporto decisionale clinico.
Quali dati analizzare
Attualmente le organizzazioni italiane nella maggior parte dei casi si limitano ad analizzate dati “tradizionali”: l’83% dei dati utilizzati dai sistemi BDA&BI è infatti di tipo strutturato, ossia organizzato secondo schemi di database predefiniti e perciò facilmente manipolabili e l’84% è costituito da dati interni all’organizzazione, ossia generati dai processi aziendali, come ad esempio dai sistemi gestionali.
In dettaglio, tra i dati prevalentemente analizzati vi sono le tabelle, i record, le documentazioni di office automation nel 95% dei casi, dati XML e standard simili nel 41%, e-mail e file di testo nel 24%, dati correlati a eventi come messaggi real-time nel 17%.
Solo il 16% proviene da fonti o processi esterni (es: dal web o social media).
Come sfruttare al meglio l’analisi: gli ostacoli da superare
Secondo la ricerca del Politecnico di Milano, le cause principali del mancato utilizzo dell’intero patrimonio dei dati a disposizione sono legate prevalentemente ad aspetti organizzativi. La tecnologia, invece, non sembra essere un problema per la maggior parte delle aziende, né dal punto di vista dei tool di Analytics, oggi largamente disponibili, né dal punto di vista delle competenze tecnologiche.
Ecco in sintesi i principali ostacoli riscontrati (tra parentesi le percentuali delle aziende che hanno evidenziato il problema) e le aree di intervento su cui è necessario focalizzare l’attenzione.
· Mancanza di figure organizzative specializzate (46%)
· Assenza di un team di governance interfunzionale (40%)
· Mancanza di un presidio dell’intero ciclo di vita di gestione del dato (27%)
· Assenza di fonti informative integrate (per il 43% delle aziende)
· Assenza di una strategia condivisa per la gestione dei sistemi BDA&BI (41%).