Come ormai palese, la mole di dati a disposizione delle aziende è in continuo aumento e ha raggiunto dimensioni così estese da richiede strumenti specifici per l’elaborazione.
Quando si parla di Big Data non bisogna fare riferimento solo ai dati strutturati, come ad esempio i database, ma anche a quelli non strutturati, come quelli provenienti dal web o dai social media. Proprio questo risulta essere il punto cruciale in cui l’approccio italiano ai Big Data incorre in una battuta d’arresto: solo il 16% dei dati utilizzati dalle organizzazioni italiane è di tipo destrutturato, a fronte di un 83% di dati strutturati, provenienti da processi aziendali e quindi facilmente manipolabili. Nonostante un aumento nell’utilizzo dei dati semi-strutturari o destrutturati rispetto agli anni passati, ancora meno del 50% dei dati risultano essere attivamente utilizzati dai sistemi di Big Data Analytics e Business Intelligence.
La “diffidenza” nei confronti dei dati non strutturati, che contengono informazioni esogene all’azienda, può essere condotta a più fattori: a dispetto di quanto istintivamente si potrebbe pensare, la motivazione del mancato utilizzo risulta risiedere in problemi di governance. Un proficuo utilizzo dei Big Data richiede competenze ad hoc, che vanno dalla privacy (basta poco per incrinare il rapporto di fiducia con il cliente), alla statistica, ai sistemi di Advanced Analytics, al project management per la gestione di progetti interfunzionali caratterizzati da un forte grado di complessità.
Le opportunità fornite dai processi di Big Data Analytics e Business Intelligence sono di sicuro interesse, sia in un’ottica consuntiva che predittiva, ma l’approccio che bisogna adottare non può essere quello di un semplice ampliamento di una funzione aziendale, quanto di creazione di figure specifiche (es. Data Scientist, Chief Data Officer o Chief Information Officer) all’interno di un progetto ben definito.
Fonti:
Canon.it
Canon.it (2nd Link)