We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.
The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ...
Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.
Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.
Ti è mai capitato di non riuscire a leggere una tabella di dati in un foglio di calcolo ma poi riuscire a cogliere in un attimo quello che cercavi vedendo gli stessi dati visualizzati in un grafico?
In tutte le realtà aziendali ci troviamo a dover gestire moli di dati considerevoli, generati in modo spesso non strutturato e non facilmente aggregabili in modo omogeneo.
Il primo problema che tutte le aziende si trovano ad affrontare è la generazione di valore a partire da dati grezzi.
Le fonti di dati possono essere classificate principalmente in:
Il dato, in entrambi i casi, può assumere forme, tempi di disponibilità e modalità di gestione estremamente diverse tra loro.
Quando il dato diventa informazione? Non esiste una regola precisa se non una sensibilità e una consapevolezza che accresce con gli anni e con l’esperienza.
In generale il dato diventa informazione quando a seguito di manipolazione contiene “qualcosa in più” che gli consente di essere il motore per poter prendere decisioni, intraprendere azioni o evitare dei rischi.
La corretta manipolazione dei dati, la correlazione tra le diverse fonti, formati e sorgenti diverse, la velocità con cui sono resi disponibili e la forma con cui sono presentati porta, in modo naturale, a far emergere il contenuto informativo (e quindi efficace) da tutto l’insieme dei dati esistenti in un panorama aziendale.
L’insieme dei dati, se opportunamente gestito, permette di conoscere modellare e prevedere il comportamento dei sistemi sotto analisi: è fondamentale sapere manipolare senza sprechi, sia in termini di tempo che economici, questa ricchezza aziendale.
Il comportamento di un sistema può essere modellato e reso prevedibile a partire dai dati storici che ha generato:
I modelli di comportamento sono utili per indirizzare scelte di marketing o tecnologiche, per individuare problemi, attuali o prevedibili, (ad esempio il traffico su apparati di rete o efficacia della UX) e individuare soluzioni in tempo utile.
Il processo di gestione dei dati può essere schematicamente descritto in alcune fasi o momenti:
In quale momento nasce il valore del dato? In ogni fase sopra elencata può nascere un arricchimento del dato così da renderlo informazione significativa per i diversi attori aziendali (vendite, acquisti, sviluppo, produzione, ecc.)
Per la nostra esperienza i dati possono essere generati e presenti in molte forme:
L’enorme problema è individuare e implementare dei processi snelli e gestibili che permettano di mettere in correlazione questi dati ed evidenziare in modo estremamente chiaro e netto le informazioni.
Esistono diversi approcci e soluzioni a questo problema: la nostra esperienza ci insegna che prima di approccio è fondamentale che tutte le possibili opzioni siano vagliate con cura ed attenzione.
Non esistono panacee ma solo competenza ed esperienza nel trovare il giusto approccio al problema e le giuste tecniche (ETL, sviluppo custom di processi, correlazione visiva, ecc.)
I dati di navigazione devono necessariamente essere conservati per le successive analisi e la scelta di dove conservare e mantenere questi dati è fondamentale e non sempre una scelta scontata, viste le numerose alternative sia in termini di tecnologie che di prodotti.
Il primo dilemma è sul tipo di tecnologia: un sistema tradizionale (Database relazionale, file system) o una tecnologia Bigdata (Hadoop, MongoDB, Custom, ecc.) ?
La scelta deve essere effettuata prendendo in considerazione diversi fattori quali la mole di dati, la velocità di arrivo dei dati stessi e come verranno trattati e visualizzati oltre che aspetti di natura finanziaria e di costo di gestione dello storage e dei sistemi di calcolo.