wireless4innovation corrierecomunicazioni
accedi
ict4 Executive 4 Trade 4 HR 4 PMI 4 Professional 4 Cloud 4 Procurement Security Data Center
ICT4Executive
Approfondimenti Interviste Business Case Who's who News dots White Paper dots Eventi dots Video

Big Data, la parola a chi li ha già analizzati

L’analisi di grandi moli di dati non è una moda passeggera e neanche di uno scenario futuribile, ma una leva strategica per cambiare il modo di lavorare. Un evento organizzato da ICT4Executive a Milano ha dato voce a utenti ed esperti, con Carlo Ratti dell’MIT (foto) come ospite d’eccezione e le testimonianze di Esselunga, Unilever ed Edipower

di Manuela Gianni

gli eventi di ict4executive

15 Aprile 2013

L’impressionante quantità di dati che viene generata ogni minuto nel mondo digitale può diventare una miniera di informazioni utili e inattese, se si ha la capacità di estrarle e di comporle nel modo giusto. Per questo, il fenomeno Big Data non va guardato come una moda passeggera, ma come una nuova opportunità che la tecnologia può offrire ad aziende private e pubbliche amministrazioni negli ambiti più disparati. Si tratta, in altre parole, di un nuovo modo per descrivere il mondo fisico da un punto di vista mai utilizzato. Le analisi consentono per esempio di individuare le frodi fiscali, di comprendere i comportamenti dei consumatori o gli spostamenti dei turisti, di gestire al meglio l’accesso ai servizi sanitari, di ottimizzare i flussi di traffico nelle città, di ascoltare le opinioni espresse sui social network, di valutare i rischi in ambito finanziario. E molto altro.

Il Big Data Forum organizzato a Milano da ICT4Executive ad aprile ha fornito alla platea l’occasione per scoprire il fenomeno fotografando la realtà con esperienze già in campo, e proiettandola nel futuro con esempi di applicazioni di frontiera.

Il compito di inquadrare il tema è stato affidato a Carlo Vercellis, docente del Politecnico di Milano e Responsabile dell’Osservatorio Business Big Data Analitycs e Business Intelligence.

Carlo Vercellis, Politecnico di MilanoCarlo Vercellis, Politecnico di MilanoPer definire i Big Data Vercellis ha utilizzato cinque dimensioni, le 5 V: Volume (si usa ormai l’unità di misura Zettabyte, un miliardo di Terabyte), Varietà (cioè strutturati e non strutturati, come e mail immagini audio e video), Velocità (di accesso e di presa delle decisioni), Variabilità e Viralità. Per comprendere il frenetico ritmo di crescita dei dei dati generati (dagli utenti, dalle connessioni machine-to-machine, dai sensori ecc…) si possono fare svariati esempi: ogni minuto nel mondo vengono caricate 48 ore di video su YouTube, spedite 204 milioni di mail, mandati 100mila tweet, scaricate 47mila App. Una la lista che potrebbe continuare a lungo.

Appare chiaro che oggi la Business Intelligence sta cambiando significato: con l’analisi di dati strutturati e destrutturati, come quelli provenienti dai Social Network, non ci limita a formulare domande che già si conoscono, ma si arriva ad anticipare i desideri del cliente e supportarlo nella scelta.

 

Le ricerche dell’MIT

Una visione di alto livello di cosa può portare l’analisi dei Big Data (o diluvio di dati, come aveva titolato The Economist in una cover story dedicata all’argomento) è stata data da Carlo Ratti, docente dell’MIT e direttore del gruppo di ricerca Senseable City Lab, che ha presentato alcuni esempi delle ricerche realizzate.

“Le nostre città, il nostro ambiente costruito è sempre più ricco di sensori, di reti, di sistemi che ci permettono di raccogliere dati e creare un legame fra il mondo fisico e quello digitale”, ha affermato.

Carlo Ratti, MITCarlo Ratti, MITUn primo studio considera le reti cellulari, che generano una grande mole di dati che possono essere analizzati per finalità diverse. Un progetto realizzato in Inghilterra con dati British Telecom ha permesso di realizzare una geografia del Paese che utilizza come parametro proprio le connessioni telefoniche, cioè le chiamate effettuate fra due persone in luoghi diversi. L’esigenza iniziale in questo caso era di ridisegnare le mappe elettorali.

Con una banca internazionale in Spagna sono state invece analizzate tutte le transazioni effettuate con carte di credito nel tempo e nei diversi negozi. Miliardi di dati che permettono di ottenere informazioni interessanti, ad esempio i bacini di attrazione, ovvero da dove arrivano le persone che comprano in un determinato punto vendita.

Utilizzando, invece, i dati sui taxi di New York, che sono liberamente disponibili, Ratti ha studiato che cosa succederebbe se si potessero  combinare i viaggi. Il risultato è sorprendente: basterebbe la metà delle macchine attuali per poter fornire lo stesso servizio!

Un’altra analisi interessante è quella effettuata sulle foto geolocalizzate caricate su Flick dai turisti della Toscana, che ha permesso di analizzare gli spostamenti effettuati, molto differenti per esempio fra americani e italiani.

Sono in corso, infine, analisi per comprendere il percorso dei rifiuti durante le fasi di smaltimento, grazie a piccoli trasmettitori opportunamente inseriti: informazioni molto utili per gestire un problema tanto rilevante per il futuro del Pianeta.

L’infrastruttura tecnologica

La visione tecnologica dell’infrastruttura necessaria per gestire i Big Data è stata fornita alla platea da Fabio Chiodini, Emc Field Senior Technologist, Enrico Proserpio, Senior Technology Directir Sales Consultant di Oracle Italia e Giorgio Moresi, BI Director & Top Client Solution Manager di Xenesys, fornendo dunque il punto di vista di due vendor e di un system integrator, tutti concordi nell’affermare che la tecnologia è oggi ampiamente disponibile, ma va scelta con cura perché, come ha spiegato Moresi, “Big Data è un obiettivo mobile, quello che è grande per un’azienda è piccolo per un’altra, non esiste una soglia definita”.

L’infrastruttura per i Big Data deve garantire agli utenti semplicità di accesso e di fruizione, fornendo risorse di calcolo, storage e networking scalabili e flessibili. Per permettere alle applicazioni di lavorare con migliaia di nodi e grandi volumi di dati, il software al momento più utilizzato è Hadoop, un file system open source. “Hadoop non è semplice da usare – ha affermato Chiodini – per questo VMware sta lavorando a un tool che permette agli esperti di Business Intelligence di utilizzarlo attraverso le query in uso con i tradizionali Data Base”. Il manager ha anche rivelato che RSA, società di Emc che si occupa di sicurezza, attraverso l’analisi Big Data dei tweet è riuscita di recente a sventare un attacco di anonymous”.

Enrico Proserpio di Oracle ha evidenziato che “il Big data non deve diventare un altro silos ma deve essere integrato con il resto dell’infrastruttura IT e  Oracle è in grado di fornire l’intero stack software integrato”.

Le esperienze degli utenti

Grande interesse del pubblico hanno riscosso, sul finale della mattinata, le testimonianze di importanti aziende italiane che hanno spiegato le proprie esigenze in tema di analisi strategica dei dati.

Andrea Airoldi di UnileverAndrea Airoldi di UnileverAndrea Airoldi, Global Media Manager di Unilever Italy Holdings, multinazionale che produce molti brand noti noti (fra cui Svelto, Lipton, Algida e Cif, solo per citarne alcuni), ha evidenziato due ambiti di intervento. Il primo cerca di comprendere i comportamenti dei consumatori e l’impatto dei diversi Media sulle vendite, mentre il secondo ambito ha l’obiettivo di prevedere i comportamenti futuri, ad esempio attraverso l’analisi dei search sui motori di ricerca.

Andrea Carbonera Giani, Responsabile Area CRM di Esselunga, la nota insegna della GDO, ha spiegato che l’azienda ha realizzato di recente un progetto che parte dall’analisi degli scontrini emessi nei punti vendita per arrivare a ottimizzare i riordini, che prima venivano fatti da un operatore specializzato sulla scorta della propria esperienza personale. Si tratta di un aspetto critico perché non ci sono magazzini nei punti vendita: per evitare che manchino prodotti negli scaffali è fondamentale un riordino puntuale. Esselunga ricorre al “Data mining” anche per offrire ai clienti promozioni personalizzate, accessibili attraverso chioschi nei punti vendita, il sito Web e le App.

Il punto di vista di un’azienda industriale è stato presentato da Gianluca Fusco, CIO di Edipower, una delle principali società italiane di produzione di energia elettrica, del gruppo a2a. Una centrale elettrica, ha spiegato il manager, è un immenso campo di sensori che genera un enorme quantità di dati e la società sta ora integrando questo mondo con quello dell’IT, in real time, ottenendo grandi benefici di business: l’analisi del comportamento dell’impianto permette di effettuare la manutenzione all’abbisogna, di fornire alla contabilità dati più tempestivi e attendibili e via dicendo. In sintesi, l’analisi delle informazioni sta cambiando il modo di lavorare dell’azienda, con l’IT e il business che disegnano la rotta insieme.

All’evento è intervenuto anche Marcello Albergoni, Sales Manager di LinkedIn in Italia, il social network professionale che oggi conta 200 milioni di membri nel mondo, di cui 4 in Italia, in costante crescita. L’analisi delle informazioni generate dagli utenti sui social media rappresenta infatti uno degli ambiti di maggiore interesse per i Big Data.


TAG: Esselunga, Unilever, Edipower, Ratti, Big Data, Business Intelligence


iscriviti alla newsletter

Partner Solution Center


Le sfide dell'ERP by Panthera

 

IT Guide