Il potere dell’analisi dei dati
Nel 2021 sono stati prodotti quasi 2 miliardi di terabyte al giorno: una quantità di dati difficilmente immaginabile, che è solo destinata a crescere senza illusione di fine.
Per avere una percezione dei dati che ognuno di noi produce quotidianamente basti pensare che solo Facebook salva nei suoi server circa 1000 terabyte al giorno e lo fa esclusivamente con i nostri post (testo, foto, video); la stessa cosa accade con WhatsApp (basti pensare ai messaggi vocali).
A noi sembra tutto normale; difficilmente realizziamo che dietro un click, un post o una condivisione di foto ci sia un sistema complesso e ben strutturato, capace di elaborare questa grande quantità di dati spremendoli un po’ come si fa con le olive ed estraendone un prodotto puro e fondamentale per la sussistenza di grandi aziende (negli ultimi tempi anche PMI): le aziende che supportano le decisioni con l’elaborazione di grandi quantità d’informazione ottengono risultati migliori.
Ad aumentare ed infoltire questo fiume di dati, negli ultimi anni sono da considerare anche tutte quelle informazioni, spesso sensibili, raccolte dai nostri dispositivi IoTs (domotica): negli ultimi 2 anni sono raddoppiati nelle nostre case le installazioni di sistemi intelligenti in grado di automatizzare la nostra quotidianità, ma a favore di un nostro vantaggio immediato accettiamo di vendere gratuitamente tutte le nostre abitudini, le nostre intenzioni, le nostre voglie.
Per maneggiare così tante informazioni servono computer, data center e una quantità enorme di dispositivi di rete che comportano un costo notevole anche dal punto di vista ambientale: basti pensare che il web consuma, dal punto di vista energetico, quanto una nazione e per la precisione come la quarta nazione al mondo. Immaginate quanta quantità di anidride carbonica viene prodotta quotidianamente; è chiaro che questa è una strada ormai tracciata da cui difficilmente si potrà tornare indietro.
Le aziende che basano le loro decisioni sui fatti elaborati da computer godono di un vantaggio competitivo enorme rispetto a quelle che non lo fanno. Tutte vorrebbero godere di tale vantaggio, ma spesso si imbattono in barriere importanti: in primis, la mancanza di competenze in grado di trovare un senso all’enorme mole di dati disponibili, soprattutto nei campi della supply chain e del marketing. In tali settori le aziende vorrebbero supportare la costruzione di servizi che rispondono alle nuove esigenze dei consumatori, ma anche l’evoluzione dei comportamenti e le aspettative dei clienti (velocità nell’assistenza, prezzi dedicati, contenuti contestualizzati in tempo reale e così via).
Occorre quindi una figura aziendale che possa capire come innestare l’analisi dei dati nel business aziendale: l’applicazione di tecnologie di machine learning diventa indispensabile per “spremere” tutte le informazioni e restituire un risultato comprensibile e utilizzabile in azienda, per sopravvivere prima ed essere più competitiva dopo.
Francesco Guerrieri
Innovation Manager DPO, CEO Omniasoft