Main partner:

Jobs

Il 95% delle aziende raccoglie dati cliente, ma solo il 33% personalizza i contenuti per ogni individuo

Sono solo un terzo le aziende italiane che oggi personalizzano i contenuti in funzione dello specifico individuo, mentre circa il 44% dichiara di non farlo e il restante 23% sta attualmente lavorando per favorire queste logiche di personalizzazione.

Nello specifico, il 95% delle aziende raccoglie dati di anagrafica cliente, ma solo il 33% personalizza i contenuti in funzione dello specifico individuo.

Sono alcune delle evidenze emerse dalla seconda edizione dell’Osservatorio Omnichannel Customer Experience, promosso dalla School of Management del Politecnico di Milano. La ricerca si è basata su oltre 100 interviste lato domanda e offerta, una survey condotta su un campione di grandi e medio-grandi aziende italiane appartenenti ai principali settori e tre momenti plenari di confronto e discussione che hanno coinvolto complessivamente oltre 150 aziende della domanda (leggi di più su Engage.it).

Secondo il report stilato, come evidenziato, la quasi totalità delle aziende raccoglie e immagazzina i dati di anagrafica cliente (95% dei casi analizzati) e le informazioni di contatto del cliente (95%). Molto diffusa è anche la raccolta dei dati relativi allo storico dei prodotti/servizi acquistati offline (81%) e dei dati di analytics su canali proprietari, come per esempio comportamento sul sito, app, pagine sui social network ufficiali/aziendali, su DEM/newsletter e così via (81%).

«Il 90% delle imprese analizzate dichiara di utilizzare alcuni dei dati raccolti per costruire i segmenti funzionali alla progettazione ed erogazione di iniziative di marketing e comunicazione ai già clienti», dichiara Marta Valsecchi, Direttore dell’Osservatorio Omnichannel Customer Experience. «Eppure i dati utilizzati sono ancora soprattutto quelli più basici e tradizionalmente raccolti (come anagrafica cliente e storico dei prodotti acquistati)».

Le tecnologie disponibili e il grado di adozione

Le tecnologie potenzialmente a disposizione delle aziende sono oggi molteplici: dal punto di vista della data collection, la maggior parte delle aziende (69%) dichiara di disporre di un CRM unico, in grado di integrare tutti i dati sull’anagrafica dei clienti – anche relativi a più prodotti, brand e canali.

Rimane però un buon numero di imprese che ancora non ha completato questo step.

Il 23% delle aziende intervistate dichiara di utilizzare una piattaforma tipo CRM dinamico, Customer Data Platform o Customer Data Hub (CDH) in grado di integrare tutti i dati sul cliente, di diversa natura e provenienti dalle diverse fonti.

Il 21% delle aziende, inoltre, si è dotato di un Data Lake, ossia di un sistema che consente di archiviare un volume consistente di dati di diversa natura e fonte – tipicamente “big data” – nel loro formato nativo, senza alcuna struttura.

Tecnologie-Dati-Politecnico-Milano

DMP, la tecnologia per interagire con utenti non noti

Le interazioni degli utenti non noti vengono tracciate attraverso cookie che possono essere eventualmente gestiti tramite la Data Management Platform (DMP), una piattaforma in grado di raccogliere e processare grandi quantità di dati – sia proprietari che di seconda e terza parte – e di creare delle “audience” con finalità di comunicazione e advertising online.

Il 9% delle aziende intervistate si è dotato di una DMP proprietaria; il 19% si affida invece alla DMP di terzi (per esempio dei centri media o degli Over The Top).

Per quanto riguarda la generazione degli insight, i software di Business Intelligence consentono oggi di analizzare e visualizzare grandi quantità di dati sulla base di specifiche query, permettendo una maggiore comprensione dei fenomeni accaduti e in corso e aiutando a identificare schemi di comportamento.

Il 25% delle aziende dichiara di utilizzare strumenti di Analytics evoluti che consentono anche di predire i comportamenti degli utenti, il 13% utilizza anche dati in Real Time.

A valle del processo si trovano le tecnologie che abilitano la creazione e gestione del contenuto: tra gli strumenti più evoluti si trovano i Digital Asset Management (DAM), piattaforme che consentono la gestione “intelligente” di svariate tipologie di contenuti (audio, testi, video, ecc.), garantendone la coerenza di utilizzo sui diversi touchpoint.

Dalla survey emerge come le tecnologie legate alla gestione del contenuto non siano ancora al centro dell’attenzione delle aziende: il 2% utilizza una Creative Management Platform, il 16% una Dynamic Content Management System (o User Experience Platform) per la gestione del contenuto e il 15% un DAM.

Le soluzioni di Marketing Automation, infine, intervengono a valle dell’intero processo nella fase di delivery del contenuto. Il 71% delle aziende si è dotato di piattaforme di e-mail marketing, il 46% di piattaforme per l’invio di SMS e il 28% di soluzioni per la gestione di più canali.

Il GDPR ha avuto un impatto sulle attività di Big Data Analytics?

Il GDPR ha avuto un impatto sulle iniziative di Big Data Analytics, in termini di azioni intraprese dalle aziende e di implicazioni sui progetti? Secondo gli ultimi dati dell’Osservatorio Big Data Analytics & Business Intelligence del PoliMi, sì, soprattutto con azioni sulle policy interne, sia di accesso ai dati (62%) sia di conservazione (55%).

Il 43% delle grandi aziende coinvolte nello studio ha ammesso infatti di aver inserito delle voci relative agli Analytics nelle nuove informative sulla privacy rivolte ai clienti, mentre il 24% ha investito in tecnologie specifiche.

Meno di una grande azienda su tre (30%) dichiara che l’avvento del GDPR ha rallentato i progetti di Analytics in corso e soltanto l’1% ha dovuto bloccare delle iniziative a causa della nuova normativa. Per circa un’azienda su cinque (il 22%) il GDPR ha avuto un impatto positivo, soprattutto perché ha aumentato la consapevolezza sulle potenzialità degli Analytics (17%) e poi perché la presenza di un chiaro quadro normativo ha permesso di pianificare nuove iniziative nel medio-lungo periodo (5%). Per il 38% delle grandi aziende il GDPR non ha avuto nessuna conseguenza in ambito analisi dati: un segnale positivo, perché indica che queste aziende erano già preparate per adattarsi al cambiamento normativo. Infine, il 9% delle grandi organizzazioni non sa come valutare l’impatto del fenomeno.

La ricerca dell’Osservatorio ha inoltre evidenziato che le organizzazioni con una struttura dedicata alla Data Governance si sono dimostrate più preparate ad affrontare il tema: tre aziende su quattro hanno modificato le proprie informative sulla privacy con voci relative agli Analytics e più della metà delle aziende ha acquistato soluzioni tecnologiche specifiche.

Big Data Analytics, cresce il mercato in Italia: +26% nel 2018, a 1,3 miliardi di euro

Il mercato italiano dei Big Data Analytics continua a crescere nel 2018, raggiungendo un valore complessivo di 1,393 miliardi di euro, in crescita del 26% rispetto all’anno precedente. Lo rivelano i nuovi dati dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano.

Un risultato che conferma il trend positivo degli ultimi tre anni, in cui il settore è cresciuto in media del 21% ogni dodici mesi, anche se rimane molto ampio il divario fra le grandi imprese, che si dividono l’88% della spesa complessiva, e le Pmi, che rappresentano il 12% del mercato.

Il 45% della spesa in Analytics è dedicata ai software (database e strumenti per acquisire, elaborare, visualizzare e analizzare i dati, applicativi per specifici processi aziendali), il 34% ai servizi (personalizzazione dei software, integrazione con i sistemi informativi aziendali, consulenza di riprogettazione dei processi) e il 21% alle risorse infrastrutturali (capacità di calcolo, server e storage da impiegare nella creazione di servizi di Analytics). I software sono anche l’ambito con la crescita più elevata (+37%), seguito dai servizi (+23%) e risorse infrastrutturali (+9%). Tra i comparti merceologici, invece, i primi per quota di mercato sono le banche (28% della spesa), manifatturiero (25%) e telco – media (14%), seguiti da servizi (8%), GDO/Retail (7%), assicurazioni (6%), utility (6%) e PA e sanità (6%).

L’evoluzione del mercato dei Big Data Analytics, tuttavia, va ben oltre i numeri. Cambiano le metodologie di analisi, con l’avvento dirompente di tecniche di Machine Learning e Deep Learning, per le quali circa un terzo delle grandi imprese ha già acquisito le competenze necessarie, e dell’analisi di dati in tempo reale, già sfruttata dall’11%. Cresce l’esigenza di competenze di data science: il 46% delle grandi imprese ha già inserito figure di Data Scientist in organico, il 42% Data Engineer, il 56% Data Analyst. Nonostante una crescita del numero di imprese con un modello di governance della Data Science maturo (dal 17% al 31%), però, più della metà (55%) presenta un modello organizzativoancora tradizionale.

«Il mercato dei Big Data Analytics continua a crescere a ritmi serrati, superiori al 25% – afferma Carlo Vercellis, Responsabile scientifico dell’Osservatorio Big Data Analytics & Business Intelligence -. Crescono iniziative “fast data”, in cui l’analisi dei dati avviene in tempo reale, integrando diverse fonti informative in streaming e valorizzando in particolare le potenzialità della Internet of Things: tra queste ricordiamo real- time advertising, fraud detection, predictive maintenance, new product development. Ma per coglierne appieno i benefici, è necessario che i Big Data vengano analizzati secondo modalità smart, mediante sofisticati algoritmi di machine learning in grado di identificare pattern e correlazioni presenti nei dati e di trasformare questa conoscenza in azioni concrete che permettano alle imprese di acquisire vantaggio competitivo».

«Le dinamiche di crescita del mercato sono diverse a seconda delle dimensioni aziendali – afferma Alessandro Piva, Responsabile della ricerca dell’Osservatorio Big Data Analytics & Business Intelligence -. Mentre le PMI inseguono a fatica, tra le grandi aziende si è diffusa la convinzione che sia giunto il momento dell’azione: le imprese che hanno già avviato progetti ne stanno raccogliendo i benefici e sono spinte a continuare a investire, quelle rimaste indietro percepiscono l’urgenza di attrezzarsi. Parallelamente crescono le organizzazioni che hanno inserito professionalità qualificate per la gestione degli analytics, come data scientist, data engineer, data architect data analyst, e introdotto modelli organizzativi per sfruttarne al meglio le opportunità, uniformando scelte tecnologiche e dando vita meccanismi di coordinamento strutturati».

Le grandi aziende

La totalità delle grandi organizzazioni adotta Analytics di tipo descrittivo, ma molte stanno sperimentando un’evoluzione verso logiche di predictive, prescriptive e, in alcuni casi, automated Analytics. L’evoluzione passa attraverso tecniche di Machine Learning e Deep Learning, che abilitano nuove tipologie di analisi, e di Real-time Analytics. Il 62% delle grandi aziende dichiara di avere necessità di competenze specifiche di Machine Learning e Deep Learning: tra queste, poco più di un terzo le ha già introdotte in organico e un ulteriore 30% prevede di farlo nei prossimi due anni. Poco più di un’azienda su dieci (11%) invece sfrutta oggi modalità di analisi in Real-Time o in Streaming, in cui vi è un flusso continuo di raccolta dei dati che devono essere analizzati con continuità. Un ulteriore 33% possiede un’infrastruttura che consente analisi in Near Real-Time, con una frequenza d’aggiornamento che scende a meno di un’ora. Il 56% delle organizzazioni analizza i dati in modalità batch, con un aggiornamento del sistema a intervalli regolari e predefiniti (solitamente giornalieri).

Nonostante siano diminuite complessità e incertezze nel percorso di adozione di progetti di Analytics, rimangono alcuni ostacoli da superare. Le difficoltà maggiori riguardano la mancanza di competenze e figure organizzative interne (53%), l’integrazione dei dati (45%) e la stima dei benefici dell’investimento (34%).

Le PMI

Soltanto il 7% delle Pmi nel 2018 ha avviato progetti di Big Data Analytics, mentre quattro su dieci dichiarano di svolgere analisi tradizionali sui dati aziendali. Se si guarda alla consapevolezza e alla maturità tecnologica delle piccole e medie imprese, dalla ricerca emerge come il 10% continui ad avere una comprensione scarsa o nulla di quali vantaggi i Big Data potrebbero apportare e di come abbia un approccio all’analisi dei dati limitato e tradizionale. Poco meno di un terzo delle aziende, il 31%, è invece sulla buona strada sia dal lato della consapevolezza sia dal lato tecnologico. Circa quattro aziende su dieci (42%), inoltre, si sono mosse in una soltanto delle due direzioni o a causa di una visione limitata del fenomeno o a causa della mancanza di risorse per effettuare investimenti tecnologici. Una PMI su dieci, infine, si dimostra pronta per lanciare delle iniziative di Analytics.

Le startup

L’Osservatorio ha censito 443 startup operanti nel mercato dei Big Data Analytics, fondate a partire dal 2013 e finanziate dal 2016 in avanti, per un totale di 4,74 miliardi di dollari di investimenti raccolti. Quelle che complessivamente raccolgono più finanziamenti, circa 30,6 milioni di dollari ciascuna, sono in ambito Technology (l’8% del totale delle startup), che offrono strumenti per la raccolta, l’analisi l’immagazzinamento, l’organizzazione e integrazione dei dati.

L’UPA sta costruendo una DMP condivisa tra le aziende associate

L’UPA, l’associazione che rappresenta le aziende che investono in pubblicità, è molto interessata alla possibilità di utilizzare la Blockchain per accrescere la trasparenza nell’ambito del programmatic advertising ed ha avviato, con la collaborazione tecnica del Gruppo Reply, un progetto finalizzato all’applicazione di questa tecnologia alla filiera, in modo da avere totale visibilità dell’attività di tutti i soggetti coinvolti nell’erogazione delle campagne.

Ad annunciarlo è stato il presidente dell’UPA Lorenzo Sassoli de Bianchi, mercoledì nell’ambito della tradizionale Assemblea dell’associazione. E non si tratta dell’unica novità riguardo al programmatic.

La stessa UPA sta infatti sperimentando la costruzione di una “data pool” condivisa tra i propri associati che accresca l’affidabilità e la qualità dei dati disponibili per le pianificazioni pubblicitarie. Tale DMP – che vede Neodata come partner tecnico – è attualmente in via di sperimentazione con 6/7 associati coinvolti e potrebbe diventare in un secondo momento uno “strumento aperto”, a cui le aziende potrebbero accedere per “arricchire” i propri dati di prima parte con informazioni di proprietà di altre aziende (ovviamente in forma criptata e anonimizzata) per creare segmenti di audience e altro. In una prima fase, questa DMP conterrebbe essenzialmente cookie, ma potrebbe successivamente integrare anche dati diversi.

Resta quindi alta l’attenzione dell’UPA verso il tema del programmatic, che resta uno tra i più caldi per l’associazione degli spender come si era già visto dall’ampio spazio dedicato ad esso nell’ambito del recente Libro Bianco sul Digitale realizzato insieme alle altre principali Associazioni del mercato. Del resto, l’attenzione all’innovazione è uno dei valori che il Presidente Sassoli ha indicato come fondanti nell’attività dell’Associazione, che quest’anno compie settant’anni.

Per quanto riguarda i dati di mercato, secondo le previsioni dell’UPA il 2018 sarà il quarto anno consecutivo con il segno positivo e chiuderà con l’1,5% di incremento degli investimenti in comunicazione, di cui circa il 30% saranno riversati sul digitale.

The Trade Desk potenzia la sua piattaforma di programmatic con l’AI

La piattaforma internazionale di tecnologie per il programmatic advertising The Trade Desk ha annunciato il lancio di una serie di nuovi prodotti per aiutare gli inserzionisti a usare nuovi insight data-driven per pianificare, ottimizzare e acquistare campagne sui media digitali con un’efficacia “maggiore che mai”.

New Wave” – questo il titolo scelto per la nuova suite di prodotti – si compone di tre strumenti diversi.

Il primo è Koa, un motore di intelligenza artificiale che dovrebbe aiutare inserzionisti e agenzie a prendere migliori decisioni riguardo alle campagne, e migliorarne le performance; poi c’è Planner, uno strumento di pianificazione che combina dati di prima e terza parte per scegliere i device, i network pubblicitari, i canali, le aree geografiche o i gruppi demografici che consentono di raggiungere il target nel modo più efficace, e suggerisce modi per ottimizzare la spesa media rispetto alle possibili opportunità. E infine ecco Megagon, intuitiva nuova interfaccia su cui visualizzare ed elaborare le informazioni di Koa per prendere decisioni in tempo reale.

Con i nuovi strumenti, la piattaforma “potenziata” di The Trade Desk dovrebbe agevolare gli spender soprattutto nella fase di pre-campagna, aiutandoli a stimare e ottimizzare l’impatto in termini di delivery e di costi di ogni ottimizzazione apportata nella piattaforma, prima di iniziare a erogare.

Tutti i nuovi strumenti sono disponibili gratuitamente per i clienti di The Trade Desk. “Siamo orgogliosi di lanciare The Next Wave per realizzare la promessa del programmatic: un approccio più data-driven all’advertising che offre benefici a inserzionisti, editori e consumatori”, commenta Jeff Green, Ceo e fondatore della società.

zeotap lancia i segmenti di audience dedicati ai Mondiali di Calcio

Novità in casa zeotap: l’azienda specializzata in dati deterministici per il targeting delle campagne online lancia una serie di nuovi segmenti di audience dedicati ai Mondiali di Calcio (e non solo) e si conferma in prima linea sul fronte della privacy e della sicurezza annunciando tre nuovi certificazioni con validità internazionale.

Nonostante l’assenza della nazionale italiana, i Mondiali di Calcio si confermano anche quest’anno un evento al centro dell’interesse degli spender pubblicitari, anche grazie alla copertura televisiva comunque completa, quest’anno garantita per la prima volta dalle reti Mediaset.

Per rispondere alle esigenze delle aziende che intendono rivolgere le proprie comunicazioni online agli utenti che seguiranno da vicino l’appuntamento con Russia 2018, la società guidata in Italia da Riccardo Polizzy Carbonelli ha sviluppato una serie di segmenti di audience dedicati, profilati secondo specifici interessi aggiuntivi e disponibili attraverso i i più importanti canali di distribuzione. Sulla base dei set di dati deterministici utilizzati da zeotap sarà possibile targettizzare all’interno del pubblico dei Mondiali di Calcio gli utenti interessati a Food & Beverage, Automotive, Electronics e Finance.

Non è l’unica novità nell’offerta dati di Zeotap, che in questi giorni rilascia una serie di nuovi profili sull’offerta mApp e mWeb: mamme con figli in età prescolare, night life, nutrition, personal finance, real estate, science, travel, tv & cinema, automotive, business, family & parenting, food & drink, health & fitness, home & garden.

Sul fronte della privacy, invece, zeotap ha conseguito nuovamente il “GDPR ePrivacy Seal”, confermandosi pienamente compliant con i dettami del nuovo regolamento europeo sulla protezione dei dati, che entrerà definitivamente in vigore il 25 maggio.

Inoltre, a maggio la società ha ottenuto il rinnovo della certificazione ISO/IEC 21007, probabilmente la più complessa tra le certificazioni conseguibili da una impresa in tema di sicurezza, a conferma del fatto che i dati sono appropriatamente gestiti in qualsiasi momento e ambiente. Frutto di una valutazione addizionale rispetto ai servizi cloud è invece l’ulteriore certificazione CSA Silver Star. Entrambe queste due ultime certificazioni hanno implicato un processo di auditing della durata di ben 6 mesi.

Gestione dei dati e intelligenza artificiale: queste le priorità di brand e agenzie nel 2018

Big data, customer experience e intelligenza artificiale. Sono questi i settori che aziende e agenzie considerano prioritari per il 2018.

Secondo quanto rileva una ricerca di WARC, il prossimo sarà un anno di digital transformation, e l’estrapolazione di insight dai dati sarà il principale focus sia per i brand (55%) sia per le agenzie (59%).

Altro pilastro su cui nei prossimi 12 mesi verranno costruite le strategie aziendali sono l’organizzazione e la gestione dei dati, tema citato dal 40% dei brand e dal 45% delle agenzie. Sempre legata ai dati è poi la questione dell’esperienza dell’utente, considerata prioritaria dal 53% delle aziende e dal 58% delle agenzie.

Lo studio ha evidenziato anche come la GDPR e la sua implementazione rappresentino la principale sfida per chi utilizza i dati. Solo pochi marketer ammettono di essere pronti, a pochi mesi dalla definitiva entrata in vigore del regolamento: in Europa è il 25% dei rispondenti, mentre nel resto del mondo è ancor meno, il 12%, nonostante il regolamento abbia effetto anche su aziende extra-europeee, a patto che abbiano clienti nel continente. A livello globale, sono i brand più che le agenzie a sentirsi equipaggiate per i cambiamenti apportati dal nuovo regolamento: il 22% contro il 15%.

Tra le tecnologie emergenti col maggiore potenziale, le aziende mettono al primo posto l’intelligenza artificiale (56%), seguita da chatbot e app di messaggistica (46%). Le agenzie, invece, sembrano valutare maggiormente i chatbot (52%) dell’AI (50%).

Oltre un terzo dei brand (il 38%), inoltre, è d’accordo sul fatto che le società di consulenza di management siano migliori delle agenzie nell’aiutare ad attuare la digital transformation; il 31% non concorda. E se metà delle agenzie mostrano fiducia nel proprio business model, un terzo pensa che le società di consulenza abbiano un vantaggio.

Webtrekk estende l’offerta di dati con cross-device bridge

La piattaforma di customer intelligence Webtrekk ha annunciato il lancio ufficiale del suo Cross-Device Bridge (CDB), un pool “cooperativo” di dati cross-device che consente alle aziende di seguire i propri utenti su molteplici dispositivi, con un aumento delle conversioni “fino al 15%”, sottolinea la nota della società.

Al momento Cross Device Bridge è disponibile in Germania e può essere attivato su richiesta anche in altri mercati.

“In un’era di clienti iper-connessi, Webtrekk ha rilevato che ben il 30% dei clienti effettua la conversione attraverso un percorso che coinvolge più device. Per ottimizzare la customer journey, le aziende devono essere consapevoli del comportamento dei loro utenti su tutti i device ma le differenze tra i dispositivi mobile e desktop rendono arduo recuperare queste informazioni: attraverso la condivisione dei dati nel CDB di Webtrekk, le conversioni dei clienti possono essere aumentate fino al 15%”, scrive WebTrekk.

Cosa significa “pool di dati cooperativo“? E’ presto detto: per avere a disposizione informazioni di utenti non loggati, le aziende possono condividere i propri dati scambiandoli con quelli delle altre aziende che aderiscono al progetto. Webtrekk mette a disposizione le informazioni in forma sicura e nel rispetto della legge sulla protezione dei dati, le imprese aderenti possono accedere alle informazioni senza che vi sia un’identificazione personale dell’utente. I dati sono di conseguenza protetti e possono essere utilizzati solo per un’analisi Cross-Device, ma non per altri scopi di marketing.

Il Cross-Device Bridge di Webtrekk è certificato “ePrivacy” e potrà dare alle imprese una visione Cross-Device completa dei propri utenti in conformità con la nuova normativa sulla protezione dei dati (GDPR) che sarà in vigore dal maggio dell’anno prossimo.

“Da molto tempo si parla di Cross-Device Tracking. Siamo lieti di avere dato vita a Cross-Device Bridge, il primo pool di informazioni cooperativo, certificato in base alla protezione dei dati, per le imprese europee” ha affermato Wolf Lichtenstein, CEO di Webtrekk. “Le aziende che aderiscono a Cross-Device Bridge traggono vantaggio dai dati di altre imprese in quanto tutti mettono a disposizione i propri insights nel pool. Diamo vita così alla prima coalizione europea”.

Si arricchisce dunque di una nuova soluzione il portafoglio di Webtrekk, la piattaforma europea di analisi e customer intelligence che consente ai clienti di comprendere meglio il comportamento dei propri utenti in relazione ai dispositivi utilizzati, di fare delle analisi e optare per soluzioni di mirate. Fondata nel 2004, Webtrekk ha sede a Berlino e uffici a, Madrid, Amsterdam, Beijing e Milano, quest’ultima guidata dal country manager Nicola Liverani.

Cresce nelle aziende l’importanza del data scientist: quasi un’impresa su due possiede questa figura

C’è una nuova figura professionale che sta acquisendo sempre più importanza nel mondo del lavoro: è quella del Data Scientist. Secondo i dati dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano (qui una sintesi della ricerca), quest’anno quasi un’impresa su due (il 45%) ha già inserito nel proprio organico uno o più data scientist, un dato in crescita rispetto al 31% del 2016.

Segno che aumenta nelle imprese la consapevolezza sull’importanza dei dati e di figure esperte dedicate alla loro gestione.

L’Osservatorio rivela che, tra le grandi imprese che si sono dotate di questa figura, più del 30% ne ha definito formalmente ruolo e collocazione organizzativa. Inoltre, in media le aziende che contano già dei data scientist in organico dichiarano di volerne incrementare il numero nei prossimi 12 mesi (+46%), ulteriore conferma dell’impatto positivo di queste competenze. Tra le organizzazioni che ne sono ancora sprovviste, il 29% ne prevede l’introduzione, nel 45% dei casi entro il prossimo anno.

Fra le imprese che hanno assunto data scientist, il 28% ha iniziato a riconfigurare i propri processi organizzativi secondo una modalità Data Science Enabled, ma le competenze specializzate inserite lavorano ancora prevalentemente nella funzione IT o in altre specifiche funzioni aziendali. Il restante 17% invece ha raggiunto un livello di governance avanzato che segue svariati modelli organizzativi, diversi in base alla presenza o meno di una struttura centrale di coordinamento. Il 55% delle imprese che non hanno inserito in organico figure specializzate, invece, presenta ancora un modello organizzativo tradizionale, in cui le singole unità di business sono orientate ad analizzare i dati di propria competenza, senza alcuna visione aziendale complessiva.

La ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano ha coinvolto attraverso una survey oltre 1.100 CIO, Responsabili IT e c-level di altre funzioni di medie e grandi organizzazioni e analizzato oltre 1.100 player dell’offerta tramite interviste dirette o fonti secondarie.

Big Data Analytics, cresce in Italia il mercato e la consapevolezza delle aziende sul suo potenziale

Cresce il mercato dei Big Data Analytics e insieme ad esso cresce anche la consapevolezza delle aziende italiane delle opportunità offerte dai dati. Secondo quanto rileva la ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano, quest’anno il valore del mercato è aumentato del 22%, raggiungendo la cifra complessiva di 1,1 miliardi di euro, e il 43% dei CIO italiani oggi vede la Business Intelligence, i Big Data e gli Analytics come la principale priorità di investimento nel 2018.

Il processo di trasformazione delle tradizionali imprese italiane in “big data enterprise” è però ancora lungo: soltanto il 17% ha raggiunto un buon livello di maturazione (contro l’8% del 2016), mentre il 26% si trova in una fase di riconfigurazione dei propri processi organizzativi e il 55% è rimasto legato a un modello organizzativo tradizionale, in cui le singole unità di business analizzano i dati di propria competenza senza una visione aziendale complessiva.

«Il valore del mercato Analytics continua a crescere a ritmi elevati e quest’anno ha superato la soglia del miliardo di euro – commenta Carlo Vercellis, Responsabile scientifico dell’Osservatorio -. È il segnale che le grandi imprese ormai conoscono le opportunità offerte dai Big Data e hanno una strategia data driven orientata agli aspetti predittivi e all’automatizzazione di processi e servizi. L’utilizzo dei Big Data Analytics è indispensabile per non rischiare di perdere capacità competitiva: le imprese che negli anni scorsi hanno saputo approfittarne, affiancando all’innovazione tecnologica un modello organizzativo capace di governare il cambiamento, oggi si trovano in portafoglio processi più efficienti, nuovi prodotti e servizi con un ritorno dell’investimento certo e misurabile».

«Le grandi imprese hanno compiuto grandi passi in avanti, con un maggiore investimento di risorse ma anche di competenze, come dimostra il 45% di aziende che ha inserito figure di data scientist in organico – aggiunge Alessandro Piva, Responsabile della ricerca dell’Osservatorio Big Data Analytics e Business Intelligence –. Anche le PMI mostrano un diffuso interesse per l’analisi dei dati, con l’utilizzo di strumenti di data visualization e analytics di base, ma anche servizi di supporto alle attività di marketing. Sebbene coprano ancora oggi soltanto il 13% del mercato, la crescita della spesa è un segnale che, seppur più lentamente, si stanno muovendo nella giusta direzione».

Le grandi aziende e i Big Data

Per quanto riguarda le grandi imprese, nonostante un generale utilizzo dei descriptive analytics, strumenti che descrivono la situazione attuale e passata dei processi aziendali, con una crescita di 11 punti percentuali rispetto allo scorso anno, l’area di maggiore interesse è quella dei predictive analytics, che consentono di effettuare previsioni sull’evoluzione del mercato e sulle strategie, già diffusi nel 73% dei casi (contro il 59% del 2016). Sono ancora indietro, invece, i prescriptive analytics, tool avanzati capaci di proporre soluzioni sulla base delle analisi svolte, presenti solo nel 33% delle grandi imprese (pur in aumento di dieci punti), e ancora di più gli automated analytics, capaci di avviare autonomamente l’azione proposta secondo il risultato delle analisi, diffusi solo nel’11% delle organizzazioni, prevalentemente a livello pilota, pressocché in linea con quello dello scorso anno (10%).

Quanto agli scopi di utilizzo dei dati, il miglioramento dell’engagement con il cliente è quello che la fa da padrone: tra le aziende che hanno avviato iniziative, infatti, questa motivazione si attesta nel 70% dei casi, seguita dall’incremento delle vendite (68%), la riduzione del time to market (66%), l’ampliamento dell’offerta di nuovi prodotti e servizi e l’ottimizzazione dell’offerta attuale per aumentare i margini (64% ciascuno), la riduzione dei costi (57%) e la ricerca di nuovi mercati (41%). Anche tra i risultati effettivamente ottenuti spicca il miglioramento dell’engagement con il cliente, segnalato dalla totalità delle imprese (il 100% degli intervistati), mentre il 91% ha incrementato le vendite, il 78% ha ridotto il tempo che intercorre fra l’ideazione e commercializzazione del prodotto, il 67% ha ampliato l’offerta di prodotti e servizi, il 73% ha ottimizzato l’offerta per aumentare i margini di guadagno, il 56% ha contenuto i costi e il 38% cercato nuovi mercati. Quasi due società su tre danno un giudizio positivo dei risultati ottenuti: in particolare, il 13% giudica i risultati disruptive, il 21% un grande successo, il 29% un moderato successo, mentre soltanto il 37% ritiene che sia prematuro esprimere una valutazione e nessuna considera un fallimento questo tipo di iniziative.

Tra gli ostacoli principali ai progetti di Big Data Analytics, spiccano la mancanza di impegno e coinvolgimento da parte del top management (53%) e la mancanza di competenze e figure organizzative interne come Chief Data Officer e Data Scientist (51%). Invece non sembrano essere elementi di freno sostanziali i software poco usabili o le soluzioni obsolete (12%), così come la capacità di reperire dall’esterno professionalità con l’adeguato mix di competenze (22%). «Questi dati confermano che il mercato dell’offerta è pronto, con soluzioni allo stato dell’arte e competenze di Big Data Analytics crescenti – afferma Piva – persiste invece in molti casi un gap nella capacità di internalizzare figure e skill in grado di analizzare i dati e la capacità di sviluppare modelli di governance della datascience maturi». Tra gli altri freni vengono segnalate la difficoltà nello stimare i benefici dell’investimento o la necessità di investimenti troppo elevati (39%), soprattutto nelle aziende che per la prima volta si approcciano a soluzioni Analytics, e le problematiche di security e privacy (27%).

La situazione per le PMI

Nonostante la loro quota di spesa complessiva in Analytics sia cresciuta del 18% nel 2017, il ruolo delle piccole e medie imprese è ancora marginale nel mercato degli Analytics. Secondo lo studio, infatti, fra le PMI la diffusione di sistemi di Big Data Analytics si attesta solo al 7%. Tuttavia, le dimensioni aziendali hanno un peso rilevante nel determinare l’approccio a questi sistemi: per le microimprese è ancora prematuro parlare di Big Data Analytics perché non ne comprendono l’utilità e non sono sufficientemente strutturate, ma un’azienda su cinque con almeno dieci addetti ha progetti di Analytics in corso e il dato sale al 24% per le imprese con più di 50 addetti, segno di un deciso miglioramento anche delle PMI sulla strada che porta a diventare “Big Data Enterprise”.

Quando si tratta di valutare l’investimento in progetti di Big Data Analytics, spesso le PMI trovano difficoltà a stimare i reali benefici. Un altro ostacolo è la mancanza di competenze adeguate, difficili sia da sviluppare internamente che da reperire all’esterno, mentre una PMI su dieci è preoccupata dagli aspetti legati alla sicurezza informatica. Il tema delle competenze in particolare è molto sentito dalle PMI che dichiarano di voler utilizzare a breve i Big Data: tre su cinque hanno assunto figure specializzate nell’ultimo anno, ma fra le competenze inserite spicca la conoscenza dei sistemi informatici rispetto all’analisi statistica e al project management.

Le startup specializzate

Le startup del mercato Big Data e Business Intelligence finanziate da investitori istituzionali dal 2015 ad oggi hanno raccolto complessivamente 4,47 miliardi di dollari nel mondo, di cui 7,1 milioni in Italia. Le startup di Big Data e Business Intelligence operano in tre ambiti principali. Nel 13% dei casi nel ramo delle Technologies, offrendo strumenti per la raccolta, l’immagazzinamento, l’organizzazione e l’integrazione del dato. Il 33% si occupa di Analytics Systems, sistemi che non hanno un’applicazione specifica ma possono svolgere diverse funzioni a seconda delle esigenze del cliente. Il 53% delle startup è attivo nell’area delle Applications, soluzioni verticali rivolte a particolari settori industriali (33%) o per una determinata funzione aziendale (67%).