Main partner:

Jobs

Il 95% delle aziende raccoglie dati cliente, ma solo il 33% personalizza i contenuti per ogni individuo

Sono solo un terzo le aziende italiane che oggi personalizzano i contenuti in funzione dello specifico individuo, mentre circa il 44% dichiara di non farlo e il restante 23% sta attualmente lavorando per favorire queste logiche di personalizzazione.

Nello specifico, il 95% delle aziende raccoglie dati di anagrafica cliente, ma solo il 33% personalizza i contenuti in funzione dello specifico individuo.

Sono alcune delle evidenze emerse dalla seconda edizione dell’Osservatorio Omnichannel Customer Experience, promosso dalla School of Management del Politecnico di Milano. La ricerca si è basata su oltre 100 interviste lato domanda e offerta, una survey condotta su un campione di grandi e medio-grandi aziende italiane appartenenti ai principali settori e tre momenti plenari di confronto e discussione che hanno coinvolto complessivamente oltre 150 aziende della domanda (leggi di più su Engage.it).

Secondo il report stilato, come evidenziato, la quasi totalità delle aziende raccoglie e immagazzina i dati di anagrafica cliente (95% dei casi analizzati) e le informazioni di contatto del cliente (95%). Molto diffusa è anche la raccolta dei dati relativi allo storico dei prodotti/servizi acquistati offline (81%) e dei dati di analytics su canali proprietari, come per esempio comportamento sul sito, app, pagine sui social network ufficiali/aziendali, su DEM/newsletter e così via (81%).

«Il 90% delle imprese analizzate dichiara di utilizzare alcuni dei dati raccolti per costruire i segmenti funzionali alla progettazione ed erogazione di iniziative di marketing e comunicazione ai già clienti», dichiara Marta Valsecchi, Direttore dell’Osservatorio Omnichannel Customer Experience. «Eppure i dati utilizzati sono ancora soprattutto quelli più basici e tradizionalmente raccolti (come anagrafica cliente e storico dei prodotti acquistati)».

Le tecnologie disponibili e il grado di adozione

Le tecnologie potenzialmente a disposizione delle aziende sono oggi molteplici: dal punto di vista della data collection, la maggior parte delle aziende (69%) dichiara di disporre di un CRM unico, in grado di integrare tutti i dati sull’anagrafica dei clienti – anche relativi a più prodotti, brand e canali.

Rimane però un buon numero di imprese che ancora non ha completato questo step.

Il 23% delle aziende intervistate dichiara di utilizzare una piattaforma tipo CRM dinamico, Customer Data Platform o Customer Data Hub (CDH) in grado di integrare tutti i dati sul cliente, di diversa natura e provenienti dalle diverse fonti.

Il 21% delle aziende, inoltre, si è dotato di un Data Lake, ossia di un sistema che consente di archiviare un volume consistente di dati di diversa natura e fonte – tipicamente “big data” – nel loro formato nativo, senza alcuna struttura.

Tecnologie-Dati-Politecnico-Milano

DMP, la tecnologia per interagire con utenti non noti

Le interazioni degli utenti non noti vengono tracciate attraverso cookie che possono essere eventualmente gestiti tramite la Data Management Platform (DMP), una piattaforma in grado di raccogliere e processare grandi quantità di dati – sia proprietari che di seconda e terza parte – e di creare delle “audience” con finalità di comunicazione e advertising online.

Il 9% delle aziende intervistate si è dotato di una DMP proprietaria; il 19% si affida invece alla DMP di terzi (per esempio dei centri media o degli Over The Top).

Per quanto riguarda la generazione degli insight, i software di Business Intelligence consentono oggi di analizzare e visualizzare grandi quantità di dati sulla base di specifiche query, permettendo una maggiore comprensione dei fenomeni accaduti e in corso e aiutando a identificare schemi di comportamento.

Il 25% delle aziende dichiara di utilizzare strumenti di Analytics evoluti che consentono anche di predire i comportamenti degli utenti, il 13% utilizza anche dati in Real Time.

A valle del processo si trovano le tecnologie che abilitano la creazione e gestione del contenuto: tra gli strumenti più evoluti si trovano i Digital Asset Management (DAM), piattaforme che consentono la gestione “intelligente” di svariate tipologie di contenuti (audio, testi, video, ecc.), garantendone la coerenza di utilizzo sui diversi touchpoint.

Dalla survey emerge come le tecnologie legate alla gestione del contenuto non siano ancora al centro dell’attenzione delle aziende: il 2% utilizza una Creative Management Platform, il 16% una Dynamic Content Management System (o User Experience Platform) per la gestione del contenuto e il 15% un DAM.

Le soluzioni di Marketing Automation, infine, intervengono a valle dell’intero processo nella fase di delivery del contenuto. Il 71% delle aziende si è dotato di piattaforme di e-mail marketing, il 46% di piattaforme per l’invio di SMS e il 28% di soluzioni per la gestione di più canali.

Il GDPR ha avuto un impatto sulle attività di Big Data Analytics?

Il GDPR ha avuto un impatto sulle iniziative di Big Data Analytics, in termini di azioni intraprese dalle aziende e di implicazioni sui progetti? Secondo gli ultimi dati dell’Osservatorio Big Data Analytics & Business Intelligence del PoliMi, sì, soprattutto con azioni sulle policy interne, sia di accesso ai dati (62%) sia di conservazione (55%).

Il 43% delle grandi aziende coinvolte nello studio ha ammesso infatti di aver inserito delle voci relative agli Analytics nelle nuove informative sulla privacy rivolte ai clienti, mentre il 24% ha investito in tecnologie specifiche.

Meno di una grande azienda su tre (30%) dichiara che l’avvento del GDPR ha rallentato i progetti di Analytics in corso e soltanto l’1% ha dovuto bloccare delle iniziative a causa della nuova normativa. Per circa un’azienda su cinque (il 22%) il GDPR ha avuto un impatto positivo, soprattutto perché ha aumentato la consapevolezza sulle potenzialità degli Analytics (17%) e poi perché la presenza di un chiaro quadro normativo ha permesso di pianificare nuove iniziative nel medio-lungo periodo (5%). Per il 38% delle grandi aziende il GDPR non ha avuto nessuna conseguenza in ambito analisi dati: un segnale positivo, perché indica che queste aziende erano già preparate per adattarsi al cambiamento normativo. Infine, il 9% delle grandi organizzazioni non sa come valutare l’impatto del fenomeno.

La ricerca dell’Osservatorio ha inoltre evidenziato che le organizzazioni con una struttura dedicata alla Data Governance si sono dimostrate più preparate ad affrontare il tema: tre aziende su quattro hanno modificato le proprie informative sulla privacy con voci relative agli Analytics e più della metà delle aziende ha acquistato soluzioni tecnologiche specifiche.

Big Data Analytics, cresce il mercato in Italia: +26% nel 2018, a 1,3 miliardi di euro

Il mercato italiano dei Big Data Analytics continua a crescere nel 2018, raggiungendo un valore complessivo di 1,393 miliardi di euro, in crescita del 26% rispetto all’anno precedente. Lo rivelano i nuovi dati dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano.

Un risultato che conferma il trend positivo degli ultimi tre anni, in cui il settore è cresciuto in media del 21% ogni dodici mesi, anche se rimane molto ampio il divario fra le grandi imprese, che si dividono l’88% della spesa complessiva, e le Pmi, che rappresentano il 12% del mercato.

Il 45% della spesa in Analytics è dedicata ai software (database e strumenti per acquisire, elaborare, visualizzare e analizzare i dati, applicativi per specifici processi aziendali), il 34% ai servizi (personalizzazione dei software, integrazione con i sistemi informativi aziendali, consulenza di riprogettazione dei processi) e il 21% alle risorse infrastrutturali (capacità di calcolo, server e storage da impiegare nella creazione di servizi di Analytics). I software sono anche l’ambito con la crescita più elevata (+37%), seguito dai servizi (+23%) e risorse infrastrutturali (+9%). Tra i comparti merceologici, invece, i primi per quota di mercato sono le banche (28% della spesa), manifatturiero (25%) e telco – media (14%), seguiti da servizi (8%), GDO/Retail (7%), assicurazioni (6%), utility (6%) e PA e sanità (6%).

L’evoluzione del mercato dei Big Data Analytics, tuttavia, va ben oltre i numeri. Cambiano le metodologie di analisi, con l’avvento dirompente di tecniche di Machine Learning e Deep Learning, per le quali circa un terzo delle grandi imprese ha già acquisito le competenze necessarie, e dell’analisi di dati in tempo reale, già sfruttata dall’11%. Cresce l’esigenza di competenze di data science: il 46% delle grandi imprese ha già inserito figure di Data Scientist in organico, il 42% Data Engineer, il 56% Data Analyst. Nonostante una crescita del numero di imprese con un modello di governance della Data Science maturo (dal 17% al 31%), però, più della metà (55%) presenta un modello organizzativoancora tradizionale.

«Il mercato dei Big Data Analytics continua a crescere a ritmi serrati, superiori al 25% – afferma Carlo Vercellis, Responsabile scientifico dell’Osservatorio Big Data Analytics & Business Intelligence -. Crescono iniziative “fast data”, in cui l’analisi dei dati avviene in tempo reale, integrando diverse fonti informative in streaming e valorizzando in particolare le potenzialità della Internet of Things: tra queste ricordiamo real- time advertising, fraud detection, predictive maintenance, new product development. Ma per coglierne appieno i benefici, è necessario che i Big Data vengano analizzati secondo modalità smart, mediante sofisticati algoritmi di machine learning in grado di identificare pattern e correlazioni presenti nei dati e di trasformare questa conoscenza in azioni concrete che permettano alle imprese di acquisire vantaggio competitivo».

«Le dinamiche di crescita del mercato sono diverse a seconda delle dimensioni aziendali – afferma Alessandro Piva, Responsabile della ricerca dell’Osservatorio Big Data Analytics & Business Intelligence -. Mentre le PMI inseguono a fatica, tra le grandi aziende si è diffusa la convinzione che sia giunto il momento dell’azione: le imprese che hanno già avviato progetti ne stanno raccogliendo i benefici e sono spinte a continuare a investire, quelle rimaste indietro percepiscono l’urgenza di attrezzarsi. Parallelamente crescono le organizzazioni che hanno inserito professionalità qualificate per la gestione degli analytics, come data scientist, data engineer, data architect data analyst, e introdotto modelli organizzativi per sfruttarne al meglio le opportunità, uniformando scelte tecnologiche e dando vita meccanismi di coordinamento strutturati».

Le grandi aziende

La totalità delle grandi organizzazioni adotta Analytics di tipo descrittivo, ma molte stanno sperimentando un’evoluzione verso logiche di predictive, prescriptive e, in alcuni casi, automated Analytics. L’evoluzione passa attraverso tecniche di Machine Learning e Deep Learning, che abilitano nuove tipologie di analisi, e di Real-time Analytics. Il 62% delle grandi aziende dichiara di avere necessità di competenze specifiche di Machine Learning e Deep Learning: tra queste, poco più di un terzo le ha già introdotte in organico e un ulteriore 30% prevede di farlo nei prossimi due anni. Poco più di un’azienda su dieci (11%) invece sfrutta oggi modalità di analisi in Real-Time o in Streaming, in cui vi è un flusso continuo di raccolta dei dati che devono essere analizzati con continuità. Un ulteriore 33% possiede un’infrastruttura che consente analisi in Near Real-Time, con una frequenza d’aggiornamento che scende a meno di un’ora. Il 56% delle organizzazioni analizza i dati in modalità batch, con un aggiornamento del sistema a intervalli regolari e predefiniti (solitamente giornalieri).

Nonostante siano diminuite complessità e incertezze nel percorso di adozione di progetti di Analytics, rimangono alcuni ostacoli da superare. Le difficoltà maggiori riguardano la mancanza di competenze e figure organizzative interne (53%), l’integrazione dei dati (45%) e la stima dei benefici dell’investimento (34%).

Le PMI

Soltanto il 7% delle Pmi nel 2018 ha avviato progetti di Big Data Analytics, mentre quattro su dieci dichiarano di svolgere analisi tradizionali sui dati aziendali. Se si guarda alla consapevolezza e alla maturità tecnologica delle piccole e medie imprese, dalla ricerca emerge come il 10% continui ad avere una comprensione scarsa o nulla di quali vantaggi i Big Data potrebbero apportare e di come abbia un approccio all’analisi dei dati limitato e tradizionale. Poco meno di un terzo delle aziende, il 31%, è invece sulla buona strada sia dal lato della consapevolezza sia dal lato tecnologico. Circa quattro aziende su dieci (42%), inoltre, si sono mosse in una soltanto delle due direzioni o a causa di una visione limitata del fenomeno o a causa della mancanza di risorse per effettuare investimenti tecnologici. Una PMI su dieci, infine, si dimostra pronta per lanciare delle iniziative di Analytics.

Le startup

L’Osservatorio ha censito 443 startup operanti nel mercato dei Big Data Analytics, fondate a partire dal 2013 e finanziate dal 2016 in avanti, per un totale di 4,74 miliardi di dollari di investimenti raccolti. Quelle che complessivamente raccolgono più finanziamenti, circa 30,6 milioni di dollari ciascuna, sono in ambito Technology (l’8% del totale delle startup), che offrono strumenti per la raccolta, l’analisi l’immagazzinamento, l’organizzazione e integrazione dei dati.

Il Programmatic advertising verso una chiusura 2018 a +18%

Nell’ambito di IAB Forum 2018, in scena stamattina a Milano, l’appuntamento più atteso dalla industry resta quello con i dati.

Restando nell’alveo dell’universo digitale, Andrea Lamperti, Direttore dell’Osservatorio Internet Media del Politecnico di Milano, ha rivelato le stime sulla chiusura 2018 del mercato della pubblicità online, stime che parlano di un’ulteriore crescita dell’11% anno su anno per un valore che sfiorerà i 3 miliardi di euro (leggi qui l’articolo dedicato).

Dopo un’analisi dei vari formati, l’intervento di Lamberti ha puntato i riflettori sul mercato del programmatic advertising che crescerà quest’anno del 18% circa, raggiungendo un valore di 482 milioni di euro, ha dichiarato Lamperti dal palco.

Il peso del programmatic advertising sul totale della pubblicità internet passerà dal 15% del 2017 al 16% nel 2018, mentre il suo peso sul totale display adv dichiarato dal Politecnico si stima sarà pari al 26% (contro il 25% del 2017).

Programmatic-adv-2018-PoliMi

In chiusura di intervento, Lamperti ha poi specificato: «Il futuro di questo particolare segmento è legato all’applicazione della sua tecnologia ad ambiti diversi. In particolare, non si può non considerare il peso sempre crescente del programmatic applicato all’OOH, ma anche della tecnologia programmatica alla pubblicità audio».

Saranno questi dunque i nuovi driver di crescita per il futuro del programmatic.

Programmatic Day(s) 2018: tra nuovi media e trasparenza, ecco come sta cambiando l’ad tech

Se c’è una parola chiave che forse più di tutte condensa l’attuale situazione del programmatic e le sfide che questo mercato si trova a dover affrontare in questi mesi, quella parola sarebbe “trasparenza”. E proprio il tema della “trasparenza” e della “fiducia” nell’ad tech sono stati i protagonisti dell’edizione 2018 di Programmatic Day(s), l’evento di Engage e Programmatic Italia dedicato alla pubblicità automatizzata e per la prima volta quest’anno diviso in due giornate.

La manifestazione, svoltasi il 18 e 19 aprile a Milano, ha visto alternarsi sul palco oltre 40 speaker, che hanno illustrato le varie sfaccettature del mercato programmatico attuale a una platea di più di 1700 persone nel corso delle due giornate. Ecco una sintesi di quello che è successo all’evento.

La sintesi della prima giornata

I lavori sono stati aperti con i risultati di Yoursight, la ricerca sulle tendenze della comunicazione online realizzata da Engage con Human Highway che quest’anno si è concentrata in modo particolare sui punti di forza (e di debolezza) del Programmatic.

Tra i primi si segnala in modo particolarmente evidente, ha raccontato Giacomo Fusina, Ceo di Human Highway, «la capacità di targettizzare le campagne. Questa caratteristica, unita alla personalizzazione del messaggio e alla semplificazione dei processi, produce il terzo beneficio, la maggiore efficienza del sistema. La ricerca ha messo in luce, però, anche degli inibitori allo sviluppo del Programmatic, riassumibili in tre scarsità: scarsa informazione e conoscenza su questa prassi di comunicazione, scarsa trasparenza e scarso controllo sulle inventory. Tra questi, le persone che lavorano abitualmente sul digitale avvertono come forte inibitore il basso livello delle inventory».

Ad ogni modo il Programmatic, dopo aver chiuso il 2017 con una crescita del 27%, ha detto Giacomo Fusina, dovrebbe aumentare ancora nel 2018 il suo valore di mercato, con un trend del 20%, raggiungendo così il mezzo miliardo di euro.

I dati illustrati sul palcoscenico Giacomo Fusina sono quindi stati commentati in una tavola rotonda, alla presenza di Giorgio Mennella, Advertising Director di Ciaopeople, Filippo Marchio, managing director di Adasta, Erik Rosa, Managing Director di Xaxis ed Enrico Quaroni, Managing Director Italy di Sizmek, intervenuto in video collegamento dallo Sri Lanka.

Sul palcoscenico sono saliti Giovanni Tricarico di Mediamath (qui l’intervento), Lucio Mormile di Teads (leggi qui il resoconto) e Gaetano Polignano di Tradelab, intervenuto sul tema dell’efficacia.

La tavola rotonda dedicata al tema della trasparenza (qui l’articolo), con protagonisti Integral Ad ScienceAnnalect (OMG), FCA, Italiaonline e 4w Marketplace, ha chiuso la prima parte della giornata, prima di un coffee break.

La seconda parte della mattinata si è aperto con l’intervento di Italiaonline: Carmine Laltrelli e Sabina Lombardo hanno raccontato come la concessionaria abbia affrontato le sfide del programmatic grazie al concetto di “unified view”, mentre in seguito Valeria Mazzon di Adform e Andrea Stefanini di De Agostini Publishing hanno raccontato i frutti di una collaborazione in campo ad tech che dura orma da oltre 5 anni.

Ma il Programmatic, oggi, vuol dire anche approdo a nuovi media, al di fuori dell’online dove il trading automatizzato aveva avuto origine. A tal proposito, una delle novità di quest’anno è il rapido sviluppo del Programmatic Audio: la crescente popolarità di tecnologie come streaming e podcast su mobile, insieme con la saturazione del mercato display, sta infatti mettendo questo canale in primo piano nell’agenda di aziende ed editori. Se ne è parlato in chiusura di prima giornata in un focus organizzato con DigitalMDE cui hanno preso parte anche S4M, Gruppo Triboo e Dentsu Aegis Network.

Gli highlight del secondo giorno

Il Programmatic Advertising continua la sua corsa e vede aumentare ancora il suo peso nel mercato del digital advertising. «Dopo i risultati positivi ottenuti negli scorsi anni», ha detto Andrea Lamperti, Direttore dell’Osservatorio Internet Media degli Osservatori Digital Innovation del Politecnico di Milano aprendo i lavori della seconda giornata di Programmatic Day(s), che ha registrato ancora una buona affluenza con quasi 700 ingressi all’Auditorium Iulm di Milano, «il Programmatic dovrebbe chiudere il 2018, secondo le nostre previsioni, con un incremento nell’ordine del 20%, o qualcosa di meno». Il giro d’affari salirà così a 480-490 milioni di euro, sfiorando il mezzo miliardo, contro i 409 milioni del 2017.

Il Programmatic rappresenterà a fine anno quasi il 30% di tutta la spesa display, confermandosi così un fenomeno sempre in salute e ormai consolidato, anche se il trend sarà meno positivo rispetto agli anni passati. Se il 2015 è stato l’anno del boom del Programmatic, i numeri del 2016 e il 2017 ne hanno certificato le potenzialità e anche l’inizio della maturazione. Dopo il +113% registrato dal comparto nel 2015 e un comprensibilmente più contenuto, ma incoraggiante +35% nel 2016, il 2017 ha visto la voce “Programmatic Advertising” registrare un +30% nel giro d’affari, mentre il 2018, come detto, dovrebbe registrare sempre una crescita intorno al 20%.

All’interno del Programmatic, il Video giocherà un ruolo fondamentale, così come la voce Private & Direct che peserà più del 45% «a discapito non tanto delle transazioni in open market ma più in generale della compravendita diretta». Passando al peso del Video sul totale Programmatic, i dati dell’Osservatorio dicono che arriverà nel 2017 a essere superiore al 35%: «È questa la principale voce che ha dato una forte spinta al Programmatic e al mercato della pubblicità digitale in generale».

I lavori sono proseguiti con una tavola rotonda dedicata proprio al nuovo scenario di mercato del Programmatic, che ha visto gli interventi di Sara Buluggiu di Rubicon Project, Cristina Ughes di Publicis Media Italy e Simone Pepino di Ligatus.

Sui dati, e sul futuro del loro utilizzo in pubblicità, si è incentrato anche l’intervento di Oliver Kanders, VP Marketing di Zeotap, mentre di creatività ed evoluzione dei formati acquistabili in Programmatic ha parlato Stefania Giovinazzo, Account Director Italy di Sublime Skinz. Tra gli ospiti anche Patrizia Conte, Ceo & Founder di Oyster Technology, che ha delineato le basi di una strategia programmatica di qualità nell’ambito di uno scenario per certi versi sempre più complesso.

Focus quindi su un altro tema caldo dell’advertising digitale: le nuove guidelines in termini di “annunci pubblicitari accettabili” definite dalla Coalition for Better Ads e adottate da Google come criterio di filtraggio per il browser Chrome: qual è l’impatto reale che questa novità sta avendo sul mercato della pubblicità online? Se ne è parlato in una tavola rotonda con, tra gli altri, Francesco Apicella di Evolution Adv, Andrea Ceccoli di Smart, Edoardo Negri di Instal e Davide Ingrassia di Adform.

Spazio quindi ai media, partendo dall’online con Cristina Pianura, Ceo di Prime Real Time e Coo di Triboo Media (leggi qui l’intervento). Dopo esserci occupati di radio e di Programmatic Audio il giorno precedente, la panoramica delle prospettive “programmatiche” dei mezzi “tradizionali” è proseguita con la tv, grazie all’intervento di Daniel Bishoff, Marketing Director di RTL AdConnect, sul palco insieme a Luca Di Cesare, Managing Director di Smartclip, e con l’OOH con il contributo di Carlo Grillo, Chief Operating Officer di Kinetic Italia, e di Erik Rosa, Managing Director di Xaxis (qui la cronaca). Ha chiuso i lavori Giorgio Mennella, Advertising Director di Ciaopeople, con un intervento sul ruolo degli editori e sull’importanza del dato nell’informazione.

Cresce nelle aziende l’importanza del data scientist: quasi un’impresa su due possiede questa figura

C’è una nuova figura professionale che sta acquisendo sempre più importanza nel mondo del lavoro: è quella del Data Scientist. Secondo i dati dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano (qui una sintesi della ricerca), quest’anno quasi un’impresa su due (il 45%) ha già inserito nel proprio organico uno o più data scientist, un dato in crescita rispetto al 31% del 2016.

Segno che aumenta nelle imprese la consapevolezza sull’importanza dei dati e di figure esperte dedicate alla loro gestione.

L’Osservatorio rivela che, tra le grandi imprese che si sono dotate di questa figura, più del 30% ne ha definito formalmente ruolo e collocazione organizzativa. Inoltre, in media le aziende che contano già dei data scientist in organico dichiarano di volerne incrementare il numero nei prossimi 12 mesi (+46%), ulteriore conferma dell’impatto positivo di queste competenze. Tra le organizzazioni che ne sono ancora sprovviste, il 29% ne prevede l’introduzione, nel 45% dei casi entro il prossimo anno.

Fra le imprese che hanno assunto data scientist, il 28% ha iniziato a riconfigurare i propri processi organizzativi secondo una modalità Data Science Enabled, ma le competenze specializzate inserite lavorano ancora prevalentemente nella funzione IT o in altre specifiche funzioni aziendali. Il restante 17% invece ha raggiunto un livello di governance avanzato che segue svariati modelli organizzativi, diversi in base alla presenza o meno di una struttura centrale di coordinamento. Il 55% delle imprese che non hanno inserito in organico figure specializzate, invece, presenta ancora un modello organizzativo tradizionale, in cui le singole unità di business sono orientate ad analizzare i dati di propria competenza, senza alcuna visione aziendale complessiva.

La ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano ha coinvolto attraverso una survey oltre 1.100 CIO, Responsabili IT e c-level di altre funzioni di medie e grandi organizzazioni e analizzato oltre 1.100 player dell’offerta tramite interviste dirette o fonti secondarie.

Big Data Analytics, cresce in Italia il mercato e la consapevolezza delle aziende sul suo potenziale

Cresce il mercato dei Big Data Analytics e insieme ad esso cresce anche la consapevolezza delle aziende italiane delle opportunità offerte dai dati. Secondo quanto rileva la ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano, quest’anno il valore del mercato è aumentato del 22%, raggiungendo la cifra complessiva di 1,1 miliardi di euro, e il 43% dei CIO italiani oggi vede la Business Intelligence, i Big Data e gli Analytics come la principale priorità di investimento nel 2018.

Il processo di trasformazione delle tradizionali imprese italiane in “big data enterprise” è però ancora lungo: soltanto il 17% ha raggiunto un buon livello di maturazione (contro l’8% del 2016), mentre il 26% si trova in una fase di riconfigurazione dei propri processi organizzativi e il 55% è rimasto legato a un modello organizzativo tradizionale, in cui le singole unità di business analizzano i dati di propria competenza senza una visione aziendale complessiva.

«Il valore del mercato Analytics continua a crescere a ritmi elevati e quest’anno ha superato la soglia del miliardo di euro – commenta Carlo Vercellis, Responsabile scientifico dell’Osservatorio -. È il segnale che le grandi imprese ormai conoscono le opportunità offerte dai Big Data e hanno una strategia data driven orientata agli aspetti predittivi e all’automatizzazione di processi e servizi. L’utilizzo dei Big Data Analytics è indispensabile per non rischiare di perdere capacità competitiva: le imprese che negli anni scorsi hanno saputo approfittarne, affiancando all’innovazione tecnologica un modello organizzativo capace di governare il cambiamento, oggi si trovano in portafoglio processi più efficienti, nuovi prodotti e servizi con un ritorno dell’investimento certo e misurabile».

«Le grandi imprese hanno compiuto grandi passi in avanti, con un maggiore investimento di risorse ma anche di competenze, come dimostra il 45% di aziende che ha inserito figure di data scientist in organico – aggiunge Alessandro Piva, Responsabile della ricerca dell’Osservatorio Big Data Analytics e Business Intelligence –. Anche le PMI mostrano un diffuso interesse per l’analisi dei dati, con l’utilizzo di strumenti di data visualization e analytics di base, ma anche servizi di supporto alle attività di marketing. Sebbene coprano ancora oggi soltanto il 13% del mercato, la crescita della spesa è un segnale che, seppur più lentamente, si stanno muovendo nella giusta direzione».

Le grandi aziende e i Big Data

Per quanto riguarda le grandi imprese, nonostante un generale utilizzo dei descriptive analytics, strumenti che descrivono la situazione attuale e passata dei processi aziendali, con una crescita di 11 punti percentuali rispetto allo scorso anno, l’area di maggiore interesse è quella dei predictive analytics, che consentono di effettuare previsioni sull’evoluzione del mercato e sulle strategie, già diffusi nel 73% dei casi (contro il 59% del 2016). Sono ancora indietro, invece, i prescriptive analytics, tool avanzati capaci di proporre soluzioni sulla base delle analisi svolte, presenti solo nel 33% delle grandi imprese (pur in aumento di dieci punti), e ancora di più gli automated analytics, capaci di avviare autonomamente l’azione proposta secondo il risultato delle analisi, diffusi solo nel’11% delle organizzazioni, prevalentemente a livello pilota, pressocché in linea con quello dello scorso anno (10%).

Quanto agli scopi di utilizzo dei dati, il miglioramento dell’engagement con il cliente è quello che la fa da padrone: tra le aziende che hanno avviato iniziative, infatti, questa motivazione si attesta nel 70% dei casi, seguita dall’incremento delle vendite (68%), la riduzione del time to market (66%), l’ampliamento dell’offerta di nuovi prodotti e servizi e l’ottimizzazione dell’offerta attuale per aumentare i margini (64% ciascuno), la riduzione dei costi (57%) e la ricerca di nuovi mercati (41%). Anche tra i risultati effettivamente ottenuti spicca il miglioramento dell’engagement con il cliente, segnalato dalla totalità delle imprese (il 100% degli intervistati), mentre il 91% ha incrementato le vendite, il 78% ha ridotto il tempo che intercorre fra l’ideazione e commercializzazione del prodotto, il 67% ha ampliato l’offerta di prodotti e servizi, il 73% ha ottimizzato l’offerta per aumentare i margini di guadagno, il 56% ha contenuto i costi e il 38% cercato nuovi mercati. Quasi due società su tre danno un giudizio positivo dei risultati ottenuti: in particolare, il 13% giudica i risultati disruptive, il 21% un grande successo, il 29% un moderato successo, mentre soltanto il 37% ritiene che sia prematuro esprimere una valutazione e nessuna considera un fallimento questo tipo di iniziative.

Tra gli ostacoli principali ai progetti di Big Data Analytics, spiccano la mancanza di impegno e coinvolgimento da parte del top management (53%) e la mancanza di competenze e figure organizzative interne come Chief Data Officer e Data Scientist (51%). Invece non sembrano essere elementi di freno sostanziali i software poco usabili o le soluzioni obsolete (12%), così come la capacità di reperire dall’esterno professionalità con l’adeguato mix di competenze (22%). «Questi dati confermano che il mercato dell’offerta è pronto, con soluzioni allo stato dell’arte e competenze di Big Data Analytics crescenti – afferma Piva – persiste invece in molti casi un gap nella capacità di internalizzare figure e skill in grado di analizzare i dati e la capacità di sviluppare modelli di governance della datascience maturi». Tra gli altri freni vengono segnalate la difficoltà nello stimare i benefici dell’investimento o la necessità di investimenti troppo elevati (39%), soprattutto nelle aziende che per la prima volta si approcciano a soluzioni Analytics, e le problematiche di security e privacy (27%).

La situazione per le PMI

Nonostante la loro quota di spesa complessiva in Analytics sia cresciuta del 18% nel 2017, il ruolo delle piccole e medie imprese è ancora marginale nel mercato degli Analytics. Secondo lo studio, infatti, fra le PMI la diffusione di sistemi di Big Data Analytics si attesta solo al 7%. Tuttavia, le dimensioni aziendali hanno un peso rilevante nel determinare l’approccio a questi sistemi: per le microimprese è ancora prematuro parlare di Big Data Analytics perché non ne comprendono l’utilità e non sono sufficientemente strutturate, ma un’azienda su cinque con almeno dieci addetti ha progetti di Analytics in corso e il dato sale al 24% per le imprese con più di 50 addetti, segno di un deciso miglioramento anche delle PMI sulla strada che porta a diventare “Big Data Enterprise”.

Quando si tratta di valutare l’investimento in progetti di Big Data Analytics, spesso le PMI trovano difficoltà a stimare i reali benefici. Un altro ostacolo è la mancanza di competenze adeguate, difficili sia da sviluppare internamente che da reperire all’esterno, mentre una PMI su dieci è preoccupata dagli aspetti legati alla sicurezza informatica. Il tema delle competenze in particolare è molto sentito dalle PMI che dichiarano di voler utilizzare a breve i Big Data: tre su cinque hanno assunto figure specializzate nell’ultimo anno, ma fra le competenze inserite spicca la conoscenza dei sistemi informatici rispetto all’analisi statistica e al project management.

Le startup specializzate

Le startup del mercato Big Data e Business Intelligence finanziate da investitori istituzionali dal 2015 ad oggi hanno raccolto complessivamente 4,47 miliardi di dollari nel mondo, di cui 7,1 milioni in Italia. Le startup di Big Data e Business Intelligence operano in tre ambiti principali. Nel 13% dei casi nel ramo delle Technologies, offrendo strumenti per la raccolta, l’immagazzinamento, l’organizzazione e l’integrazione del dato. Il 33% si occupa di Analytics Systems, sistemi che non hanno un’applicazione specifica ma possono svolgere diverse funzioni a seconda delle esigenze del cliente. Il 53% delle startup è attivo nell’area delle Applications, soluzioni verticali rivolte a particolari settori industriali (33%) o per una determinata funzione aziendale (67%).

IAB Seminar Programmatic e Marketing Automation: ecco l’agenda

Conto alla rovescia per il terzo IAB Seminar del 2017. L’evento organizzato da IAB Italia, dedicato al Programmatic Advertising e alla Marketing Automation, è a calendario il 4 luglio al MiCo di Milano.

Quattro le sessioni previste, che approfondiranno i temi “Data Strategy”, “Quality & Trasparency”, “Marketing Automation” e “Nuove Frontiere”.

In apertura di giornata, prima del Convegno Istituzionale, IAB Italia proporrà un appuntamento esclusivo per oltre 100 Advertiser, che avranno la possibilità di assistere gratuitamente a due sessioni formative indirizzate specificamente alle loro esigenze: Alessandro Sisti, Marketing Futurist e Docente Universitario, terrà un intervento intitolato: “(Human) Programmatic Advertising: strategia, brand safety, contestualizzazione per migliorare la qualità della pianificazione”, mentre Alessio Semoli, Presidente PranaVentures, presenterà la sessione: “Marketing Automation: dai dati all’azione”.

Ad aprire i lavori del Seminar saranno Carlo Noseda, Presidente Iab Italia, Sebastiano Cappa, Consigliere IAB Italia, e Michele Marzan, Consigliere IAB Italia.

Seguirà, poi, Oliver Kanders, Director Market Building & Marketing zeotap, che introdurrà la sessione Data Strategy partendo dalla sua definizione fino a offrirne una visione internazionale. Parlerà di data-driven marketing Gianmario Verona, Rettore dell’Università Bocconi di Milano, che esporrà come le nuove tecnologie stiano dando accesso a informazioni impensabili fino a pochi anni fa e offrirà spunti concreti e best practice per comprendere e implementare al meglio questi strumenti.

Giovanna Loi, Managing Director [m]PLATFORM, GroupM Italia, porterà la propria esperienza su come mettere il consumatore al centro della comunicazione in una campagna attiva su diversi media, misurandone l’efficacia in real-time. Andrea Campana, Ceo Beintoo, racconterà l’importanza di unire la grande mole di informazioni oggi disponibili sui consumatori alle tecnologie di Proximity Marketing per veicolare messaggi creativi coerenti e ad alto tasso di attenzione.

Il tema Quality and Trasparency verrà introdotto da Luca Morpurgo, Senior Regional Director Southern Europe FreeWheel, che darà la sua visione sugli elementi fondamentali per far evolvere il mercato in termini di qualità e trasparenza, seguito da Christina Lundari, General Manager Oath Italy, e Andrew Weston, Director Emea Region Exponent, che si focalizzeranno sull’importanza del “valore dei dati”.

Bruno Maggioni, Direttore Commerciale Area Digital PubliAdige, Michele Marzan, Chief Strategy Officer MainAd, Simone Pepino, Sales Director Ligatus Italia, e Stefano Spadini, Ceo Havas Media Group, dibatteranno sul tema della qualità dei contenuti e dei modelli di acquisto in ambito Programmatic durante la Tavola Rotonda “Qualità, opportunità e modelli d’acquisto: le nuove tecnologie”. Concluderà la mattinata Domenico Pascuzzi, Direttore National Marketing Italiaonline, che parlerà dell’importanza della trasparenza con particolare riferimento a viewability e brand safety.

Introdurrà il cluster della Marketing Automation, Stefano Branduardi, Marketing Director MailUp, mentre Andrea Lamperti, Direttore dell’Osservatorio Internet Media – Osservatori Digital Innovation, Politecnico di Milano, proseguirà con un intervento sul cambio di paradigma dovuto alla disponibilità dei dati che permette di acquistare specifiche audience, introducendo il pubblico a un corretto utilizzo delle DMP.

Fabio Dotti, Partner Advisory EY, offrirà al pubblico in sala un intervento volto a evidenziare come le nuove tecnologie di Marketing Automation abilitino una rivoluzione nelle modalità di interazione con i clienti fornendo inoltre il punto di vista EY sulle opportunità/necessità per le aziende di evolvere il modello operativo e di Governance.

L’ultima sessione, dedicata alle Nuove Frontiere, inizierà con Paola Colombo, Head of Technology and Business Development Mediamond, e vedrà la partecipazione di ospiti del calibro di Oliviero Toscani, che insieme al collega fotografo Settimio Benedusi, parlerà della contrapposizione tra uomo e macchina, offrendo il suo particolare punto di vista su come questa dicotomia si realizzi nel dualismo creatività-programmazione.

Si avvicenderanno poi sul palco, Dario Caiazzo, Managing Director Teads Italia, con uno speech su come la tecnologia abbia superato, grazie alla virtualizzazione e all’Intelligenza Artificiale, la nostra idea di futuro, e Jennifer Derke, Senior Manager, Product, IAB Tech Lab, ospite dagli Stati Uniti con un intervento sul nuovo standard ads.txt (leggi qui l’articolo), i nuovi meccanismi per combattere le frodi nel Programmatic e aggiornamenti sugli standard tecnici in grado di incrementare la fiducia e la trasparenza nella catena del valore del Programmatic.

Michele Casali, Marketing Manager IGPDecaux, Paolo Dosi, Ceo Clear Channel Italia, Marco Orlandi, Media & Advertising Operations & Product Innovation Grandi Stazioni Retail, Andrea Salvati, Senior Consultant Digital Transformation Class Editori e Vice President Class Pubblicità, Marco Valenti, CEO Moving Up, si confronteranno in una Tavola Rotonda dedicata al futuro del Digital Out Of Home in ambito Programmatic.

Daniele Sesini, Direttore Generale IAB Italia e Chiara Mauri, Responsabile Marketing IAB Italia, chiuderanno i lavori presentando i risultati della ricerca condotta in collaborazione con Human Highway volta ad approfondire l’adozione degli strumenti di automazione della comunicazione, le aspettative in ambito di utilizzo dei dati, l’atteggiamento in tema di concentrazione e trasparenza della filiera e le prossime evoluzioni del mercato della comunicazione digitale.

Sponsor dell’appuntamento FreeWheel, MailUp, Mediamond e zeotap come Coach, Beintoo, EY, GroupM, Italiaonline, Oath, Sky e Teads come Platinum, Havas Media Group, Ligatus, MainAd, Smart AdServer e WebAds come Gold, e Awin e Mapp come Silver.

L’hashtag ufficiale dell’evento è #iabprogrammatic17.

Programmatic in Italia: per il 2017 stimato un giro d’affari di 400 milioni di euro

«Nel 2016 il programmatic advertising ha raggiunto un giro d’affari di circa 315 milioni di euro, in aumento del 25% rispetto al 2015»: a dirlo è stato Andrea Lamperti, direttore dell’Osservatorio Internet Media del PoliMi, nell’intervento di apertura della terza edizione del Programmatic Day, l’evento organizzato da Engage e Programmatic Italia al Cinema Orfeo di Milano. «Il risultato è stato migliore di quanto avevamo previsto a inizio anno, grazie ad un’accelerazione degli investimenti registrata negli ultimi mesi del 2016», ha aggiunto Lamperti, sul palcoscenico insieme a Simone Freddi, Direttore di Engage e Programmatic Italia.

programmatic-2017-poli

Nel 2017 il mercato nazionale del programmatic continuerà ad aumentare il suo peso, come sta già avvenendo in questa prima parte dell’anno. «Prevediamo per il 2017 un giro d’affari di 400 milioni di euro, con un incremento dunque di oltre il +25% rispetto al 2016», ha detto ancora Lamperti. Nel 2016 il digital advertising ha chiuso l’anno con un fatturato di 2,36 miliardi, ovvero il 30% del mercato pubblicitario nazionale. Di questi 2,36 miliardi il 57%, pari a 1,35 miliardi, spettano al display, di cui il programmatic è arrivato a rappresentare il 23% contro il 19% del 2015. «Questa quota dovrebbe salire ancora nel 2017 e raggiungere così il 28% dei ricavi display», ha aggiunto Lamperti.

programmatic-2017-poli

Yoursight, ecco i dati della prima edizione della ricerca di Engage e Human Highway

Le forme più evolute della comunicazione pubblicitaria prendono dunque sempre di più il sopravvento, in un mercato però dove l’alfabetizzazione digitale è ancora carente.

programmatic-2017-human-highway

E’ questo quanto emerge dalla prima edizione di Yoursight, l’indagine congiunta di Engage e Human Highway dedicata ai trend e alle aspettative di sviluppo della comunicazione online in Italia. Per il 33% del campione interpellato, un panel di professionisti del settore tra intermediari, editori e concessionarie, l’attuale stato di sviluppo della rete è dinamico, per il 31% complicato, per il 24% promettente, per il 22% confuso. Grandi aspettative dunque, la consapevolezza che il digital rappresenta il presente e soprattutto il futuro, ma che il percorso da percorrere però non è sempre agevole. «I significati diversi ma le parole utilizzate rimandano a una situazione in forte evoluzione», ha commentato sul palco del Programmatic Day Giacomo Fusina, ceo di Human Highway, presentando i dati della ricerca.

programmatic-2017-human-highway

«Anche se sono soprattutto le persone meno abituate a lavorare sul digitale a giudicare il momento presente “complicato” e “confuso”, per nulla “avvincente”. Chi lavora nell’ambiente digitale ritiene, invece, che il momento sia “dinamico” e “promettente”». Inoltre, la carenza di cultura e conoscenza della rete nel management delle aziende risulta il principale inibitore allo sviluppo del marketing digitale (63% del campione), posizionandosi davanti all’elevata confusione nelle metriche e nelle misurazioni delle attività di marketing digitale (44%).

programmatic-2017-human-highway

Secondo i professionisti del mercato della pubblicità, il Programmatic sconta la poca informazione delle sue potenzialità che ne ha il mercato (51% del campione). L’altro tema che emerge dai risultati di Yoursight è legato al tema della brand safety: il 41% degli interpellati reputa che la poca trasparenza nei processi d esecuzione delle campagne sia un fattore inibitorio allo sviluppo del Programmatic, il 28% indica invece il controllo ancora limitato esercitato sulle inventory acquistate da parte dell’investitore. Temi di stretta attualità, con i quali ormai è chiaro il mercato e i suoi operatori devono fare i conti.

L’appuntamento col Programmatic Day non ha visto soltanto la presentazione dei dati sulla industry del Programmatic e sulle tendenze del mercato, ma anche numerosi approfondimenti con i maggiori operatori del settore (qui la cronaca di alcuni dei principali interventi).

Cresce il Programmatic in Italia: +32%, a quota 310 milioni di euro

Cresce il Programmatic in Italia, trainato dal video. A dirlo sono i nuovi dati dell’Osservatorio Internet Media del Politecnico di Milano, presentati il 29 novembre in occasione della prima giornata di IAB Forum 2016.

programmatic-polimi-iab-forum

Secondo le evidenze dello studio, illustrate da Marta Valsecchi, direttore operativo degli Osservatori Digital del Politecnico di Milano, il ricorso delle aziende al Programmatic è aumentato quest’anno, registrando un +32% e totalizzando un giro d’affari di 310 milioni, pari al 13% dell’internet advertising.

Il video è uno dei formati trainanti e raggiunge una quota di mercato del 30%.

video-programmatic-polimi-iab-forum

In aumento anche la quota spettante ai private marketplace, pari al 35% del totale.

pmp-programmatic-polimi-iab-forum