Main partner:

Jobs

Cresce nelle aziende l’importanza del data scientist: quasi un’impresa su due possiede questa figura

C’è una nuova figura professionale che sta acquisendo sempre più importanza nel mondo del lavoro: è quella del Data Scientist. Secondo i dati dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano (qui una sintesi della ricerca), quest’anno quasi un’impresa su due (il 45%) ha già inserito nel proprio organico uno o più data scientist, un dato in crescita rispetto al 31% del 2016.

Segno che aumenta nelle imprese la consapevolezza sull’importanza dei dati e di figure esperte dedicate alla loro gestione.

L’Osservatorio rivela che, tra le grandi imprese che si sono dotate di questa figura, più del 30% ne ha definito formalmente ruolo e collocazione organizzativa. Inoltre, in media le aziende che contano già dei data scientist in organico dichiarano di volerne incrementare il numero nei prossimi 12 mesi (+46%), ulteriore conferma dell’impatto positivo di queste competenze. Tra le organizzazioni che ne sono ancora sprovviste, il 29% ne prevede l’introduzione, nel 45% dei casi entro il prossimo anno.

Fra le imprese che hanno assunto data scientist, il 28% ha iniziato a riconfigurare i propri processi organizzativi secondo una modalità Data Science Enabled, ma le competenze specializzate inserite lavorano ancora prevalentemente nella funzione IT o in altre specifiche funzioni aziendali. Il restante 17% invece ha raggiunto un livello di governance avanzato che segue svariati modelli organizzativi, diversi in base alla presenza o meno di una struttura centrale di coordinamento. Il 55% delle imprese che non hanno inserito in organico figure specializzate, invece, presenta ancora un modello organizzativo tradizionale, in cui le singole unità di business sono orientate ad analizzare i dati di propria competenza, senza alcuna visione aziendale complessiva.

La ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano ha coinvolto attraverso una survey oltre 1.100 CIO, Responsabili IT e c-level di altre funzioni di medie e grandi organizzazioni e analizzato oltre 1.100 player dell’offerta tramite interviste dirette o fonti secondarie.

Big Data Analytics, cresce in Italia il mercato e la consapevolezza delle aziende sul suo potenziale

Cresce il mercato dei Big Data Analytics e insieme ad esso cresce anche la consapevolezza delle aziende italiane delle opportunità offerte dai dati. Secondo quanto rileva la ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano, quest’anno il valore del mercato è aumentato del 22%, raggiungendo la cifra complessiva di 1,1 miliardi di euro, e il 43% dei CIO italiani oggi vede la Business Intelligence, i Big Data e gli Analytics come la principale priorità di investimento nel 2018.

Il processo di trasformazione delle tradizionali imprese italiane in “big data enterprise” è però ancora lungo: soltanto il 17% ha raggiunto un buon livello di maturazione (contro l’8% del 2016), mentre il 26% si trova in una fase di riconfigurazione dei propri processi organizzativi e il 55% è rimasto legato a un modello organizzativo tradizionale, in cui le singole unità di business analizzano i dati di propria competenza senza una visione aziendale complessiva.

«Il valore del mercato Analytics continua a crescere a ritmi elevati e quest’anno ha superato la soglia del miliardo di euro – commenta Carlo Vercellis, Responsabile scientifico dell’Osservatorio -. È il segnale che le grandi imprese ormai conoscono le opportunità offerte dai Big Data e hanno una strategia data driven orientata agli aspetti predittivi e all’automatizzazione di processi e servizi. L’utilizzo dei Big Data Analytics è indispensabile per non rischiare di perdere capacità competitiva: le imprese che negli anni scorsi hanno saputo approfittarne, affiancando all’innovazione tecnologica un modello organizzativo capace di governare il cambiamento, oggi si trovano in portafoglio processi più efficienti, nuovi prodotti e servizi con un ritorno dell’investimento certo e misurabile».

«Le grandi imprese hanno compiuto grandi passi in avanti, con un maggiore investimento di risorse ma anche di competenze, come dimostra il 45% di aziende che ha inserito figure di data scientist in organico – aggiunge Alessandro Piva, Responsabile della ricerca dell’Osservatorio Big Data Analytics e Business Intelligence –. Anche le PMI mostrano un diffuso interesse per l’analisi dei dati, con l’utilizzo di strumenti di data visualization e analytics di base, ma anche servizi di supporto alle attività di marketing. Sebbene coprano ancora oggi soltanto il 13% del mercato, la crescita della spesa è un segnale che, seppur più lentamente, si stanno muovendo nella giusta direzione».

Le grandi aziende e i Big Data

Per quanto riguarda le grandi imprese, nonostante un generale utilizzo dei descriptive analytics, strumenti che descrivono la situazione attuale e passata dei processi aziendali, con una crescita di 11 punti percentuali rispetto allo scorso anno, l’area di maggiore interesse è quella dei predictive analytics, che consentono di effettuare previsioni sull’evoluzione del mercato e sulle strategie, già diffusi nel 73% dei casi (contro il 59% del 2016). Sono ancora indietro, invece, i prescriptive analytics, tool avanzati capaci di proporre soluzioni sulla base delle analisi svolte, presenti solo nel 33% delle grandi imprese (pur in aumento di dieci punti), e ancora di più gli automated analytics, capaci di avviare autonomamente l’azione proposta secondo il risultato delle analisi, diffusi solo nel’11% delle organizzazioni, prevalentemente a livello pilota, pressocché in linea con quello dello scorso anno (10%).

Quanto agli scopi di utilizzo dei dati, il miglioramento dell’engagement con il cliente è quello che la fa da padrone: tra le aziende che hanno avviato iniziative, infatti, questa motivazione si attesta nel 70% dei casi, seguita dall’incremento delle vendite (68%), la riduzione del time to market (66%), l’ampliamento dell’offerta di nuovi prodotti e servizi e l’ottimizzazione dell’offerta attuale per aumentare i margini (64% ciascuno), la riduzione dei costi (57%) e la ricerca di nuovi mercati (41%). Anche tra i risultati effettivamente ottenuti spicca il miglioramento dell’engagement con il cliente, segnalato dalla totalità delle imprese (il 100% degli intervistati), mentre il 91% ha incrementato le vendite, il 78% ha ridotto il tempo che intercorre fra l’ideazione e commercializzazione del prodotto, il 67% ha ampliato l’offerta di prodotti e servizi, il 73% ha ottimizzato l’offerta per aumentare i margini di guadagno, il 56% ha contenuto i costi e il 38% cercato nuovi mercati. Quasi due società su tre danno un giudizio positivo dei risultati ottenuti: in particolare, il 13% giudica i risultati disruptive, il 21% un grande successo, il 29% un moderato successo, mentre soltanto il 37% ritiene che sia prematuro esprimere una valutazione e nessuna considera un fallimento questo tipo di iniziative.

Tra gli ostacoli principali ai progetti di Big Data Analytics, spiccano la mancanza di impegno e coinvolgimento da parte del top management (53%) e la mancanza di competenze e figure organizzative interne come Chief Data Officer e Data Scientist (51%). Invece non sembrano essere elementi di freno sostanziali i software poco usabili o le soluzioni obsolete (12%), così come la capacità di reperire dall’esterno professionalità con l’adeguato mix di competenze (22%). «Questi dati confermano che il mercato dell’offerta è pronto, con soluzioni allo stato dell’arte e competenze di Big Data Analytics crescenti – afferma Piva – persiste invece in molti casi un gap nella capacità di internalizzare figure e skill in grado di analizzare i dati e la capacità di sviluppare modelli di governance della datascience maturi». Tra gli altri freni vengono segnalate la difficoltà nello stimare i benefici dell’investimento o la necessità di investimenti troppo elevati (39%), soprattutto nelle aziende che per la prima volta si approcciano a soluzioni Analytics, e le problematiche di security e privacy (27%).

La situazione per le PMI

Nonostante la loro quota di spesa complessiva in Analytics sia cresciuta del 18% nel 2017, il ruolo delle piccole e medie imprese è ancora marginale nel mercato degli Analytics. Secondo lo studio, infatti, fra le PMI la diffusione di sistemi di Big Data Analytics si attesta solo al 7%. Tuttavia, le dimensioni aziendali hanno un peso rilevante nel determinare l’approccio a questi sistemi: per le microimprese è ancora prematuro parlare di Big Data Analytics perché non ne comprendono l’utilità e non sono sufficientemente strutturate, ma un’azienda su cinque con almeno dieci addetti ha progetti di Analytics in corso e il dato sale al 24% per le imprese con più di 50 addetti, segno di un deciso miglioramento anche delle PMI sulla strada che porta a diventare “Big Data Enterprise”.

Quando si tratta di valutare l’investimento in progetti di Big Data Analytics, spesso le PMI trovano difficoltà a stimare i reali benefici. Un altro ostacolo è la mancanza di competenze adeguate, difficili sia da sviluppare internamente che da reperire all’esterno, mentre una PMI su dieci è preoccupata dagli aspetti legati alla sicurezza informatica. Il tema delle competenze in particolare è molto sentito dalle PMI che dichiarano di voler utilizzare a breve i Big Data: tre su cinque hanno assunto figure specializzate nell’ultimo anno, ma fra le competenze inserite spicca la conoscenza dei sistemi informatici rispetto all’analisi statistica e al project management.

Le startup specializzate

Le startup del mercato Big Data e Business Intelligence finanziate da investitori istituzionali dal 2015 ad oggi hanno raccolto complessivamente 4,47 miliardi di dollari nel mondo, di cui 7,1 milioni in Italia. Le startup di Big Data e Business Intelligence operano in tre ambiti principali. Nel 13% dei casi nel ramo delle Technologies, offrendo strumenti per la raccolta, l’immagazzinamento, l’organizzazione e l’integrazione del dato. Il 33% si occupa di Analytics Systems, sistemi che non hanno un’applicazione specifica ma possono svolgere diverse funzioni a seconda delle esigenze del cliente. Il 53% delle startup è attivo nell’area delle Applications, soluzioni verticali rivolte a particolari settori industriali (33%) o per una determinata funzione aziendale (67%).

Osservatorio Internet Media, Ilaria Zampori interviene su misurazione e big data

Si è tenuto questa mattina, mercoledì 14 giugno, il convengo “Internet Media: è ora di misurarsi” organizzato dall’Osservatorio Internet Media del Politecnico di Milano, durante il quale sono stati presentati i risultati di una ricerca volta ad evidenziare le tendenze e le sfide della pubblicità digitale, con un’attenzione particolare al tema della misurazione.

Tra i protagonisti dell’evento Ilaria Zampori, General Manager di Quantcast Italia, che in questi mesi ha partecipato ai tavoli di lavoro per la ricerca in qualità di partner e player del settore. Nel corso del suo intervento si è focalizzata su misurazione e big data, aspetti fondamentali per l’industria.

«Gli incentivi che definiamo per raggiungere gli obiettivi sono degli incredibili motivatori in grado di cambiare i comportamenti, ecco perché nelle attività svolte nei media digitali sono così rilevanti», ha dichiarato Ilaria Zampori, condividendo con il pubblico un episodio apparentemente estraneo al mondo pubblicitario ma significativo. In India, durante il periodo coloniale, il governo britannico pensò di ridurre il numero di cobra velenosi, fissando un incentivo economico per chiunque ne avesse consegnato uno morto. Gli indiani iniziarono così a portare sempre più cobra, ma ben presto, mossi dallo spirito imprenditoriale, alcuni cominciarono anche ad allevare i cobra pur di guadagnare la ricompensa promessa. Quando il governo se ne accorse annullò immediatamente i premi ma i sudditi per vendetta liberarono gli animali tanto temuti. Una vicenda che fa riflettere ed evidenzia come gli incentivi siano fondamentali proprio perché capaci di influenzare e determinare il comportamento delle persone.

Quantcast a favore di un utilizzo proattivo di tecnologie e programmatic

Ecco perché devono essere valutati e scelti con attenzione anche nella pubblicità online, dove l’obiettivo predominante rimane l’incremento delle vendite. Una volta fissati gli incentivi, per gli inserzionisti diventa però prioritario dimostrare che la pubblicità contribuisce concretamente al raggiungimento di tale obiettivo. Una misurazione che oggi avviene principalmente e, secondo Quantcast, erroneamente, attraverso il click-through rate e il last-touch. Due metriche sicuramente facili da misurare ma inadatte per l’ecosistema pubblicitario che, soprattutto con l’avvento del programmatic, è cambiato tantissimo. Oggi è quindi fondamentale misurare ciò che conta davvero e focalizzare le strategie pubblicitarie su soluzioni che consentono di identificare nuovi consumatori, che scoprono il brand proprio grazie ad un targeting più efficace reso possibile dall’introduzione dell’intelligenza artificiale.

Per quanto riguarda l’utilizzo dei big data, la società ad-tech ritiene che ci sia ancora ampio spazio per una loro migliore integrazione nei processi e che il programmatic oggi sia principalmente considerato come un valido strumento solo per obiettivi di performance e non di branding. In realtà la tecnologia, il programmatic stesso e le informazioni preziose che si possono recuperare unicamente dai big data devono essere utilizzate anche in maniera proattiva per attività di brand awareness. Questo perché gli insight e le idee forniti, se da una parte sono utili per ottimizzare le campagne in maniera retroattiva, dall’altra sono particolarmente validi per alimentare la definizione della strategia e la produzione della creatività all’inizio del processo. Un approccio, questo, già approfondito dalla stessa Zampori e dal Fondatore e Ceo di Quantcast, Konrad Feldam, nell’incontro Eclipse – “Allenarsi all’innovazione”, primo evento italiano della società (potete leggere qui l’articolo dedicato).

A questo proposito Ilaria Zampori ha illustrato il caso di Tacchini, marchio italiano dell’abbigliamento sportivo presente anche in Regno Unito e Stati Uniti che voleva rivedere la strategia creativa. Grazie ad un’approfondita analisi sul target audience in entrambi i Paesi, Quantcast ha fornito importanti insight sui loro reali consumatori. Insight che comprendevano informazioni quali età, sesso, istruzione, etnia, interessi e comportamento di consumo e che verranno sfruttati per colpire in maniera mirata esattamente quella target audience sviluppando creatività in linea con le evidenze riscontrate.

Business Data Analyst, metà delle PMI dichiara di volerne assumere uno

Dopo il Digital Marketing Specialist, quella del Business Data Analyst è la figura più ricercata dalle aziende. E il motivo non stupisce: ogni giorno, rispetto al passato, generiamo una quantità enorme di dati, il 90% in più solo negli ultimi due anni. Ma questi dati, una vera miniera per chi offre prodotti e servizi, hanno valore solo se siamo in grado di analizzarli, aggregarli e visualizzarli.

Secondo una recente ricerca realizzata da TAG Innovation School, in collaborazione con Cisco Italia e Intesa Sanpaolo, su un campione di 550 piccole e medie imprese italiane, il 50% dichiara di volere assumere un esperto di analisi dei dati entro i prossimi 3 anni. Tra le tendenze del 2017, le aziende hanno deciso di investire maggiormente in Visualization, Cloud Data, Rich Content, Internet of Things, Sensor Data Driven e Intelligenza Artificiale.

Il Business Data Analyst è un professionista portatore di una serie di competenze che permettono alle aziende di sfruttare i dati per creare nuovi modelli di business e generare vantaggio competitivo sul mercato. TAG Innovation School, che all’interno della sua offerta ha dei corsi di formazione per la preparazione di questi professionisti, ha indagato quali sono le sue skill più apprezzate, il suo stipendio medio annuo, e la ripartizione tra uomini e donne per questo ruolo.

Ecco cosa è emerso dalla sua indagine, sintetizzato nell’infografica che segue.

Infografica_Data-Analyst-TAG-Innovation-School

 

Big Data, il mercato crescerà del 24% nei prossimi cinque anni

Secondo il nuovo rapporto “Global Big Data Services Market 2017-2021” di Research and Markets, il mercato globale dei servizi di big data crescerà ad un tasso annuo di crescita composto (CAGR) del 24,20% nei prossimi cinque anni.

Lo studio, redatto sulla base di analisi approfondite e informazioni raccolte da esperti del settore, si concentra sugli scenari di mercato e sulle sue prospettive di crescita negli anni che intercorrono tra il 2017 e il 2021, presentando anche una sezione di dibattito con i principali operatori.

L’ultima tendenza ad aver guadagnato slancio è il crescente consolidamento del mercato. La concentrazione nel mercato globale dei servizi di big data sta aumentando perché numerosi grandi attori stanno acquisendo altre compagnie, con l’obiettivo di fornire nuove tecnologie ed espandere il proprio portafoglio di business.

Stando alla ricerca, uno dei principali motori per questo comparto è la crescente quantità di dati a disposizione. I volumi sono in rapida espansione, infatti, sono stati creati più dati dal 2014 ad oggi che in tutta la storia antecedente. Si stima che, entro il 2020, nel mondo saranno generati più di 1,5 megabyte di informazioni al secondo per ogni persona. Le fonti di produzione di queste informazioni sono state individuate nella rete, nei dispositivi mobili e nei social media.

In un altro documento, recentemente pubblicato, Research and Markets ha stimato che il mercato dei software per l’automatizzazione delle attività di marketing varrà 7,63 miliardi di dollari entro il 2025.

La qualità dei dati preoccupa quasi la metà dei professionisti media europei

La cattiva qualità dei dati può costituire un freno all’efficacia della pubblicità digitale? Secondo uno studio sì, e ne è preoccupato il 43% dei professionisti media in Europa.

E’ quanto rivela una ricerca di ExchangeWire Research e Xaxis, che ha indagato il rapporto tra dati e campagne digital efficaci in 7 Paesi europei: Italia, Danimarca, Francia, Germania, Polonia, Spagna e UK, rivelando come la percezione della qualità dei dati cambia da Paese a Paese, anche se in assoluto quasi la metà dei professionisti considera i dati poco affidabili un ostacolo alle pianificazioni efficaci e all’engagement degli utenti.

In assoluto, è in UK e Francia che si registrano i più alti livelli di soddisfazione sulla qualità dei dati: è oltre l’80% per quanto riguarda i dati demografici, comportamentali e di geo-localizzazione, e oltre il 65% per quelli di CRM, survey e financial scoring. Seguono Germania e Spagna con livelli di soddisfazione rispettivamente del 70% e 56%, mentre l’Italia, insieme a Polonia e Danimarca, stanno molto indietro.

«I risultati della ricerca evidenziano una diffusa mancanza di fiducia nella qualità dei dati in Europa, con oltre quattro intervistati su 10 preoccupati della qualità dei dati disponibili per pianificazioni ed engagement – commenta Rebecca Muir, head of research and analysis di ExchangeWire -. Nessun mercato è uguale a un altro quando si parla di disponibilità e applicazione dei dati sulle audience; è dunque importante che la raccolta delle informazioni sia accurata, rilevante e localizzata per massimizzare il coinvolgimento del pubblico».

«I mercati emergenti devono lavorare per superare le barriere che attualmente si trovano davanti, tuttavia i ridotti volumi di dati continuano ad essere un problema su questo fronte. La principale differenza tra i mercati emergenti e quelli più maturi è la capacità di estrapolare dati di nicchia. Una volta che i mercati emergenti riusciranno a raccoglierli e implementarli in una data strategy più efficace, in linea con le loro controparti europee, vedremo una maggiore crescita e maturità in tutta Europa», aggiunge John Wittesaele, presidente di Xaxis EMEA.

Rocket Fuel, arriva anche in Italia la soluzione “anti-malvertising”

Rocket Fuel ha comunicato il rilascio italiano della sua nuova soluzione per combattere il “malvertising” nell’ecosistema pubblicitario, come avevamo già anticipato nell’articolo dedicato al bilancio della società.

La piattaforma di marketing predittivo usa le Cloud Vision API di Google per riconoscere e rifiutare determinate pubblicità vietate, proteggendo i consumatori e garantendo che le campagne dei clienti siano prive di pubblicità nocive.

Il sistema applica intelligenza artificiale, big data, blacklist e diverse tattiche anti-malware per analizzare approfonditamente le pubblicità. Attraverso lo strumento di Big G, Rocket Fuel può, inoltre, identificare e bloccare numerose pubblicità degli inserzionisti che non presentano un click-through appropriato, oltre a proteggere gli utenti da attività nocive. Questo comporta risparmi significativi per aziende e agenzie, permettendo loro di offrire una migliore esperienza utente.

«Il malvertising e coloro che ne fanno uso rappresentano, da anni, un grosso problema per il settore del digital advertising», ha commentato Enrico Quaroni, Regional Director Southern Europe e Mena Region di Rocket Fuel, «Rocket Fuel è impegnata nella lotta alle pubblicità nocive e, grazie all’utilizzo di tecnologie esterne come le Cloud Vision API di Google, possiamo compiere grandi passi avanti nella protezione di brand, agenzie e consumatori».

Ulteriori funzionalità anti-malvertising della piattaforma di Rocket Fuel includono:

  • Text Inspection: Google Translate si attiva per tradurre automaticamente il testo delle pubblicità in 104 lingue per rilevare prodotti vietati e annunci click-bait.
  • Assisted Automation: se le pubblicità non contengono malware, la scansione avviene in pochi millisecondi. Quando, invece, una pubblicità è considerata sospetta, viene richiesto un controllo umano. In questo caso, le pubblicità vengono analizzate nel giro di alcune ore.

DoubleClick Ad Exchange (AdX) garantisce i massimi livelli di qualità pubblicitaria e richiede ai partner di fornire creatività sane per la sua inventory. Rocket Fuel ha realizzato la sua piattaforma nel rispetto dei severi requisiti di DoubleClick Ad Exchange. Dopo aver verificato il suo successo, la piattaforma è stata resa disponibile ai partner dell’inventory di Rocket Fuel, raggiungendo la cifra di oltre mezzo miliardo di impression al giorno.

Programmatic, il mercato chiede più trasparenza sul fronte dati

Il 41% degli inserzionisti non aumenterà significativamente i propri investimenti in Programmatic Buying fino a che non ci sarà una maggiore trasparenza sui dati.

A rivelarlo è una nuova ricerca internazionale, condotta Industry Index per Metamarkets e focalizzata ad individuare i fattori che, tra scelte dei brand, delle agenzie e degli editori, più influenzano l’acquisto media online. Secondo i dati dello studio, ben tre quarti dei marketer (il 75%) hanno rivelato la loro preoccupazione sulla mancanza di trasparenza sui dati in ambiente programmatico. Per il 32%, questo fattore è il più importante tra i freni a una crescita e a una maggiore scalabilità degli acquisti automatizzati, ma è ben il 72% degli intervistati a citarlo come inibitore del mercato. Altro tema importante sono le inventory fraudolente, citate dal 78% degli intervistati.

Ma quanta poca trasparenza c’è, effettivamente, in ambito dati? Quasi la metà delle aziende (il 49%) rivela di non fidarsi di un quinto o più dei dati su cui basano le loro decisioni di acquisto, e il 16% (tra brand, agenzie ed editori) dice di non poter fare affidamento su almeno il 30% dei loro dati.

La cosa naturalmente si rispecchia non solo sul fronte investimenti – il 74% aumenterebbe la propria spesa in Programmatic di almeno l’11% in presenza di dati più trasparenti, e in alcuni casi del 50% e più – ma anche a livello di partner: il 55% dei marketer afferma infatti che sarebbe disposto a cambiare il proprio fornitore di dati per un operatore più trasparente.

Zeotap, il video integrale dell’intervento al Programmatic Day

È in corso una guerra nell’industria della pubblicità digitale? Sì, secondo zeotap, perché tutti gli operatori stanno combattendo per ottenere maggiore innovazione ma, soprattutto, per ottenere dati pregiati in larga scala, indispensabili al fine di implementare un’efficace ed efficiente campagna in Programmatic. Non a caso, l’intervento sul palco del Programmatic Day di Oliver Kanders, Director Market Building & Marketing della società, è stato intitolato proprio “Advertising Wars III: The Data Awakens”.

Salito sul palco in apertura di conferenza, Kanders ha coinvolto il pubblico presente in sala plenaria con una presentazione originale, spiritosa e allo stesso tempo ricca di spunti. Ve la riproponiamo in versione integrale.

 

Quantcast al Programmatic Day: «Dati e tecnologie devono essere alla base delle strategie di marketing»

Tra i protagonisti della terza edizione del Programmatic Day, Ilaria Zampori, General Manager per l’Italia di Quantcast, ha spiegato come il programmatic sia un valido alleato nel digital advertising non solo per obiettivi di performance ma anche per strategie branding. Nel corso del suo intervento ha analizzato lo stato dell’arte del settore, presentato alcuni studi accademici, esaminato il comportamento del consumatore nel percorso d’acquisto e alla fine illustrato le nuove opportunità per il marketing.

Smart branding in Programmatic, l’opinione di Ilaria Zampori di Quantcast

«Osservando il settore è evidente come internet abbia modificato le strategie di comunicazione. Oggi l’industry percepisce i dati, la tecnologia e in particolare il programmatic come l’ultimo anello della catena. Solo dopo aver deciso la strategia, realizzato la creatività e istruito la media agency, si prende in considerazione l’esperienza delle aziende che si occupano di programmatic, essenzialmente per ottimizzare lo sviluppo della pianificazione media.

Un processo che ha portato a stigmatizzare, erroneamente, il programmatic come uno strumento valido solo per il direct response. In generale in questi ultimi anni la tendenza prevalente è di realizzare strategie pubblicitarie sempre più concentrate su obiettivi di performance che illudono gli inserzionisti per un ritorno immediato dei loro investimenti senza però considerarne la mancata efficacia a lungo termine. Un aspetto molto significativo divenuto anche oggetto di importanti studi che, analizzando i risultati a breve e lungo termine di campagne emozionali e dunque branding rispetto a campagne di direct response, hanno mostrato interessanti evidenze per il settore.

Considerando, ad esempio, le campagne display con obiettivi di performance sono evidenti le modifiche costanti della pianificazione per evitare il calo delle vendite. Un’ottimizzazione in corsa necessaria proprio perché basate su messaggi pubblicitari razionali che da una parte garantiscono un effetto immediato in termini di vendite ma dall’altra non assicurano un incremento della brand reputation nel tempo. Un gap che può essere colmato solo abbinando attività di branding ad azioni di direct response che puntano su messaggi emozionali capaci di rendere più forte e vincente il brand anche a lungo termine.

Una strategia confermata anche dal comportamento del consumatore come evidenzia una ricerca commissionata da Quantcast e condotta da Basis Research, su 2.500 consumatori tra Australia, Francia, Germania, Italia, Regno Unito e Stati Uniti, per misurare il ruolo che brand, pubblicità e altri touchpoint giocano nel percorso decisionale del consumatore. Tra i risultati più significativi emerge infatti che i consumatori iniziano il processo di acquisto con una shortlist di brand molto limitata a dimostrazione di quanto sia importante per gli investitori entrare in relazione con l’utente prima ancora che inizi la ricerca attraverso un’efficace campagna branding.

Ecco perché oggi la tecnologia, il programmatic e le informazioni preziose che possono fornire non devono essere coinvolti solo alla fine del processo ma sin dall’inizio sfruttando insight e idee che solo i big data possono offrire. Un nuovo sistema che stravolge le regole del gioco, passando dall’utilizzo di dati non più solo in modo retrospettivo ma inserendoli proattivamente all’inizio della pianificazione».

Le più lette

Wordpress Social Share Plugin powered by Ultimatelysocial