Main partner:

Jobs

L’UPA sta costruendo una DMP condivisa tra le aziende associate

L’UPA, l’associazione che rappresenta le aziende che investono in pubblicità, è molto interessata alla possibilità di utilizzare la Blockchain per accrescere la trasparenza nell’ambito del programmatic advertising ed ha avviato, con la collaborazione tecnica del Gruppo Reply, un progetto finalizzato all’applicazione di questa tecnologia alla filiera, in modo da avere totale visibilità dell’attività di tutti i soggetti coinvolti nell’erogazione delle campagne.

Ad annunciarlo è stato il presidente dell’UPA Lorenzo Sassoli de Bianchi, mercoledì nell’ambito della tradizionale Assemblea dell’associazione. E non si tratta dell’unica novità riguardo al programmatic.

La stessa UPA sta infatti sperimentando la costruzione di una “data pool” condivisa tra i propri associati che accresca l’affidabilità e la qualità dei dati disponibili per le pianificazioni pubblicitarie. Tale DMP – che vede Neodata come partner tecnico – è attualmente in via di sperimentazione con 6/7 associati coinvolti e potrebbe diventare in un secondo momento uno “strumento aperto”, a cui le aziende potrebbero accedere per “arricchire” i propri dati di prima parte con informazioni di proprietà di altre aziende (ovviamente in forma criptata e anonimizzata) per creare segmenti di audience e altro. In una prima fase, questa DMP conterrebbe essenzialmente cookie, ma potrebbe successivamente integrare anche dati diversi.

Resta quindi alta l’attenzione dell’UPA verso il tema del programmatic, che resta uno tra i più caldi per l’associazione degli spender come si era già visto dall’ampio spazio dedicato ad esso nell’ambito del recente Libro Bianco sul Digitale realizzato insieme alle altre principali Associazioni del mercato. Del resto, l’attenzione all’innovazione è uno dei valori che il Presidente Sassoli ha indicato come fondanti nell’attività dell’Associazione, che quest’anno compie settant’anni.

Per quanto riguarda i dati di mercato, secondo le previsioni dell’UPA il 2018 sarà il quarto anno consecutivo con il segno positivo e chiuderà con l’1,5% di incremento degli investimenti in comunicazione, di cui circa il 30% saranno riversati sul digitale.

The Trade Desk potenzia la sua piattaforma di programmatic con l’AI

La piattaforma internazionale di tecnologie per il programmatic advertising The Trade Desk ha annunciato il lancio di una serie di nuovi prodotti per aiutare gli inserzionisti a usare nuovi insight data-driven per pianificare, ottimizzare e acquistare campagne sui media digitali con un’efficacia “maggiore che mai”.

New Wave” – questo il titolo scelto per la nuova suite di prodotti – si compone di tre strumenti diversi.

Il primo è Koa, un motore di intelligenza artificiale che dovrebbe aiutare inserzionisti e agenzie a prendere migliori decisioni riguardo alle campagne, e migliorarne le performance; poi c’è Planner, uno strumento di pianificazione che combina dati di prima e terza parte per scegliere i device, i network pubblicitari, i canali, le aree geografiche o i gruppi demografici che consentono di raggiungere il target nel modo più efficace, e suggerisce modi per ottimizzare la spesa media rispetto alle possibili opportunità. E infine ecco Megagon, intuitiva nuova interfaccia su cui visualizzare ed elaborare le informazioni di Koa per prendere decisioni in tempo reale.

Con i nuovi strumenti, la piattaforma “potenziata” di The Trade Desk dovrebbe agevolare gli spender soprattutto nella fase di pre-campagna, aiutandoli a stimare e ottimizzare l’impatto in termini di delivery e di costi di ogni ottimizzazione apportata nella piattaforma, prima di iniziare a erogare.

Tutti i nuovi strumenti sono disponibili gratuitamente per i clienti di The Trade Desk. “Siamo orgogliosi di lanciare The Next Wave per realizzare la promessa del programmatic: un approccio più data-driven all’advertising che offre benefici a inserzionisti, editori e consumatori”, commenta Jeff Green, Ceo e fondatore della società.

zeotap lancia i segmenti di audience dedicati ai Mondiali di Calcio

Novità in casa zeotap: l’azienda specializzata in dati deterministici per il targeting delle campagne online lancia una serie di nuovi segmenti di audience dedicati ai Mondiali di Calcio (e non solo) e si conferma in prima linea sul fronte della privacy e della sicurezza annunciando tre nuovi certificazioni con validità internazionale.

Nonostante l’assenza della nazionale italiana, i Mondiali di Calcio si confermano anche quest’anno un evento al centro dell’interesse degli spender pubblicitari, anche grazie alla copertura televisiva comunque completa, quest’anno garantita per la prima volta dalle reti Mediaset.

Per rispondere alle esigenze delle aziende che intendono rivolgere le proprie comunicazioni online agli utenti che seguiranno da vicino l’appuntamento con Russia 2018, la società guidata in Italia da Riccardo Polizzy Carbonelli ha sviluppato una serie di segmenti di audience dedicati, profilati secondo specifici interessi aggiuntivi e disponibili attraverso i i più importanti canali di distribuzione. Sulla base dei set di dati deterministici utilizzati da zeotap sarà possibile targettizzare all’interno del pubblico dei Mondiali di Calcio gli utenti interessati a Food & Beverage, Automotive, Electronics e Finance.

Non è l’unica novità nell’offerta dati di Zeotap, che in questi giorni rilascia una serie di nuovi profili sull’offerta mApp e mWeb: mamme con figli in età prescolare, night life, nutrition, personal finance, real estate, science, travel, tv & cinema, automotive, business, family & parenting, food & drink, health & fitness, home & garden.

Sul fronte della privacy, invece, zeotap ha conseguito nuovamente il “GDPR ePrivacy Seal”, confermandosi pienamente compliant con i dettami del nuovo regolamento europeo sulla protezione dei dati, che entrerà definitivamente in vigore il 25 maggio.

Inoltre, a maggio la società ha ottenuto il rinnovo della certificazione ISO/IEC 21007, probabilmente la più complessa tra le certificazioni conseguibili da una impresa in tema di sicurezza, a conferma del fatto che i dati sono appropriatamente gestiti in qualsiasi momento e ambiente. Frutto di una valutazione addizionale rispetto ai servizi cloud è invece l’ulteriore certificazione CSA Silver Star. Entrambe queste due ultime certificazioni hanno implicato un processo di auditing della durata di ben 6 mesi.

Gestione dei dati e intelligenza artificiale: queste le priorità di brand e agenzie nel 2018

Big data, customer experience e intelligenza artificiale. Sono questi i settori che aziende e agenzie considerano prioritari per il 2018.

Secondo quanto rileva una ricerca di WARC, il prossimo sarà un anno di digital transformation, e l’estrapolazione di insight dai dati sarà il principale focus sia per i brand (55%) sia per le agenzie (59%).

Altro pilastro su cui nei prossimi 12 mesi verranno costruite le strategie aziendali sono l’organizzazione e la gestione dei dati, tema citato dal 40% dei brand e dal 45% delle agenzie. Sempre legata ai dati è poi la questione dell’esperienza dell’utente, considerata prioritaria dal 53% delle aziende e dal 58% delle agenzie.

Lo studio ha evidenziato anche come la GDPR e la sua implementazione rappresentino la principale sfida per chi utilizza i dati. Solo pochi marketer ammettono di essere pronti, a pochi mesi dalla definitiva entrata in vigore del regolamento: in Europa è il 25% dei rispondenti, mentre nel resto del mondo è ancor meno, il 12%, nonostante il regolamento abbia effetto anche su aziende extra-europeee, a patto che abbiano clienti nel continente. A livello globale, sono i brand più che le agenzie a sentirsi equipaggiate per i cambiamenti apportati dal nuovo regolamento: il 22% contro il 15%.

Tra le tecnologie emergenti col maggiore potenziale, le aziende mettono al primo posto l’intelligenza artificiale (56%), seguita da chatbot e app di messaggistica (46%). Le agenzie, invece, sembrano valutare maggiormente i chatbot (52%) dell’AI (50%).

Oltre un terzo dei brand (il 38%), inoltre, è d’accordo sul fatto che le società di consulenza di management siano migliori delle agenzie nell’aiutare ad attuare la digital transformation; il 31% non concorda. E se metà delle agenzie mostrano fiducia nel proprio business model, un terzo pensa che le società di consulenza abbiano un vantaggio.

Webtrekk estende l’offerta di dati con cross-device bridge

La piattaforma di customer intelligence Webtrekk ha annunciato il lancio ufficiale del suo Cross-Device Bridge (CDB), un pool “cooperativo” di dati cross-device che consente alle aziende di seguire i propri utenti su molteplici dispositivi, con un aumento delle conversioni “fino al 15%”, sottolinea la nota della società.

Al momento Cross Device Bridge è disponibile in Germania e può essere attivato su richiesta anche in altri mercati.

“In un’era di clienti iper-connessi, Webtrekk ha rilevato che ben il 30% dei clienti effettua la conversione attraverso un percorso che coinvolge più device. Per ottimizzare la customer journey, le aziende devono essere consapevoli del comportamento dei loro utenti su tutti i device ma le differenze tra i dispositivi mobile e desktop rendono arduo recuperare queste informazioni: attraverso la condivisione dei dati nel CDB di Webtrekk, le conversioni dei clienti possono essere aumentate fino al 15%”, scrive WebTrekk.

Cosa significa “pool di dati cooperativo“? E’ presto detto: per avere a disposizione informazioni di utenti non loggati, le aziende possono condividere i propri dati scambiandoli con quelli delle altre aziende che aderiscono al progetto. Webtrekk mette a disposizione le informazioni in forma sicura e nel rispetto della legge sulla protezione dei dati, le imprese aderenti possono accedere alle informazioni senza che vi sia un’identificazione personale dell’utente. I dati sono di conseguenza protetti e possono essere utilizzati solo per un’analisi Cross-Device, ma non per altri scopi di marketing.

Il Cross-Device Bridge di Webtrekk è certificato “ePrivacy” e potrà dare alle imprese una visione Cross-Device completa dei propri utenti in conformità con la nuova normativa sulla protezione dei dati (GDPR) che sarà in vigore dal maggio dell’anno prossimo.

“Da molto tempo si parla di Cross-Device Tracking. Siamo lieti di avere dato vita a Cross-Device Bridge, il primo pool di informazioni cooperativo, certificato in base alla protezione dei dati, per le imprese europee” ha affermato Wolf Lichtenstein, CEO di Webtrekk. “Le aziende che aderiscono a Cross-Device Bridge traggono vantaggio dai dati di altre imprese in quanto tutti mettono a disposizione i propri insights nel pool. Diamo vita così alla prima coalizione europea”.

Si arricchisce dunque di una nuova soluzione il portafoglio di Webtrekk, la piattaforma europea di analisi e customer intelligence che consente ai clienti di comprendere meglio il comportamento dei propri utenti in relazione ai dispositivi utilizzati, di fare delle analisi e optare per soluzioni di mirate. Fondata nel 2004, Webtrekk ha sede a Berlino e uffici a, Madrid, Amsterdam, Beijing e Milano, quest’ultima guidata dal country manager Nicola Liverani.

Cresce nelle aziende l’importanza del data scientist: quasi un’impresa su due possiede questa figura

C’è una nuova figura professionale che sta acquisendo sempre più importanza nel mondo del lavoro: è quella del Data Scientist. Secondo i dati dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano (qui una sintesi della ricerca), quest’anno quasi un’impresa su due (il 45%) ha già inserito nel proprio organico uno o più data scientist, un dato in crescita rispetto al 31% del 2016.

Segno che aumenta nelle imprese la consapevolezza sull’importanza dei dati e di figure esperte dedicate alla loro gestione.

L’Osservatorio rivela che, tra le grandi imprese che si sono dotate di questa figura, più del 30% ne ha definito formalmente ruolo e collocazione organizzativa. Inoltre, in media le aziende che contano già dei data scientist in organico dichiarano di volerne incrementare il numero nei prossimi 12 mesi (+46%), ulteriore conferma dell’impatto positivo di queste competenze. Tra le organizzazioni che ne sono ancora sprovviste, il 29% ne prevede l’introduzione, nel 45% dei casi entro il prossimo anno.

Fra le imprese che hanno assunto data scientist, il 28% ha iniziato a riconfigurare i propri processi organizzativi secondo una modalità Data Science Enabled, ma le competenze specializzate inserite lavorano ancora prevalentemente nella funzione IT o in altre specifiche funzioni aziendali. Il restante 17% invece ha raggiunto un livello di governance avanzato che segue svariati modelli organizzativi, diversi in base alla presenza o meno di una struttura centrale di coordinamento. Il 55% delle imprese che non hanno inserito in organico figure specializzate, invece, presenta ancora un modello organizzativo tradizionale, in cui le singole unità di business sono orientate ad analizzare i dati di propria competenza, senza alcuna visione aziendale complessiva.

La ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano ha coinvolto attraverso una survey oltre 1.100 CIO, Responsabili IT e c-level di altre funzioni di medie e grandi organizzazioni e analizzato oltre 1.100 player dell’offerta tramite interviste dirette o fonti secondarie.

Big Data Analytics, cresce in Italia il mercato e la consapevolezza delle aziende sul suo potenziale

Cresce il mercato dei Big Data Analytics e insieme ad esso cresce anche la consapevolezza delle aziende italiane delle opportunità offerte dai dati. Secondo quanto rileva la ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano, quest’anno il valore del mercato è aumentato del 22%, raggiungendo la cifra complessiva di 1,1 miliardi di euro, e il 43% dei CIO italiani oggi vede la Business Intelligence, i Big Data e gli Analytics come la principale priorità di investimento nel 2018.

Il processo di trasformazione delle tradizionali imprese italiane in “big data enterprise” è però ancora lungo: soltanto il 17% ha raggiunto un buon livello di maturazione (contro l’8% del 2016), mentre il 26% si trova in una fase di riconfigurazione dei propri processi organizzativi e il 55% è rimasto legato a un modello organizzativo tradizionale, in cui le singole unità di business analizzano i dati di propria competenza senza una visione aziendale complessiva.

«Il valore del mercato Analytics continua a crescere a ritmi elevati e quest’anno ha superato la soglia del miliardo di euro – commenta Carlo Vercellis, Responsabile scientifico dell’Osservatorio -. È il segnale che le grandi imprese ormai conoscono le opportunità offerte dai Big Data e hanno una strategia data driven orientata agli aspetti predittivi e all’automatizzazione di processi e servizi. L’utilizzo dei Big Data Analytics è indispensabile per non rischiare di perdere capacità competitiva: le imprese che negli anni scorsi hanno saputo approfittarne, affiancando all’innovazione tecnologica un modello organizzativo capace di governare il cambiamento, oggi si trovano in portafoglio processi più efficienti, nuovi prodotti e servizi con un ritorno dell’investimento certo e misurabile».

«Le grandi imprese hanno compiuto grandi passi in avanti, con un maggiore investimento di risorse ma anche di competenze, come dimostra il 45% di aziende che ha inserito figure di data scientist in organico – aggiunge Alessandro Piva, Responsabile della ricerca dell’Osservatorio Big Data Analytics e Business Intelligence –. Anche le PMI mostrano un diffuso interesse per l’analisi dei dati, con l’utilizzo di strumenti di data visualization e analytics di base, ma anche servizi di supporto alle attività di marketing. Sebbene coprano ancora oggi soltanto il 13% del mercato, la crescita della spesa è un segnale che, seppur più lentamente, si stanno muovendo nella giusta direzione».

Le grandi aziende e i Big Data

Per quanto riguarda le grandi imprese, nonostante un generale utilizzo dei descriptive analytics, strumenti che descrivono la situazione attuale e passata dei processi aziendali, con una crescita di 11 punti percentuali rispetto allo scorso anno, l’area di maggiore interesse è quella dei predictive analytics, che consentono di effettuare previsioni sull’evoluzione del mercato e sulle strategie, già diffusi nel 73% dei casi (contro il 59% del 2016). Sono ancora indietro, invece, i prescriptive analytics, tool avanzati capaci di proporre soluzioni sulla base delle analisi svolte, presenti solo nel 33% delle grandi imprese (pur in aumento di dieci punti), e ancora di più gli automated analytics, capaci di avviare autonomamente l’azione proposta secondo il risultato delle analisi, diffusi solo nel’11% delle organizzazioni, prevalentemente a livello pilota, pressocché in linea con quello dello scorso anno (10%).

Quanto agli scopi di utilizzo dei dati, il miglioramento dell’engagement con il cliente è quello che la fa da padrone: tra le aziende che hanno avviato iniziative, infatti, questa motivazione si attesta nel 70% dei casi, seguita dall’incremento delle vendite (68%), la riduzione del time to market (66%), l’ampliamento dell’offerta di nuovi prodotti e servizi e l’ottimizzazione dell’offerta attuale per aumentare i margini (64% ciascuno), la riduzione dei costi (57%) e la ricerca di nuovi mercati (41%). Anche tra i risultati effettivamente ottenuti spicca il miglioramento dell’engagement con il cliente, segnalato dalla totalità delle imprese (il 100% degli intervistati), mentre il 91% ha incrementato le vendite, il 78% ha ridotto il tempo che intercorre fra l’ideazione e commercializzazione del prodotto, il 67% ha ampliato l’offerta di prodotti e servizi, il 73% ha ottimizzato l’offerta per aumentare i margini di guadagno, il 56% ha contenuto i costi e il 38% cercato nuovi mercati. Quasi due società su tre danno un giudizio positivo dei risultati ottenuti: in particolare, il 13% giudica i risultati disruptive, il 21% un grande successo, il 29% un moderato successo, mentre soltanto il 37% ritiene che sia prematuro esprimere una valutazione e nessuna considera un fallimento questo tipo di iniziative.

Tra gli ostacoli principali ai progetti di Big Data Analytics, spiccano la mancanza di impegno e coinvolgimento da parte del top management (53%) e la mancanza di competenze e figure organizzative interne come Chief Data Officer e Data Scientist (51%). Invece non sembrano essere elementi di freno sostanziali i software poco usabili o le soluzioni obsolete (12%), così come la capacità di reperire dall’esterno professionalità con l’adeguato mix di competenze (22%). «Questi dati confermano che il mercato dell’offerta è pronto, con soluzioni allo stato dell’arte e competenze di Big Data Analytics crescenti – afferma Piva – persiste invece in molti casi un gap nella capacità di internalizzare figure e skill in grado di analizzare i dati e la capacità di sviluppare modelli di governance della datascience maturi». Tra gli altri freni vengono segnalate la difficoltà nello stimare i benefici dell’investimento o la necessità di investimenti troppo elevati (39%), soprattutto nelle aziende che per la prima volta si approcciano a soluzioni Analytics, e le problematiche di security e privacy (27%).

La situazione per le PMI

Nonostante la loro quota di spesa complessiva in Analytics sia cresciuta del 18% nel 2017, il ruolo delle piccole e medie imprese è ancora marginale nel mercato degli Analytics. Secondo lo studio, infatti, fra le PMI la diffusione di sistemi di Big Data Analytics si attesta solo al 7%. Tuttavia, le dimensioni aziendali hanno un peso rilevante nel determinare l’approccio a questi sistemi: per le microimprese è ancora prematuro parlare di Big Data Analytics perché non ne comprendono l’utilità e non sono sufficientemente strutturate, ma un’azienda su cinque con almeno dieci addetti ha progetti di Analytics in corso e il dato sale al 24% per le imprese con più di 50 addetti, segno di un deciso miglioramento anche delle PMI sulla strada che porta a diventare “Big Data Enterprise”.

Quando si tratta di valutare l’investimento in progetti di Big Data Analytics, spesso le PMI trovano difficoltà a stimare i reali benefici. Un altro ostacolo è la mancanza di competenze adeguate, difficili sia da sviluppare internamente che da reperire all’esterno, mentre una PMI su dieci è preoccupata dagli aspetti legati alla sicurezza informatica. Il tema delle competenze in particolare è molto sentito dalle PMI che dichiarano di voler utilizzare a breve i Big Data: tre su cinque hanno assunto figure specializzate nell’ultimo anno, ma fra le competenze inserite spicca la conoscenza dei sistemi informatici rispetto all’analisi statistica e al project management.

Le startup specializzate

Le startup del mercato Big Data e Business Intelligence finanziate da investitori istituzionali dal 2015 ad oggi hanno raccolto complessivamente 4,47 miliardi di dollari nel mondo, di cui 7,1 milioni in Italia. Le startup di Big Data e Business Intelligence operano in tre ambiti principali. Nel 13% dei casi nel ramo delle Technologies, offrendo strumenti per la raccolta, l’immagazzinamento, l’organizzazione e l’integrazione del dato. Il 33% si occupa di Analytics Systems, sistemi che non hanno un’applicazione specifica ma possono svolgere diverse funzioni a seconda delle esigenze del cliente. Il 53% delle startup è attivo nell’area delle Applications, soluzioni verticali rivolte a particolari settori industriali (33%) o per una determinata funzione aziendale (67%).

Osservatorio Internet Media, Ilaria Zampori interviene su misurazione e big data

Si è tenuto questa mattina, mercoledì 14 giugno, il convengo “Internet Media: è ora di misurarsi” organizzato dall’Osservatorio Internet Media del Politecnico di Milano, durante il quale sono stati presentati i risultati di una ricerca volta ad evidenziare le tendenze e le sfide della pubblicità digitale, con un’attenzione particolare al tema della misurazione.

Tra i protagonisti dell’evento Ilaria Zampori, General Manager di Quantcast Italia, che in questi mesi ha partecipato ai tavoli di lavoro per la ricerca in qualità di partner e player del settore. Nel corso del suo intervento si è focalizzata su misurazione e big data, aspetti fondamentali per l’industria.

«Gli incentivi che definiamo per raggiungere gli obiettivi sono degli incredibili motivatori in grado di cambiare i comportamenti, ecco perché nelle attività svolte nei media digitali sono così rilevanti», ha dichiarato Ilaria Zampori, condividendo con il pubblico un episodio apparentemente estraneo al mondo pubblicitario ma significativo. In India, durante il periodo coloniale, il governo britannico pensò di ridurre il numero di cobra velenosi, fissando un incentivo economico per chiunque ne avesse consegnato uno morto. Gli indiani iniziarono così a portare sempre più cobra, ma ben presto, mossi dallo spirito imprenditoriale, alcuni cominciarono anche ad allevare i cobra pur di guadagnare la ricompensa promessa. Quando il governo se ne accorse annullò immediatamente i premi ma i sudditi per vendetta liberarono gli animali tanto temuti. Una vicenda che fa riflettere ed evidenzia come gli incentivi siano fondamentali proprio perché capaci di influenzare e determinare il comportamento delle persone.

Quantcast a favore di un utilizzo proattivo di tecnologie e programmatic

Ecco perché devono essere valutati e scelti con attenzione anche nella pubblicità online, dove l’obiettivo predominante rimane l’incremento delle vendite. Una volta fissati gli incentivi, per gli inserzionisti diventa però prioritario dimostrare che la pubblicità contribuisce concretamente al raggiungimento di tale obiettivo. Una misurazione che oggi avviene principalmente e, secondo Quantcast, erroneamente, attraverso il click-through rate e il last-touch. Due metriche sicuramente facili da misurare ma inadatte per l’ecosistema pubblicitario che, soprattutto con l’avvento del programmatic, è cambiato tantissimo. Oggi è quindi fondamentale misurare ciò che conta davvero e focalizzare le strategie pubblicitarie su soluzioni che consentono di identificare nuovi consumatori, che scoprono il brand proprio grazie ad un targeting più efficace reso possibile dall’introduzione dell’intelligenza artificiale.

Per quanto riguarda l’utilizzo dei big data, la società ad-tech ritiene che ci sia ancora ampio spazio per una loro migliore integrazione nei processi e che il programmatic oggi sia principalmente considerato come un valido strumento solo per obiettivi di performance e non di branding. In realtà la tecnologia, il programmatic stesso e le informazioni preziose che si possono recuperare unicamente dai big data devono essere utilizzate anche in maniera proattiva per attività di brand awareness. Questo perché gli insight e le idee forniti, se da una parte sono utili per ottimizzare le campagne in maniera retroattiva, dall’altra sono particolarmente validi per alimentare la definizione della strategia e la produzione della creatività all’inizio del processo. Un approccio, questo, già approfondito dalla stessa Zampori e dal Fondatore e Ceo di Quantcast, Konrad Feldam, nell’incontro Eclipse – “Allenarsi all’innovazione”, primo evento italiano della società (potete leggere qui l’articolo dedicato).

A questo proposito Ilaria Zampori ha illustrato il caso di Tacchini, marchio italiano dell’abbigliamento sportivo presente anche in Regno Unito e Stati Uniti che voleva rivedere la strategia creativa. Grazie ad un’approfondita analisi sul target audience in entrambi i Paesi, Quantcast ha fornito importanti insight sui loro reali consumatori. Insight che comprendevano informazioni quali età, sesso, istruzione, etnia, interessi e comportamento di consumo e che verranno sfruttati per colpire in maniera mirata esattamente quella target audience sviluppando creatività in linea con le evidenze riscontrate.

Business Data Analyst, metà delle PMI dichiara di volerne assumere uno

Dopo il Digital Marketing Specialist, quella del Business Data Analyst è la figura più ricercata dalle aziende. E il motivo non stupisce: ogni giorno, rispetto al passato, generiamo una quantità enorme di dati, il 90% in più solo negli ultimi due anni. Ma questi dati, una vera miniera per chi offre prodotti e servizi, hanno valore solo se siamo in grado di analizzarli, aggregarli e visualizzarli.

Secondo una recente ricerca realizzata da TAG Innovation School, in collaborazione con Cisco Italia e Intesa Sanpaolo, su un campione di 550 piccole e medie imprese italiane, il 50% dichiara di volere assumere un esperto di analisi dei dati entro i prossimi 3 anni. Tra le tendenze del 2017, le aziende hanno deciso di investire maggiormente in Visualization, Cloud Data, Rich Content, Internet of Things, Sensor Data Driven e Intelligenza Artificiale.

Il Business Data Analyst è un professionista portatore di una serie di competenze che permettono alle aziende di sfruttare i dati per creare nuovi modelli di business e generare vantaggio competitivo sul mercato. TAG Innovation School, che all’interno della sua offerta ha dei corsi di formazione per la preparazione di questi professionisti, ha indagato quali sono le sue skill più apprezzate, il suo stipendio medio annuo, e la ripartizione tra uomini e donne per questo ruolo.

Ecco cosa è emerso dalla sua indagine, sintetizzato nell’infografica che segue.

Infografica_Data-Analyst-TAG-Innovation-School

 

Big Data, il mercato crescerà del 24% nei prossimi cinque anni

Secondo il nuovo rapporto “Global Big Data Services Market 2017-2021” di Research and Markets, il mercato globale dei servizi di big data crescerà ad un tasso annuo di crescita composto (CAGR) del 24,20% nei prossimi cinque anni.

Lo studio, redatto sulla base di analisi approfondite e informazioni raccolte da esperti del settore, si concentra sugli scenari di mercato e sulle sue prospettive di crescita negli anni che intercorrono tra il 2017 e il 2021, presentando anche una sezione di dibattito con i principali operatori.

L’ultima tendenza ad aver guadagnato slancio è il crescente consolidamento del mercato. La concentrazione nel mercato globale dei servizi di big data sta aumentando perché numerosi grandi attori stanno acquisendo altre compagnie, con l’obiettivo di fornire nuove tecnologie ed espandere il proprio portafoglio di business.

Stando alla ricerca, uno dei principali motori per questo comparto è la crescente quantità di dati a disposizione. I volumi sono in rapida espansione, infatti, sono stati creati più dati dal 2014 ad oggi che in tutta la storia antecedente. Si stima che, entro il 2020, nel mondo saranno generati più di 1,5 megabyte di informazioni al secondo per ogni persona. Le fonti di produzione di queste informazioni sono state individuate nella rete, nei dispositivi mobili e nei social media.

In un altro documento, recentemente pubblicato, Research and Markets ha stimato che il mercato dei software per l’automatizzazione delle attività di marketing varrà 7,63 miliardi di dollari entro il 2025.

Le più lette