Main partner:

Jobs

Il GDPR ha avuto un impatto sulle attività di Big Data Analytics?

Il GDPR ha avuto un impatto sulle iniziative di Big Data Analytics, in termini di azioni intraprese dalle aziende e di implicazioni sui progetti? Secondo gli ultimi dati dell’Osservatorio Big Data Analytics & Business Intelligence del PoliMi, sì, soprattutto con azioni sulle policy interne, sia di accesso ai dati (62%) sia di conservazione (55%).

Il 43% delle grandi aziende coinvolte nello studio ha ammesso infatti di aver inserito delle voci relative agli Analytics nelle nuove informative sulla privacy rivolte ai clienti, mentre il 24% ha investito in tecnologie specifiche.

Meno di una grande azienda su tre (30%) dichiara che l’avvento del GDPR ha rallentato i progetti di Analytics in corso e soltanto l’1% ha dovuto bloccare delle iniziative a causa della nuova normativa. Per circa un’azienda su cinque (il 22%) il GDPR ha avuto un impatto positivo, soprattutto perché ha aumentato la consapevolezza sulle potenzialità degli Analytics (17%) e poi perché la presenza di un chiaro quadro normativo ha permesso di pianificare nuove iniziative nel medio-lungo periodo (5%). Per il 38% delle grandi aziende il GDPR non ha avuto nessuna conseguenza in ambito analisi dati: un segnale positivo, perché indica che queste aziende erano già preparate per adattarsi al cambiamento normativo. Infine, il 9% delle grandi organizzazioni non sa come valutare l’impatto del fenomeno.

La ricerca dell’Osservatorio ha inoltre evidenziato che le organizzazioni con una struttura dedicata alla Data Governance si sono dimostrate più preparate ad affrontare il tema: tre aziende su quattro hanno modificato le proprie informative sulla privacy con voci relative agli Analytics e più della metà delle aziende ha acquistato soluzioni tecnologiche specifiche.

Big Data Analytics, cresce il mercato in Italia: +26% nel 2018, a 1,3 miliardi di euro

Il mercato italiano dei Big Data Analytics continua a crescere nel 2018, raggiungendo un valore complessivo di 1,393 miliardi di euro, in crescita del 26% rispetto all’anno precedente. Lo rivelano i nuovi dati dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano.

Un risultato che conferma il trend positivo degli ultimi tre anni, in cui il settore è cresciuto in media del 21% ogni dodici mesi, anche se rimane molto ampio il divario fra le grandi imprese, che si dividono l’88% della spesa complessiva, e le Pmi, che rappresentano il 12% del mercato.

Il 45% della spesa in Analytics è dedicata ai software (database e strumenti per acquisire, elaborare, visualizzare e analizzare i dati, applicativi per specifici processi aziendali), il 34% ai servizi (personalizzazione dei software, integrazione con i sistemi informativi aziendali, consulenza di riprogettazione dei processi) e il 21% alle risorse infrastrutturali (capacità di calcolo, server e storage da impiegare nella creazione di servizi di Analytics). I software sono anche l’ambito con la crescita più elevata (+37%), seguito dai servizi (+23%) e risorse infrastrutturali (+9%). Tra i comparti merceologici, invece, i primi per quota di mercato sono le banche (28% della spesa), manifatturiero (25%) e telco – media (14%), seguiti da servizi (8%), GDO/Retail (7%), assicurazioni (6%), utility (6%) e PA e sanità (6%).

L’evoluzione del mercato dei Big Data Analytics, tuttavia, va ben oltre i numeri. Cambiano le metodologie di analisi, con l’avvento dirompente di tecniche di Machine Learning e Deep Learning, per le quali circa un terzo delle grandi imprese ha già acquisito le competenze necessarie, e dell’analisi di dati in tempo reale, già sfruttata dall’11%. Cresce l’esigenza di competenze di data science: il 46% delle grandi imprese ha già inserito figure di Data Scientist in organico, il 42% Data Engineer, il 56% Data Analyst. Nonostante una crescita del numero di imprese con un modello di governance della Data Science maturo (dal 17% al 31%), però, più della metà (55%) presenta un modello organizzativoancora tradizionale.

«Il mercato dei Big Data Analytics continua a crescere a ritmi serrati, superiori al 25% – afferma Carlo Vercellis, Responsabile scientifico dell’Osservatorio Big Data Analytics & Business Intelligence -. Crescono iniziative “fast data”, in cui l’analisi dei dati avviene in tempo reale, integrando diverse fonti informative in streaming e valorizzando in particolare le potenzialità della Internet of Things: tra queste ricordiamo real- time advertising, fraud detection, predictive maintenance, new product development. Ma per coglierne appieno i benefici, è necessario che i Big Data vengano analizzati secondo modalità smart, mediante sofisticati algoritmi di machine learning in grado di identificare pattern e correlazioni presenti nei dati e di trasformare questa conoscenza in azioni concrete che permettano alle imprese di acquisire vantaggio competitivo».

«Le dinamiche di crescita del mercato sono diverse a seconda delle dimensioni aziendali – afferma Alessandro Piva, Responsabile della ricerca dell’Osservatorio Big Data Analytics & Business Intelligence -. Mentre le PMI inseguono a fatica, tra le grandi aziende si è diffusa la convinzione che sia giunto il momento dell’azione: le imprese che hanno già avviato progetti ne stanno raccogliendo i benefici e sono spinte a continuare a investire, quelle rimaste indietro percepiscono l’urgenza di attrezzarsi. Parallelamente crescono le organizzazioni che hanno inserito professionalità qualificate per la gestione degli analytics, come data scientist, data engineer, data architect data analyst, e introdotto modelli organizzativi per sfruttarne al meglio le opportunità, uniformando scelte tecnologiche e dando vita meccanismi di coordinamento strutturati».

Le grandi aziende

La totalità delle grandi organizzazioni adotta Analytics di tipo descrittivo, ma molte stanno sperimentando un’evoluzione verso logiche di predictive, prescriptive e, in alcuni casi, automated Analytics. L’evoluzione passa attraverso tecniche di Machine Learning e Deep Learning, che abilitano nuove tipologie di analisi, e di Real-time Analytics. Il 62% delle grandi aziende dichiara di avere necessità di competenze specifiche di Machine Learning e Deep Learning: tra queste, poco più di un terzo le ha già introdotte in organico e un ulteriore 30% prevede di farlo nei prossimi due anni. Poco più di un’azienda su dieci (11%) invece sfrutta oggi modalità di analisi in Real-Time o in Streaming, in cui vi è un flusso continuo di raccolta dei dati che devono essere analizzati con continuità. Un ulteriore 33% possiede un’infrastruttura che consente analisi in Near Real-Time, con una frequenza d’aggiornamento che scende a meno di un’ora. Il 56% delle organizzazioni analizza i dati in modalità batch, con un aggiornamento del sistema a intervalli regolari e predefiniti (solitamente giornalieri).

Nonostante siano diminuite complessità e incertezze nel percorso di adozione di progetti di Analytics, rimangono alcuni ostacoli da superare. Le difficoltà maggiori riguardano la mancanza di competenze e figure organizzative interne (53%), l’integrazione dei dati (45%) e la stima dei benefici dell’investimento (34%).

Le PMI

Soltanto il 7% delle Pmi nel 2018 ha avviato progetti di Big Data Analytics, mentre quattro su dieci dichiarano di svolgere analisi tradizionali sui dati aziendali. Se si guarda alla consapevolezza e alla maturità tecnologica delle piccole e medie imprese, dalla ricerca emerge come il 10% continui ad avere una comprensione scarsa o nulla di quali vantaggi i Big Data potrebbero apportare e di come abbia un approccio all’analisi dei dati limitato e tradizionale. Poco meno di un terzo delle aziende, il 31%, è invece sulla buona strada sia dal lato della consapevolezza sia dal lato tecnologico. Circa quattro aziende su dieci (42%), inoltre, si sono mosse in una soltanto delle due direzioni o a causa di una visione limitata del fenomeno o a causa della mancanza di risorse per effettuare investimenti tecnologici. Una PMI su dieci, infine, si dimostra pronta per lanciare delle iniziative di Analytics.

Le startup

L’Osservatorio ha censito 443 startup operanti nel mercato dei Big Data Analytics, fondate a partire dal 2013 e finanziate dal 2016 in avanti, per un totale di 4,74 miliardi di dollari di investimenti raccolti. Quelle che complessivamente raccolgono più finanziamenti, circa 30,6 milioni di dollari ciascuna, sono in ambito Technology (l’8% del totale delle startup), che offrono strumenti per la raccolta, l’analisi l’immagazzinamento, l’organizzazione e integrazione dei dati.

Facebook lancia un cookie di prima parte per targeting e analytics

L’era del cookie di terze parti volge al termine? Forse. Dopo che alcuni importanti browser – Safari e Firefox – hanno deciso di bloccare l’attività dei “cookie esterni”, le piattaforme pubblicitarie hanno iniziato a studiare delle opzioni alternative all’utilizzo di questi strumenti per il targeting e la reportistica delle loro campagne pubblicitarie.

La prima è stata Google un anno fa, a cui è seguita Microsoft lo scorso gennaio. E adesso è la volta di un’altra big, Facebook.

Il social di Zuckerberg ha comunicato ai propri inserzionisti il rilascio di un nuovo cookie di prima parte: una soluzione per advertiser, editori e sviluppatori capace di misurare e ottimizzare gli annunci della piattaforma e catturare dati di analytics su quei browser che bloccano i cookies “terzi”.

Ecco come funziona. Quando un utente clicca su un annuncio erogato da Facebook, una stringa unica di codice si “attacca” all’url della landing page. Quando sul sito ci sono pixel autorizzati alla condivisione con Facebook di dati da cookie di prima parte, questo parametro della url verrà registrato nel browser dell’utente come “cookie di prima parte”. I pixel poi includeranno questi cookie tra le informazioni da riportare a Facebook.

Secondo Facebook, questa nuova soluzione potrà essere utilizzata per attivare un targeting continuo e per misurare le performance degli annunci e gli analytics dei siti per il traffico derivante da browser.

Gli inserzionisti potranno decidere di mantenere i cookie di terza parte, e in quel caso Facebook provvederà a fornire dei modelli capaci di stimare le conversioni da Safari. La piattaforma non ha tuttavia fornito particolari sul funzionamento di tali modelli.

Dal 5 ottobre, le aziende potranno, su Events Manager, modificare le loro preferenze, scegliendo tra cookie di prima o terza parte per i pixel di Facebook. Avranno tempo fino al 24 ottobre per scegliere di non utilizzare il nuovo cookie di prima parte; dopo quella data la soluzione verrà attivata di default, salvo per i nuovi inserzionisti che potranno scegliere in qualsiasi momento.

Artefact vince la gara BNL per i servizi di consulenza Data&Analytics

BNL ha scelto Artefact come nuova agenzia per le attività Analytics relative alle property BNL e Hellobank.

La collaborazione nasce in seguito alla vittoria di Artefact di un’apposita gara, ed ha come focus l’analisi, l’ottimizzazione e il mantenimento degli strumenti di Analytics e della DMP al fine di perfezionare le attività di data collection e la conoscenza dei trend di navigazione e interazione degli utenti con i touch point digitali dei domini BNL.it e Hellobank.it.

In particolare sono tre i principali ambiti della consulenza Artefact nel progetto Analytics di BNL:

●      Data collection e Data Analysis: definiti i business goals e KPI per ciascuna property online e in-app e condotta una prima fase di audit, Artefact supporterà BNL nell’impostare una corretta metodologia per la data collection e la data analysis. L’obiettivo è la comprensione del percorso completo di navigazione degli utenti attraverso l’impostazione di un monitoraggio user-centric e multipiattaforma delle interazioni con le risorse digitali BNL e Hellobank.

●      Ambiente di Analisi e Ottimizzazione: la corretta visualizzazione dei dati, ad esempio attraverso l’impostazione di rapporti personalizzati e la definizione di dashboard multicanale faciliterà l’analisi dei dati di traffico e consentirà a BNL di ricostruire e individuare eventuali ostacoli nel processo di conversione, validare l’efficacia dei contenuti, delle call to action e della user experience tout court.

●      Customer insight e nuove casistiche d’uso: l’analisi dei dati della DMP Hellobank.it mirerà a ottenere insights sul ciclo di vita dell’utente e a creare e lanciare nuovi casi d’uso in grado di generare un impatto di breve o lungo termine sugli obiettivi di business e gli investimenti media.

«Siamo molto soddisfatti della nuova collaborazione con BNL – commenta Debora Casalaspro, Country Manager Artefact Italy -. Questo progetto è il segno del buon esito del lavoro condotto dal nostro gruppo nel porre l’analisi dei dati al centro dell’offerta di consulenza strategica nel campo del marketing digitale. In qualità di partner, il nostro focus è incentrato sugli obiettivi di business di BNL che con noi condivide l’approccio ai Data Analytics come fattore abilitante per le proprie strategie digitali».

«Abbiamo scelto Artefact per continuare a crescere sul mondo digitale rinnovando gli stimoli ed il confronto con un partner di eccellenza – aggiunge Matteo Coppari, Head of Digital Marketing and Sales BNL -. Siamo rimasti molto colpiti dalla loro proposta, organizzazione ed esperienza maturata presso multinazionali complesse come la nostra realtà».

Le soluzioni di Datorama entrano a far parte di Salesforce Marketing Cloud

Si delinea il futuro di Datorama, società specializzata in analytics e gestione dei dati multipiattaforma, dopo la sua acquisizione da parte di Salesforce.

In occasione del DMEXCO di Colonia, infatti, Salesforce ha annunciato che le soluzioni della società entreranno a far parte di Salesforce Marketing Cloud.

Datorama consente di riunire tutti i dati di marketing provenienti da diversi canali, campagne e aree geografiche per ricevere insight e intervenire sulle attività in corso, dando la possibilità sia ad aziende che ad agenzie di comprendere al meglio l’efficacia dei loro investimenti di marketing e ottimizzarli in tempo reale.

In particolare, Datorama offre una vasta libreria di API marketing e connettori basati sull’Intelligenza Artificiale chiamati TotalConnect e LiteConnect che interpretano e classificano automaticamente i dati di marketing, nonché altri tipi di dati relativi a vendite, meteo, informazioni di tipo economico o provenienti dai sondaggi. Insieme, le due soluzioni acquisiscono istantaneamente tutti i dati delle campagne provenienti da qualsiasi fonte, tra cui Salesforce Marketing Cloud, Google Analytics e molte altre piattaforme per l’interpretazione dei risultati organici e a pagamento, insigth social e altri dati sulle pubblicità video, display, televisive e offline. Datorama è quindi in grado di elaborare approfondimenti sulle diverse campagne di marketing in un’unica dashboard visiva, evidenziando in modo chiaro quali campagne stanno funzionando e quali no. I marketer e le agenzie possono personalizzare la dashboard a seconda dei KPI e dei segmenti di pubblico interessati, applicando suggerimenti generati da Intelligenza Artificiale e alert per indicare eventuali criticità.

Attualmente – spiega la società in una nota – Datorama viene fornito come prodotto separato, ma in futuro “sarà integrato direttamente in Marketing Cloud, fungendo come unica fonte per la comprensione e l’analisi delle performance di marketing dei nostri clienti”. Successivamente, Datorama potrà connettersi anche con altre tipologie di dati nativi all’interno della piattaforma Customer Success di Salesforce, inclusi i dati CRM di prima parte e altro ancora.

Salesforce si rafforza nella gestione dei dati: acquisita la società di intelligence Datorama

A conferma che la gestione dei dati in ambiente multipiattaforma è un business interessante e proficuo per le aziende, Salesforce ha ufficializzato oggi di aver potenziato la propria offerta nel settore grazie all’acquisizione della società specializzata Datorama.

L’operazione, la cui chiusura è attesa per il terzo trimestre dell’anno fiscale 2019 di Salesforce (che terminerà il 31 ottobre 2018), secondo indiscrezioni sarebbe costata al colosso cloud 800 milioni di dollari.

Una cifra importante per Datorama, nata nel 2012 e che oggi offre strumenti di intelligence per la gestione dei dati multipiattaforma. In particolare, la società fornisce soluzioni cloud di marketing intelligence e una piattaforma di analytics per aziende, agenzie ed editori, grazie a cui le imprese possono mettere a fattor comune i dati raccolti da più fonti e canali e attivarli per la realizzazione e l’ottimizzazione delle attività di marketing. Tra i suoi clienti ci sono PepsiCo, Ticketmaster, Trivago, Unilever, Pernod Ricard e Foursquare.

datorama

“L’acquisizione di Datorama migliorerà la potenza della Marketing Cloud di Salesforce grazie all’integrazione di dati, strumenti di intelligence e analisi, consentendo agli operatori di marketing di ottenere informazioni dettagliate dai dati di Salesforce e dalle tante tecnologie usate oggi per il marketing e l’engagement dell’utente. Con una visione unificata di dati e informazioni, le aziende potranno prendere devisioni più consapevoli lungo l’intero customer journey e ottimizzare l’engagement in maniera scalabile”, spiega Ran Sarig,
CEO e Co-Founder di Datorama, in un blog post.

Datorama è presente anche in Italia dall’inizio di quest’anno. In questa intervista, la Country Manager Stefania Balsamo ci ha spiegato il posizionamento della società e i suoi obiettivi nel nostro Paese.

Perché negli anni le agenzie hanno ridotto il numero di DSP con cui lavorano?

Oggi nella nostra rassegna parliamo di DSP, Cannes e della partnership tra Salesforce e Google Analytics 360.

Perché negli anni le agenzie hanno ridotto il numero di DSP con cui lavorano?

Con l’acquisizione di sempre più competenze in ambito programmatico, le agenzie media col tempo hanno progressivamente ridotto il numero di DSP con cui lavorano. Secondo una recente ricerca, la quantità di piattaforme di acquisto con cui un’agenzia lavora si è ridotto del 40% nel corso degli scorsi due anni. Ma quali sono effettivamente i motivi, al di là dell’internalizzazione di certe competenze? Sicuramente un consolidamento del mercato, ma anche il bisogno di una maggiore efficienza, sia a livello di processi che di costi. Leggi di più su AdExchanger.

A Cannes quest’anno meno società ad tech

Nel mercato programmatico si parla da tempo di un progressivo consolidamento degli operatori. E questo concetto sembrerebbe aver trovato conferma quest’anno al Festival della Creatività Internazionale di Cannes. Rispetto all’anno scorso, quando una ventina di società ad tech dominavano il porto del festival, quest’anno il gruppo si è ridotto a quasi la metà di tutti i 18 yacht ormeggiati. In compenso, si sono aggiunte alla flotta le società di consulenza: Accenture, che proprio ultimamente ha lanciato il suo nuovo braccio programmatico, e PwC. Tra i temi più ricorrenti a bordo, il GDPR, da meno di un mese definitivamente entrato in vigore. Leggi di più su Digiday.

Cosa significa per le aziende l’accordo tra Salesforce e Google Analytics 360

Negli scorsi giorni Salesforce ha annunciato una partnership con Google, grazie alla quale le aziende potranno attivare dati dal software Analytics 360 attraverso la Salesforce Marketing Cloud. Ma cosa significa effettivamente questo per i marketer? Salesforce precedentemente non aveva un’offerta di web analytics, dunque ha optato per una “fornitura” esterna, appunto con Big G e il suo software Analytics 360. Adesso per esempio, un’azienda di beni di consumo potrà visualizzare sulla dashboard Marketing Cloud delle metriche importate da Analytics 360, creare delle audience aggregate e anonime, per esempio, di tutti gli utenti che hanno visualizzato spesso un prodotto ma non lo hanno acquistato, e attivarle con campagne di retargeting tramite la Marketing Cloud in pochi click. Leggi di più su AdAge.

Google Chrome, rimandato il blocco degli spot in autoplay con audio acceso

Mentre il mercato dei podcast cresce, Google Chrome e Facebook annunciano delle novità. Ne parliamo nella nostra rassegna di oggi.

Google Chrome, rimandato a ottobre il blocco degli spot in autoplay con audio acceso

Google Chrome fa una parziale marcia indietro sul blocco degli spot in autoplay. Qualche tempo fa, Big G aveva annunciato che la nuova versione del suo browser avrebbe previsto il blocco automatico degli annunci video in auto-play e con audio attivato. La mossa, però, aveva creato non pochi problemi agli sviluppatori di app e giochi, un gran numero dei quali aveva riscontrato problemi nel funzionamento dei propri software. Il blocco, pensato per gli spot che partivano automaticamente all’apertura di una pagina web, fermava infatti anche notifiche audio e altro genere di avvisi delle app. Da qui la decisione di Google di prendere tempo, e rimandare l’attivazione del filtro a ottobre con l’uscita del nuovo Chrome 70. Leggi di più su MediaPost.

Facebook espande le sue opzioni di analytics

Facebook ha annunciato un’espansione delle sue opzioni di reportistica. Gli inserzionisti avranno ora accesso a una versione aggiornata della piattaforma Ads Reporting che include una nuova funzione drag-and-drop per la personalizzazione delle misurazioni intorno alle metriche che essi reputano centrali. Sarà possibile valutare quali caratteristiche creative di un annuncio, come testo, slogan, immagine, call to action o altro, hanno performato meglio. Il lancio della piattaforma avverrà nel corso del prossimo mese. Leggi di più su Marketing Land

Podcast, un mercato che cresce

Il mercato dei podcast gode di ottima salute, e sta attirando sempre più a sè l’attenzione delle grandi piattaforme audio. Secondo uno studio di Edison Research, negli USA il 26% delle persone ascolta podcast ogni mese, e IAB US prevede che gli investimenti pubblicitari su questo canale cresceranno dell’85% quest’anno, arrivando a 220 milioni di dollari. Tuttavia, gli sviluppi tecnologici – sia da un punto di vista “editoriale” che pubblicitario – sono ancora lenti: per molti utenti è difficile trovare nuovi contenuti da ascoltare, e da un punto di vista adv mancano ancora strumenti per misurazioni approfondite, oltre alla possibilità di acquistare spazi in programmatic tramite aste. Leggi di più su AdExchanger.

La svizzera Bally sceglie intarget: per le strategie di data analysis

Bally conferma e amplia la sua fiducia a intarget:. La digital company è stata scelta dall’azienda svizzera di moda specializzata nella produzione e vendita di scarpe, borse, capi di abbigliamento e accessori in tutto il mondo, per sviluppare un progetto di data strategy, analytics & intelligence per le sue property digitali.

Azienda e agenzia non sono nuove l’una all’altra. La loro collaborazione nasce nel 2017 per l’analisi e la revisione dei tracciamenti online, ed è stata quest’anno riconfermata e ampliata anche all’implementazione e al settaggio della piattaforma Google Analytics 360.

«Contraddistinto da una metodologia data-driven, l’approccio di intarget: permette a clienti come Bally di migliorare e evolvere le proprie capacità di analisi al fine di conoscere il comportamento degli utenti, dalla fase di acquisizione degli stessi fino alla navigazione sulle digital property dell’azienda – afferma Andrea Marcante, head of data analysis di intarget: –. In questo modo, siamo in grado di sviluppare solide strategie di marketing in grado di coprire l’intero customer journey della marca e apportare un reale valore aggiunto al cliente».

Oltre alla valutazione dei tracciamenti, il loro mantenimento e il supporto continuo mediante attività di audit, il progetto con Bally prevede anche una continua ottimizzazione in relazione agli obiettivi e alle attività sull’ecommerce del brand.

Dati, tecnologia e scalabilità: l’offerta ad tech di Samsung

Oggi nella nostra rassegna parliamo di Samsung, della targettizzazione su Advanced TV e delle priorità del mercato B2B.

Dati, tecnologia e scalabilità: l’offerta ad tech di Samsung

Samsung è nota per i suoi dispositivi, ma in questi ultimi anni ha anche messo a punto un’articolata offerta di strumenti pubblicitari che non ha niente da invidiare agli operatori dell’ad tech. Nel 2016 ha silenziosamente acquisito una DSP canadese e oggi possiede una piattaforma audience-based capace di raggiungere gli utenti tra smart TV e dispositivi mobili, nutrita dai dati televisivi proprietari della società. Dati che possono essere utilizzati esclusivamente per campagne “Samsung Ads” e non cedibili all’esterno, e che insieme alle tecnologie proprietarie e alla scalabilità di 30 milioni di smart TV rendono l’offerta dell’azienda estremamente interessante per gli inserzionisti. Leggi di più su AdExchanger.

Targettizzazione su Advanced TV, mancano standard

Le agenzie media e i network televisivi sono d’accordo sull’effettivo valore del targeting nella tv avanzata, ma il percorso verso una sua completa implementazione oggi risente della mancanza di standard sul fronte dati. E proprio considerato l’ammontare di tempo e risorse necessario ad aziende e agenzie per risolvere queste questioni di standardizzazione e fare chiarezza tra le offerte esistenti, il progresso sul mezzo sarà molto graduale. Leggi di più su eMarketer.

Dati e analytics sono una priorità per il B2B, ma il settore è ancora sfidante

Le principali priorità per i responsabili marketing e vendite del mondo B2B nei prossimi anni sarà l’aumento dell’uso di dati e analytics per raggiungere gli obiettivi di business. E’ la conclusione a cui è giunta una ricerca che ha coinvolto 500 manager tra Europa e Nord America, effettivamente confermando che le aziende comprendono il valore dei dati. Tuttavia non mancano sfide in tal senso, e per questo risulta ancora difficile per gran parte delle imprese estrarre informazioni attivabili dai dati per costruire strategie di engagement efficaci e scalabili. Leggi di più su Warc.