Main partner:

Jobs

Salesforce si arricchisce su dati e analytics: acquisita Tableau per 15,7 miliardi di dollari

Salesforce ha annunciato di avere raggiunto un accordo per l’acquisizione della piattaforma di dati e analytics Tableau.

L’operazione, del valore di 15,7 miliardi di dollari che saranno conferiti interamente in azioni, costituisce un nuovo passo avanti sul fronte dati per la società di CRM, a pochissimi giorno da un’altra – simile – acquisizione effettuata da Google per 2,6 miliardi.

Ma cos’è Tableau? Si tratta di una piattaforma di analytics self-service utilizzata da oltre 86 mila società nel mondo, tra cui Verizon e Netflix. Alla base della sua grande popolarità, un’offerta di strumenti particolarmente intuitivi, che consentono anche a professionisti con poca familiarità con il linguaggio degli analytics di leggere e comprendere efficacemente i dati.

Tableau contribuirà ad ampliare le capacità di analytics di Salesforce ed a rafforzare l’offerta della sua piattaforma Customer 360, con nuovi strumenti adatti alle esigenze di vari dipartimenti d’azienda. Altro vantaggio sarà la messa a fattor comune delle community di professionisti del dato che fanno capo alle due compagnie: gli 1,4 milioni di Trailblazers di Salesforce e gli oltre 1 milione di “data enthusiasts” di Tableau.

“Come parte di Salesforce – spiega la società in una nota -, Tableau sarà nella posizione di essere ancora più scalabile e poter sviluppare la sua missione di aiutare le persone a visualizzare e capire i dati. Dopo la chiusura dell’acquisizione, Tableau opererà indipendentemente [da Salesforce] sotto il brand Tableau, continuando a focalizzarsi sulla sua missione, sui suoi clienti e sulla sua community”. La società continuerà ad essere basata a Seattle – i suoi uffici diventeranno il secondo quartier generale di Salesforce, secondo quanto dichiarato dal CEO della società Marc Benioff – e ad essere guidata dal CEO Adam Selipsky e della sua attuale classe dirigente.

L’accordo dovrebbe chiudersi il 31 ottobre.

Su LinkedIn si potrà misurare la pubblicità video con Moat Analytics

LinkedIn ha annunciato la disponibilità, sulla sua piattaforma, delle misurazioni delle campagne video attraverso Moat Analytics.

La soluzione, di proprietà di Oracle Data Cloud, consentirà agli inserzionisti del social di “misurare coerentemente le metriche di viewability delle loro campagne pubblicitarie su molteplici piattaforme – spiega LinkedIn in un blog post -. Utilizzando l’integrazione con Moat Analytics, gli inserzionisti di LinedIn potranno validare l’accuratezza delle loro metriche e confrontare i risultati delle campagne video sulle varie piattaforme in un unico luogo e flusso di lavoro”.

L’integrazione offrirà la possibilità di misurare le metriche di viewability degli annunci ed anche di verificare la qualità del traffico.

Sempre a proposito di misurazioni, LinkedIn ha recentemente reso disponibili nuove metriche “di attenzione”, che tengono in conto segnali come la capacità degli annunci di essere sentiti (audibility). “Con una migliore comprensione delle metriche di visibilità e udibilità che le vostre campagne producono, sarete capaci di determinare in maniera più approfondita quali messaggi catturano meglio il vostro pubblico”, spiega il social.

L’integrazione di Moat Analytics e LinkedIn è già disponibile sui clienti di entrambe le società.

FabricaLab si rafforza su dati e analytics con l’acquisizione di BI Network

FabricaLab, azienda specializzata nella progettazione ed implementazione di soluzioni di Business Intelligence, Big Data, Data Integration Tools, Product Lifecycle Management, Corporate Performance Management e Identity and Access Management, ha annunciato l’acquisizione della maggioranza delle quote di capitale di BI Network Srl, struttura attiva nell’ambito del Data Discovery, Data Management, Data Visualization, Analytics, Big Data e Reporting.

Un’acquisizione molto importante per FabricaLab, che si inserisce nel piano di crescita annunciato lo scorso dicembre. «Abbiamo trovato in BI Network un’azienda sinergica con la nostra offerta in ambito Business Intelligence – dichiara Giulio Meghini, CEO di FabricaLab – portando un bagaglio importante per quanto riguarda l’expertise sulle principali piattaforme di Analytics. BI Network ha inoltre sviluppato dei prodotti interessanti e di successo (BIreport, BImail e BIplay) che aumenteranno la nostra offerta commerciale e saranno integrati con la nostra piattaforma di CPM PCube arricchendo in maniera considerevole le funzionalità del prodotto già molto apprezzato dal mercato».

Grazie a questa acquisizione, FabricaLab diventa un gruppo di più di 100 persone con oltre 120 clienti in tutti i settori di cui l’80% di fascia enterprise, 7 milioni di euro di fatturato, 5 reseller in Italia e 30 all’estero. «Inoltre – aggiunge Meghini – aumenterà la presenza sul territorio di Milano con la nuova filiale operativa che ci consentirà di essere sempre più vicini ai nostri clienti».

«In FabricaLab – aggiunge Antonio Massari, CEO di BI Network – abbiamo trovato il partner ideale che ci permetterà di continuare la nostra crescita nell’ambiente competitivo del settore Analytics. La nostra strategia comune è quella di proseguire nello sviluppo dei prodotti BIreport, BImail e BIplay facendo leva sull’esperienza dei nuovi colleghi di FabricaLab».

«BI Network ha appena chiuso il 2018 con il suo migliore anno di fatturato con quasi 1 milione di euro – prosegue Massari -; questo non ci ha fermato ed abbiamo voluto sposare il progetto FabricaLab per cercare di rispondere in modo sempre più puntuale alle necessità dei nostri clienti. Siamo molto soddisfatti anche per il nostro team perché intravediamo un’opportunità di crescita interessante all’interno del gruppo».

Nielsen lancia una divisione dedicata alla pubblicità su Video Addressable

Protagonisti oggi della nostra rassegna sulle ultime novità ad tech internazionali, sono Nielsen, DoubleVerify e IAB Europe.

Nielsen lancia una divisione dedicata alla pubblicità su Video Addressable

Una settimana dopo l’acquisto del venditore di media addressable Sorenson Media per 11,25 milioni di dollari, Nielsen ha ufficialmente annunciato l’apertura di una nuova unit: il Nielsen Advanced Video Advertising Group. Una mossa che testimonia la volontà della società di misurazioni di rafforzare la propria posizione in un canale pubblicitario in grande ascesa, quello del Video Addressable. La divisione comprenderà, oltre a Sorenson Media, Gracenote, proprietaria di una tecnologia per l’inserimento di pubblicità dinamica nelle smart tv, e Qterics, sviluppatrice di una soluzione per la gestione della privacy. Leggi di più su AdExchanger.

DoubleVerify si rafforza negli analytics della pubblicità video con un’acquisizione

DoubleVerify ha acquisito Zentrik, società di tecnologie per i video. L’acquisizione, che si è chiusa il 15 febbraio, contribuirà alla creazione di un tag per il blocco di video e la misurazione, volto a proteggere i brand e misurare la qualità degli spazi su desktop, mobile app e piattaforme video OTT. In particolare, il tag sarà rivolto ad individuare e risolvere il problema del cosiddetto “breakage”, ossia l’impossibilità per un annuncio di essere erogato a causa di problemi tecnici, e delle latenze che ritardano la visualizzazione dello spot. Leggi di più su MediaPost.

Attivisti della privacy puntano il dito sull’approccio di IAB Europe al GDPR

Un gruppo di attivisti della privacy ha puntato il dito contro IAB Europe, accusando i suoi standard di non essere conformi al GDPR. Ad essere posto sotto accusa, in particolare, sarebbe il protocollo OpenRTB. Secondo le associazioni di attivisti, nelle transazioni pubblicitarie in RTB gli utenti attualmente non possono venire informati sull’utilizzo dei loro dati personali, e IAB ne sarebbe a conoscenza. Dal canto suo, IAB ha negato le accuse, dicendo che sono “non solo false ma anche intenzionalmente dannose”. Leggi di più su The Drum.

Il GDPR ha avuto un impatto sulle attività di Big Data Analytics?

Il GDPR ha avuto un impatto sulle iniziative di Big Data Analytics, in termini di azioni intraprese dalle aziende e di implicazioni sui progetti? Secondo gli ultimi dati dell’Osservatorio Big Data Analytics & Business Intelligence del PoliMi, sì, soprattutto con azioni sulle policy interne, sia di accesso ai dati (62%) sia di conservazione (55%).

Il 43% delle grandi aziende coinvolte nello studio ha ammesso infatti di aver inserito delle voci relative agli Analytics nelle nuove informative sulla privacy rivolte ai clienti, mentre il 24% ha investito in tecnologie specifiche.

Meno di una grande azienda su tre (30%) dichiara che l’avvento del GDPR ha rallentato i progetti di Analytics in corso e soltanto l’1% ha dovuto bloccare delle iniziative a causa della nuova normativa. Per circa un’azienda su cinque (il 22%) il GDPR ha avuto un impatto positivo, soprattutto perché ha aumentato la consapevolezza sulle potenzialità degli Analytics (17%) e poi perché la presenza di un chiaro quadro normativo ha permesso di pianificare nuove iniziative nel medio-lungo periodo (5%). Per il 38% delle grandi aziende il GDPR non ha avuto nessuna conseguenza in ambito analisi dati: un segnale positivo, perché indica che queste aziende erano già preparate per adattarsi al cambiamento normativo. Infine, il 9% delle grandi organizzazioni non sa come valutare l’impatto del fenomeno.

La ricerca dell’Osservatorio ha inoltre evidenziato che le organizzazioni con una struttura dedicata alla Data Governance si sono dimostrate più preparate ad affrontare il tema: tre aziende su quattro hanno modificato le proprie informative sulla privacy con voci relative agli Analytics e più della metà delle aziende ha acquistato soluzioni tecnologiche specifiche.

Big Data Analytics, cresce il mercato in Italia: +26% nel 2018, a 1,3 miliardi di euro

Il mercato italiano dei Big Data Analytics continua a crescere nel 2018, raggiungendo un valore complessivo di 1,393 miliardi di euro, in crescita del 26% rispetto all’anno precedente. Lo rivelano i nuovi dati dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano.

Un risultato che conferma il trend positivo degli ultimi tre anni, in cui il settore è cresciuto in media del 21% ogni dodici mesi, anche se rimane molto ampio il divario fra le grandi imprese, che si dividono l’88% della spesa complessiva, e le Pmi, che rappresentano il 12% del mercato.

Il 45% della spesa in Analytics è dedicata ai software (database e strumenti per acquisire, elaborare, visualizzare e analizzare i dati, applicativi per specifici processi aziendali), il 34% ai servizi (personalizzazione dei software, integrazione con i sistemi informativi aziendali, consulenza di riprogettazione dei processi) e il 21% alle risorse infrastrutturali (capacità di calcolo, server e storage da impiegare nella creazione di servizi di Analytics). I software sono anche l’ambito con la crescita più elevata (+37%), seguito dai servizi (+23%) e risorse infrastrutturali (+9%). Tra i comparti merceologici, invece, i primi per quota di mercato sono le banche (28% della spesa), manifatturiero (25%) e telco – media (14%), seguiti da servizi (8%), GDO/Retail (7%), assicurazioni (6%), utility (6%) e PA e sanità (6%).

L’evoluzione del mercato dei Big Data Analytics, tuttavia, va ben oltre i numeri. Cambiano le metodologie di analisi, con l’avvento dirompente di tecniche di Machine Learning e Deep Learning, per le quali circa un terzo delle grandi imprese ha già acquisito le competenze necessarie, e dell’analisi di dati in tempo reale, già sfruttata dall’11%. Cresce l’esigenza di competenze di data science: il 46% delle grandi imprese ha già inserito figure di Data Scientist in organico, il 42% Data Engineer, il 56% Data Analyst. Nonostante una crescita del numero di imprese con un modello di governance della Data Science maturo (dal 17% al 31%), però, più della metà (55%) presenta un modello organizzativoancora tradizionale.

«Il mercato dei Big Data Analytics continua a crescere a ritmi serrati, superiori al 25% – afferma Carlo Vercellis, Responsabile scientifico dell’Osservatorio Big Data Analytics & Business Intelligence -. Crescono iniziative “fast data”, in cui l’analisi dei dati avviene in tempo reale, integrando diverse fonti informative in streaming e valorizzando in particolare le potenzialità della Internet of Things: tra queste ricordiamo real- time advertising, fraud detection, predictive maintenance, new product development. Ma per coglierne appieno i benefici, è necessario che i Big Data vengano analizzati secondo modalità smart, mediante sofisticati algoritmi di machine learning in grado di identificare pattern e correlazioni presenti nei dati e di trasformare questa conoscenza in azioni concrete che permettano alle imprese di acquisire vantaggio competitivo».

«Le dinamiche di crescita del mercato sono diverse a seconda delle dimensioni aziendali – afferma Alessandro Piva, Responsabile della ricerca dell’Osservatorio Big Data Analytics & Business Intelligence -. Mentre le PMI inseguono a fatica, tra le grandi aziende si è diffusa la convinzione che sia giunto il momento dell’azione: le imprese che hanno già avviato progetti ne stanno raccogliendo i benefici e sono spinte a continuare a investire, quelle rimaste indietro percepiscono l’urgenza di attrezzarsi. Parallelamente crescono le organizzazioni che hanno inserito professionalità qualificate per la gestione degli analytics, come data scientist, data engineer, data architect data analyst, e introdotto modelli organizzativi per sfruttarne al meglio le opportunità, uniformando scelte tecnologiche e dando vita meccanismi di coordinamento strutturati».

Le grandi aziende

La totalità delle grandi organizzazioni adotta Analytics di tipo descrittivo, ma molte stanno sperimentando un’evoluzione verso logiche di predictive, prescriptive e, in alcuni casi, automated Analytics. L’evoluzione passa attraverso tecniche di Machine Learning e Deep Learning, che abilitano nuove tipologie di analisi, e di Real-time Analytics. Il 62% delle grandi aziende dichiara di avere necessità di competenze specifiche di Machine Learning e Deep Learning: tra queste, poco più di un terzo le ha già introdotte in organico e un ulteriore 30% prevede di farlo nei prossimi due anni. Poco più di un’azienda su dieci (11%) invece sfrutta oggi modalità di analisi in Real-Time o in Streaming, in cui vi è un flusso continuo di raccolta dei dati che devono essere analizzati con continuità. Un ulteriore 33% possiede un’infrastruttura che consente analisi in Near Real-Time, con una frequenza d’aggiornamento che scende a meno di un’ora. Il 56% delle organizzazioni analizza i dati in modalità batch, con un aggiornamento del sistema a intervalli regolari e predefiniti (solitamente giornalieri).

Nonostante siano diminuite complessità e incertezze nel percorso di adozione di progetti di Analytics, rimangono alcuni ostacoli da superare. Le difficoltà maggiori riguardano la mancanza di competenze e figure organizzative interne (53%), l’integrazione dei dati (45%) e la stima dei benefici dell’investimento (34%).

Le PMI

Soltanto il 7% delle Pmi nel 2018 ha avviato progetti di Big Data Analytics, mentre quattro su dieci dichiarano di svolgere analisi tradizionali sui dati aziendali. Se si guarda alla consapevolezza e alla maturità tecnologica delle piccole e medie imprese, dalla ricerca emerge come il 10% continui ad avere una comprensione scarsa o nulla di quali vantaggi i Big Data potrebbero apportare e di come abbia un approccio all’analisi dei dati limitato e tradizionale. Poco meno di un terzo delle aziende, il 31%, è invece sulla buona strada sia dal lato della consapevolezza sia dal lato tecnologico. Circa quattro aziende su dieci (42%), inoltre, si sono mosse in una soltanto delle due direzioni o a causa di una visione limitata del fenomeno o a causa della mancanza di risorse per effettuare investimenti tecnologici. Una PMI su dieci, infine, si dimostra pronta per lanciare delle iniziative di Analytics.

Le startup

L’Osservatorio ha censito 443 startup operanti nel mercato dei Big Data Analytics, fondate a partire dal 2013 e finanziate dal 2016 in avanti, per un totale di 4,74 miliardi di dollari di investimenti raccolti. Quelle che complessivamente raccolgono più finanziamenti, circa 30,6 milioni di dollari ciascuna, sono in ambito Technology (l’8% del totale delle startup), che offrono strumenti per la raccolta, l’analisi l’immagazzinamento, l’organizzazione e integrazione dei dati.

Facebook lancia un cookie di prima parte per targeting e analytics

L’era del cookie di terze parti volge al termine? Forse. Dopo che alcuni importanti browser – Safari e Firefox – hanno deciso di bloccare l’attività dei “cookie esterni”, le piattaforme pubblicitarie hanno iniziato a studiare delle opzioni alternative all’utilizzo di questi strumenti per il targeting e la reportistica delle loro campagne pubblicitarie.

La prima è stata Google un anno fa, a cui è seguita Microsoft lo scorso gennaio. E adesso è la volta di un’altra big, Facebook.

Il social di Zuckerberg ha comunicato ai propri inserzionisti il rilascio di un nuovo cookie di prima parte: una soluzione per advertiser, editori e sviluppatori capace di misurare e ottimizzare gli annunci della piattaforma e catturare dati di analytics su quei browser che bloccano i cookies “terzi”.

Ecco come funziona. Quando un utente clicca su un annuncio erogato da Facebook, una stringa unica di codice si “attacca” all’url della landing page. Quando sul sito ci sono pixel autorizzati alla condivisione con Facebook di dati da cookie di prima parte, questo parametro della url verrà registrato nel browser dell’utente come “cookie di prima parte”. I pixel poi includeranno questi cookie tra le informazioni da riportare a Facebook.

Secondo Facebook, questa nuova soluzione potrà essere utilizzata per attivare un targeting continuo e per misurare le performance degli annunci e gli analytics dei siti per il traffico derivante da browser.

Gli inserzionisti potranno decidere di mantenere i cookie di terza parte, e in quel caso Facebook provvederà a fornire dei modelli capaci di stimare le conversioni da Safari. La piattaforma non ha tuttavia fornito particolari sul funzionamento di tali modelli.

Dal 5 ottobre, le aziende potranno, su Events Manager, modificare le loro preferenze, scegliendo tra cookie di prima o terza parte per i pixel di Facebook. Avranno tempo fino al 24 ottobre per scegliere di non utilizzare il nuovo cookie di prima parte; dopo quella data la soluzione verrà attivata di default, salvo per i nuovi inserzionisti che potranno scegliere in qualsiasi momento.

Artefact vince la gara BNL per i servizi di consulenza Data&Analytics

BNL ha scelto Artefact come nuova agenzia per le attività Analytics relative alle property BNL e Hellobank.

La collaborazione nasce in seguito alla vittoria di Artefact di un’apposita gara, ed ha come focus l’analisi, l’ottimizzazione e il mantenimento degli strumenti di Analytics e della DMP al fine di perfezionare le attività di data collection e la conoscenza dei trend di navigazione e interazione degli utenti con i touch point digitali dei domini BNL.it e Hellobank.it.

In particolare sono tre i principali ambiti della consulenza Artefact nel progetto Analytics di BNL:

●      Data collection e Data Analysis: definiti i business goals e KPI per ciascuna property online e in-app e condotta una prima fase di audit, Artefact supporterà BNL nell’impostare una corretta metodologia per la data collection e la data analysis. L’obiettivo è la comprensione del percorso completo di navigazione degli utenti attraverso l’impostazione di un monitoraggio user-centric e multipiattaforma delle interazioni con le risorse digitali BNL e Hellobank.

●      Ambiente di Analisi e Ottimizzazione: la corretta visualizzazione dei dati, ad esempio attraverso l’impostazione di rapporti personalizzati e la definizione di dashboard multicanale faciliterà l’analisi dei dati di traffico e consentirà a BNL di ricostruire e individuare eventuali ostacoli nel processo di conversione, validare l’efficacia dei contenuti, delle call to action e della user experience tout court.

●      Customer insight e nuove casistiche d’uso: l’analisi dei dati della DMP Hellobank.it mirerà a ottenere insights sul ciclo di vita dell’utente e a creare e lanciare nuovi casi d’uso in grado di generare un impatto di breve o lungo termine sugli obiettivi di business e gli investimenti media.

«Siamo molto soddisfatti della nuova collaborazione con BNL – commenta Debora Casalaspro, Country Manager Artefact Italy -. Questo progetto è il segno del buon esito del lavoro condotto dal nostro gruppo nel porre l’analisi dei dati al centro dell’offerta di consulenza strategica nel campo del marketing digitale. In qualità di partner, il nostro focus è incentrato sugli obiettivi di business di BNL che con noi condivide l’approccio ai Data Analytics come fattore abilitante per le proprie strategie digitali».

«Abbiamo scelto Artefact per continuare a crescere sul mondo digitale rinnovando gli stimoli ed il confronto con un partner di eccellenza – aggiunge Matteo Coppari, Head of Digital Marketing and Sales BNL -. Siamo rimasti molto colpiti dalla loro proposta, organizzazione ed esperienza maturata presso multinazionali complesse come la nostra realtà».

Le soluzioni di Datorama entrano a far parte di Salesforce Marketing Cloud

Si delinea il futuro di Datorama, società specializzata in analytics e gestione dei dati multipiattaforma, dopo la sua acquisizione da parte di Salesforce.

In occasione del DMEXCO di Colonia, infatti, Salesforce ha annunciato che le soluzioni della società entreranno a far parte di Salesforce Marketing Cloud.

Datorama consente di riunire tutti i dati di marketing provenienti da diversi canali, campagne e aree geografiche per ricevere insight e intervenire sulle attività in corso, dando la possibilità sia ad aziende che ad agenzie di comprendere al meglio l’efficacia dei loro investimenti di marketing e ottimizzarli in tempo reale.

In particolare, Datorama offre una vasta libreria di API marketing e connettori basati sull’Intelligenza Artificiale chiamati TotalConnect e LiteConnect che interpretano e classificano automaticamente i dati di marketing, nonché altri tipi di dati relativi a vendite, meteo, informazioni di tipo economico o provenienti dai sondaggi. Insieme, le due soluzioni acquisiscono istantaneamente tutti i dati delle campagne provenienti da qualsiasi fonte, tra cui Salesforce Marketing Cloud, Google Analytics e molte altre piattaforme per l’interpretazione dei risultati organici e a pagamento, insigth social e altri dati sulle pubblicità video, display, televisive e offline. Datorama è quindi in grado di elaborare approfondimenti sulle diverse campagne di marketing in un’unica dashboard visiva, evidenziando in modo chiaro quali campagne stanno funzionando e quali no. I marketer e le agenzie possono personalizzare la dashboard a seconda dei KPI e dei segmenti di pubblico interessati, applicando suggerimenti generati da Intelligenza Artificiale e alert per indicare eventuali criticità.

Attualmente – spiega la società in una nota – Datorama viene fornito come prodotto separato, ma in futuro “sarà integrato direttamente in Marketing Cloud, fungendo come unica fonte per la comprensione e l’analisi delle performance di marketing dei nostri clienti”. Successivamente, Datorama potrà connettersi anche con altre tipologie di dati nativi all’interno della piattaforma Customer Success di Salesforce, inclusi i dati CRM di prima parte e altro ancora.

Salesforce si rafforza nella gestione dei dati: acquisita la società di intelligence Datorama

A conferma che la gestione dei dati in ambiente multipiattaforma è un business interessante e proficuo per le aziende, Salesforce ha ufficializzato oggi di aver potenziato la propria offerta nel settore grazie all’acquisizione della società specializzata Datorama.

L’operazione, la cui chiusura è attesa per il terzo trimestre dell’anno fiscale 2019 di Salesforce (che terminerà il 31 ottobre 2018), secondo indiscrezioni sarebbe costata al colosso cloud 800 milioni di dollari.

Una cifra importante per Datorama, nata nel 2012 e che oggi offre strumenti di intelligence per la gestione dei dati multipiattaforma. In particolare, la società fornisce soluzioni cloud di marketing intelligence e una piattaforma di analytics per aziende, agenzie ed editori, grazie a cui le imprese possono mettere a fattor comune i dati raccolti da più fonti e canali e attivarli per la realizzazione e l’ottimizzazione delle attività di marketing. Tra i suoi clienti ci sono PepsiCo, Ticketmaster, Trivago, Unilever, Pernod Ricard e Foursquare.

datorama

“L’acquisizione di Datorama migliorerà la potenza della Marketing Cloud di Salesforce grazie all’integrazione di dati, strumenti di intelligence e analisi, consentendo agli operatori di marketing di ottenere informazioni dettagliate dai dati di Salesforce e dalle tante tecnologie usate oggi per il marketing e l’engagement dell’utente. Con una visione unificata di dati e informazioni, le aziende potranno prendere devisioni più consapevoli lungo l’intero customer journey e ottimizzare l’engagement in maniera scalabile”, spiega Ran Sarig,
CEO e Co-Founder di Datorama, in un blog post.

Datorama è presente anche in Italia dall’inizio di quest’anno. In questa intervista, la Country Manager Stefania Balsamo ci ha spiegato il posizionamento della società e i suoi obiettivi nel nostro Paese.