Main partner:

Jobs

Analytics: le principali tendenze del mercato per il 2020

Operando per raggiungere il successo nell’era digitale, le aziende devono necessariamente tenersi al passo con l’innovazione in atto nel mondo delle applicazioni analitiche (analytics) e della Business Intelligence (BI). Comprendendo i trend che stanno per travolgere il settore in continua evoluzione dell’Analytics, le organizzazioni possono acquisire una posizione competitiva più vantaggiosa nella corsa all’innovazione.

Questo è il motivo che ha spinto Tibco Software a condurre un sondaggio globale sull’innovazione nelle applicazioni analitiche, esaminando la pervasività attuale della BI e delle tecnologie analitiche e le future tendenze che le organizzazioni si propongono di abbracciare.

Analizzando le risposte ottenute da oltre 600 CXO (Chief eXperience Officer), SVP/VP (Senior Vice President/Vice President), manager e direttori, il sondaggio ha evidenziato che le tipologie di analytics e di tecnologie BI utilizzate dalle aziende variano notevolmente e dipendono in modo importante dal punto in cui si trovano queste aziende nel viaggio di trasformazione del proprio business in chiave digitale.

Quali sono le principali tecnologie utilizzate dalle aziende più innovative?

TIBCO-BI-2020

Quando le organizzazioni vogliono trasformarsi, devono cominciare a implementare una nuova serie di tecnologie. Mentre le tecnologie Cloud, BI e Analytics, insieme all’integrazione applicativa e dei dati, sono tecnologie fondamentali, come mostra il grafico, le aziende mostrano una chiara accettazione del fatto che occorre abbracciare tecnologie ancora più dirompenti (disruptive). Internet-of-Things, Intelligenza artificiale/Machine Learning (AI/ML) open source e blockchain sono citate di frequente, sottolineando come le aziende debbano essere preparate a spostare il proprio focus, abbracciando queste tecnologie più disruptive per progredire con successo al livello successivo della propria trasformazione digitale.

In quali casi d’uso di BI e applicazioni analitiche investono le organizzazioni?

TIBCO BI 2020

Indubbiamente, le tecnologie di BI e Analytics giocano un ruolo cardine per le aziende su casi d’uso differenti, offrendo insight inestimabili e significativi sulle modalità di utilizzo dei propri dati. Tuttavia, dobbiamo sottolineare la distribuzione simile dei casi d’uso, fatto piuttosto interessante: BI e Analytics sono diventate certamente tecnologie pervasive e si stanno rivelando indispensabili alla trasformazione digitale, grazie al miglioramento dei processi decisionali e all’innovazione. Ma che cosa accadrà dopo?

2020 e oltre

Il sondaggio ha evidenziato alcune tematiche comuni, offrendo forti indicatori su quali tecnologie si potrebbero rivelare essenziali nel 2020 e oltre.

Smarter Analytics: proprio come le “cose della tecnologia”, anche le applicazioni analitiche seguono la tendenza a diventare “più intelligenti” (smarter). Come già sta accadendo nell’ambito di molte tecnologie sulla cresta dell’onda, è in atto uno sforzo reale per introdurre nelle soluzioni la possibilità di effettuare query AI, ML e in Linguaggio Naturale: tutti aspetti che consentiranno di migliorare il processo decisionale.

Data Wrangling: le organizzazioni si stanno sempre più accorgendo che vi è la necessità di disputare (wrangle), modificare o spostare dati anche negli stadi finali del completamento di un progetto. Il Data Wrangling sta rapidamente diventando uno strumento essenziale per tenere i progetti in linea salvaguardando l’agilità.

Collaborazione: i gruppi di lavoro stanno crescendo e si stanno ampliando, includendo anche persone non esperte, che incoraggino e abilitino la diversità degli insight sui progetti. Senza una collaborazione efficace, non sarà possibile sfruttare appieno queste risorse.

Focalizzazione sui risultati: lo spostamento sulla focalizzazione sui risultati è vitale per qualsiasi iniziativa di successo in ambito AI o ML. Solo rendendo operative le applicazioni analitiche, spingendole nel field per l’utilizzo, gestendole e governandole, le organizzazioni potranno ottenere benefici reali.

Sposare l’innovazione nelle applicazioni analitiche

I seguenti quattro argomenti erano in cima alle priorità di chi ha risposto al sondaggio: come possono le aziende avvantaggiarsi di questa innovazione nelle analytics?

Scegliere il caso d’uso corretto: la scelta del caso d’uso rappresenta la pietra miliare del successo. Dev’essere ben definito, critico per il proprio business e coinvolgere stakeholder chiave che sponsorizzino il progetto. Trovare cosa crea danni e sistemarla.

Allineamento con gli stakeholder: troppo spesso accade che gli stakeholder vogliano qualcosa di specifico, ma il progetto viene spezzato in silos. È essenziale scegliere una piattaforma che consenta di essere iterativi e di far crescere e modificare il progetto. Bisogna prepararsi a essere iterativi e agire come un partner.

Assicurarsi di avere gli strumenti giusti: siamo entrati in una nuova era per quanto riguarda BI e applicazioni analitiche. Se non ci si tiene al passo con l’innovazione del mercato, si produce un disservizio. Se si considerano AI, ML, in-app data wrangling e streaming e non si dispone di queste funzioni all’interno della propria piattaforma, si sta perdendo una grande opportunità di fare le cose in modo differente.

Comprendere il proprio panorama dei dati: si dovrà disporre di una piattaforma che possa aiutare a comprendere il proprio data landscape, il panorama dei dati. Una piattaforma che possa raggiungere i dati e permetta di mandare le Analytics ai dati, invece che, al contrario, sempre i dati alle Analytics.

Collaborazione allargata: assicurarsi di disporre degli strumenti per una collaborazione allargata, non solo con i propri colleghi dei team tecnici, ma anche con gli stakeholder e gli sponsor del progetto. E, ovviamente, colleghi in posizioni ancora più importanti: è bene che questi abbiano visibilità su quello che si sta facendo.

Il mondo delle Analytics non si ferma mai e così è come dovrebbe essere. Con il passo sempre più accelerato dell’innovazione, le applicazioni analitiche diventano sempre più critiche per un numero sempre più elevato di casi d’uso. Non si deve restare indietro.

Adobe lancia un nuovo tool di analytics che mette insieme diverse fonti di dati

Adobe ha annunciato il lancio di un nuovo strumento di analytics, che consente ai suoi clienti di lavorare direttamente con i dati del customer jorney per migliorare le esperienze online degli utenti.

Lo strumento risponde all’esigenza di mettere insieme dati provenienti da varie fonti: il “percorso del consumatore” infatti implica il coinvolgimento di diversi punti di contatto e, di conseguenza, fonti di dati, dai bacini di insight dei brand al CRM ai punti vendita. La nuova soluzione di Adobe mette insieme tutte queste informazioni all’interno della piattaforma per l’analisi dei dati annunciata un paio di mesi fa.

In un certo senso, funzionerà come Photoshop: consentirà infatti di creare diversi “livelli” di dati offline, online e di terze parti, stratificandoli per avere una visione completa di come i consumatori interagiscono con le aziende. Queste potranno utilizzare il tool per analizzare nuovi gruppi di informazioni come quelle provenienti dai negozi, ma anche per mettere a paragone segmenti di consumatori, analizzare i loro comportamenti e scoprire percorsi particolarmente performanti.

Il prodotto sarà disponibile a partire dal prossimo mese.

Merkle (Dentsu Aegis Network) si rafforza in ambito dati e analytics con un’acquisizione

Dentsu Aegis Network continua a puntare decisamente sul mondo del martech. La holding pubblicitaria ha infatti deciso di rafforzare l’offerta in ambito dati e analytics della sua agenzia di performance marketing Merkle – a sua volta comprata nel 2016 – con una nuova, importante acquisizione.

Il gruppo ha ufficializzato di aver comprato la maggioranza della società specializzata Ugam, basata in India e con 1800 dipendenti dislocati tra varie sedi anche negli Stati Uniti e in Australia. Il player, che opera sia nel mercato B2B che in quello B2C, andrà, secondo quanto dichiarato da Dentsu Aegis Network, a rafforzare l’offerta di Merkle, rendendola più scalabile e contribuendo ad arricchire anche la piattaforma di precision marketing M1.

I termini economici dell’acquisizione non sono stati resi noti, ma la holding sostiene che si tratti di una delle più grosse transazioni della storia di Merkle (per Dentsu si tratta del quinto acquisto legato a Merkle negli ultimi 12 mesi).

Ugan verrà ribrandizzata come “Ugam, a Merkle Company”, e continuerà ad essere guidata da Sunil Mirani, co-founder e CEO della società, che riporterà a Craig Dempster, presidente di Merkle Americas.

Sky Media lancia Sky Analytics per la pianificazione e misurazione della pubblicità su tv addressable

Sky Media, il braccio pubblicitario di Sky, lancia Sky Analytics, uno strumento che consente a inserzionisti e agenzie di avere accesso diretto a pianificazioni, reportistica e stime delle loro campagne televisive addressable.

La funzione – attualmente disponibile solo in UK – si propone di facilitare l’acquisto e il monitoraggio degli acquisti su tv avanzate, e sarà accessibile tramite un portale disponibile dal 3 luglio. La soluzione sarà utilizzabile sulle piattaforme AdSmart e On Demand, ma verrà in futuro estesa anche a tutto il resto dell’offerta Sky Media.

Su AdSmart, la piattaforma di pubblicità targettizzata del broadcaster, gli inserzionisti saranno in grado di costruire e modificare il loro pubblico di riferimento utilizzando dati demografici e su stile di vita, comportamenti di acquisto e posizione, e potranno anche stabilire obiettivi e metriche di misurazione, e definire quanto spesso il pubblico vedrà i loro annunci.

Su On Demand, invece, i brand avranno accesso diretto alla reportistica sulle campagne, che tra l’altro godrà della collaborazione di Moat, società specializzata di Oracle, per una verifica indipendente delle metriche.

sky-analytics
Alcune immagini della soluzione Sky Analytics

Il prossimo step, precisa una nota internazionale di Sky Media, sarà quello – entro fine anno – di rendere disponibili per le campagne su AdSmart funzioni di pricing in tempo reale e di acquisto, e per quelle su On Demand ulteriori capacità di pianificazione.

Per Sky Media, il lancio di Analytics costituisce il primo passo di una roadmap volta a semplificare l’esecuzione e la gestione della pubblicità tv cross-piattaforma su Sky.

Salesforce si arricchisce su dati e analytics: acquisita Tableau per 15,7 miliardi di dollari

Salesforce ha annunciato di avere raggiunto un accordo per l’acquisizione della piattaforma di dati e analytics Tableau.

L’operazione, del valore di 15,7 miliardi di dollari che saranno conferiti interamente in azioni, costituisce un nuovo passo avanti sul fronte dati per la società di CRM, a pochissimi giorno da un’altra – simile – acquisizione effettuata da Google per 2,6 miliardi.

Ma cos’è Tableau? Si tratta di una piattaforma di analytics self-service utilizzata da oltre 86 mila società nel mondo, tra cui Verizon e Netflix. Alla base della sua grande popolarità, un’offerta di strumenti particolarmente intuitivi, che consentono anche a professionisti con poca familiarità con il linguaggio degli analytics di leggere e comprendere efficacemente i dati.

Tableau contribuirà ad ampliare le capacità di analytics di Salesforce ed a rafforzare l’offerta della sua piattaforma Customer 360, con nuovi strumenti adatti alle esigenze di vari dipartimenti d’azienda. Altro vantaggio sarà la messa a fattor comune delle community di professionisti del dato che fanno capo alle due compagnie: gli 1,4 milioni di Trailblazers di Salesforce e gli oltre 1 milione di “data enthusiasts” di Tableau.

“Come parte di Salesforce – spiega la società in una nota -, Tableau sarà nella posizione di essere ancora più scalabile e poter sviluppare la sua missione di aiutare le persone a visualizzare e capire i dati. Dopo la chiusura dell’acquisizione, Tableau opererà indipendentemente [da Salesforce] sotto il brand Tableau, continuando a focalizzarsi sulla sua missione, sui suoi clienti e sulla sua community”. La società continuerà ad essere basata a Seattle – i suoi uffici diventeranno il secondo quartier generale di Salesforce, secondo quanto dichiarato dal CEO della società Marc Benioff – e ad essere guidata dal CEO Adam Selipsky e della sua attuale classe dirigente.

L’accordo dovrebbe chiudersi il 31 ottobre.

Su LinkedIn si potrà misurare la pubblicità video con Moat Analytics

LinkedIn ha annunciato la disponibilità, sulla sua piattaforma, delle misurazioni delle campagne video attraverso Moat Analytics.

La soluzione, di proprietà di Oracle Data Cloud, consentirà agli inserzionisti del social di “misurare coerentemente le metriche di viewability delle loro campagne pubblicitarie su molteplici piattaforme – spiega LinkedIn in un blog post -. Utilizzando l’integrazione con Moat Analytics, gli inserzionisti di LinedIn potranno validare l’accuratezza delle loro metriche e confrontare i risultati delle campagne video sulle varie piattaforme in un unico luogo e flusso di lavoro”.

L’integrazione offrirà la possibilità di misurare le metriche di viewability degli annunci ed anche di verificare la qualità del traffico.

Sempre a proposito di misurazioni, LinkedIn ha recentemente reso disponibili nuove metriche “di attenzione”, che tengono in conto segnali come la capacità degli annunci di essere sentiti (audibility). “Con una migliore comprensione delle metriche di visibilità e udibilità che le vostre campagne producono, sarete capaci di determinare in maniera più approfondita quali messaggi catturano meglio il vostro pubblico”, spiega il social.

L’integrazione di Moat Analytics e LinkedIn è già disponibile sui clienti di entrambe le società.

FabricaLab si rafforza su dati e analytics con l’acquisizione di BI Network

FabricaLab, azienda specializzata nella progettazione ed implementazione di soluzioni di Business Intelligence, Big Data, Data Integration Tools, Product Lifecycle Management, Corporate Performance Management e Identity and Access Management, ha annunciato l’acquisizione della maggioranza delle quote di capitale di BI Network Srl, struttura attiva nell’ambito del Data Discovery, Data Management, Data Visualization, Analytics, Big Data e Reporting.

Un’acquisizione molto importante per FabricaLab, che si inserisce nel piano di crescita annunciato lo scorso dicembre. «Abbiamo trovato in BI Network un’azienda sinergica con la nostra offerta in ambito Business Intelligence – dichiara Giulio Meghini, CEO di FabricaLab – portando un bagaglio importante per quanto riguarda l’expertise sulle principali piattaforme di Analytics. BI Network ha inoltre sviluppato dei prodotti interessanti e di successo (BIreport, BImail e BIplay) che aumenteranno la nostra offerta commerciale e saranno integrati con la nostra piattaforma di CPM PCube arricchendo in maniera considerevole le funzionalità del prodotto già molto apprezzato dal mercato».

Grazie a questa acquisizione, FabricaLab diventa un gruppo di più di 100 persone con oltre 120 clienti in tutti i settori di cui l’80% di fascia enterprise, 7 milioni di euro di fatturato, 5 reseller in Italia e 30 all’estero. «Inoltre – aggiunge Meghini – aumenterà la presenza sul territorio di Milano con la nuova filiale operativa che ci consentirà di essere sempre più vicini ai nostri clienti».

«In FabricaLab – aggiunge Antonio Massari, CEO di BI Network – abbiamo trovato il partner ideale che ci permetterà di continuare la nostra crescita nell’ambiente competitivo del settore Analytics. La nostra strategia comune è quella di proseguire nello sviluppo dei prodotti BIreport, BImail e BIplay facendo leva sull’esperienza dei nuovi colleghi di FabricaLab».

«BI Network ha appena chiuso il 2018 con il suo migliore anno di fatturato con quasi 1 milione di euro – prosegue Massari -; questo non ci ha fermato ed abbiamo voluto sposare il progetto FabricaLab per cercare di rispondere in modo sempre più puntuale alle necessità dei nostri clienti. Siamo molto soddisfatti anche per il nostro team perché intravediamo un’opportunità di crescita interessante all’interno del gruppo».

Nielsen lancia una divisione dedicata alla pubblicità su Video Addressable

Protagonisti oggi della nostra rassegna sulle ultime novità ad tech internazionali, sono Nielsen, DoubleVerify e IAB Europe.

Nielsen lancia una divisione dedicata alla pubblicità su Video Addressable

Una settimana dopo l’acquisto del venditore di media addressable Sorenson Media per 11,25 milioni di dollari, Nielsen ha ufficialmente annunciato l’apertura di una nuova unit: il Nielsen Advanced Video Advertising Group. Una mossa che testimonia la volontà della società di misurazioni di rafforzare la propria posizione in un canale pubblicitario in grande ascesa, quello del Video Addressable. La divisione comprenderà, oltre a Sorenson Media, Gracenote, proprietaria di una tecnologia per l’inserimento di pubblicità dinamica nelle smart tv, e Qterics, sviluppatrice di una soluzione per la gestione della privacy. Leggi di più su AdExchanger.

DoubleVerify si rafforza negli analytics della pubblicità video con un’acquisizione

DoubleVerify ha acquisito Zentrik, società di tecnologie per i video. L’acquisizione, che si è chiusa il 15 febbraio, contribuirà alla creazione di un tag per il blocco di video e la misurazione, volto a proteggere i brand e misurare la qualità degli spazi su desktop, mobile app e piattaforme video OTT. In particolare, il tag sarà rivolto ad individuare e risolvere il problema del cosiddetto “breakage”, ossia l’impossibilità per un annuncio di essere erogato a causa di problemi tecnici, e delle latenze che ritardano la visualizzazione dello spot. Leggi di più su MediaPost.

Attivisti della privacy puntano il dito sull’approccio di IAB Europe al GDPR

Un gruppo di attivisti della privacy ha puntato il dito contro IAB Europe, accusando i suoi standard di non essere conformi al GDPR. Ad essere posto sotto accusa, in particolare, sarebbe il protocollo OpenRTB. Secondo le associazioni di attivisti, nelle transazioni pubblicitarie in RTB gli utenti attualmente non possono venire informati sull’utilizzo dei loro dati personali, e IAB ne sarebbe a conoscenza. Dal canto suo, IAB ha negato le accuse, dicendo che sono “non solo false ma anche intenzionalmente dannose”. Leggi di più su The Drum.

Il GDPR ha avuto un impatto sulle attività di Big Data Analytics?

Il GDPR ha avuto un impatto sulle iniziative di Big Data Analytics, in termini di azioni intraprese dalle aziende e di implicazioni sui progetti? Secondo gli ultimi dati dell’Osservatorio Big Data Analytics & Business Intelligence del PoliMi, sì, soprattutto con azioni sulle policy interne, sia di accesso ai dati (62%) sia di conservazione (55%).

Il 43% delle grandi aziende coinvolte nello studio ha ammesso infatti di aver inserito delle voci relative agli Analytics nelle nuove informative sulla privacy rivolte ai clienti, mentre il 24% ha investito in tecnologie specifiche.

Meno di una grande azienda su tre (30%) dichiara che l’avvento del GDPR ha rallentato i progetti di Analytics in corso e soltanto l’1% ha dovuto bloccare delle iniziative a causa della nuova normativa. Per circa un’azienda su cinque (il 22%) il GDPR ha avuto un impatto positivo, soprattutto perché ha aumentato la consapevolezza sulle potenzialità degli Analytics (17%) e poi perché la presenza di un chiaro quadro normativo ha permesso di pianificare nuove iniziative nel medio-lungo periodo (5%). Per il 38% delle grandi aziende il GDPR non ha avuto nessuna conseguenza in ambito analisi dati: un segnale positivo, perché indica che queste aziende erano già preparate per adattarsi al cambiamento normativo. Infine, il 9% delle grandi organizzazioni non sa come valutare l’impatto del fenomeno.

La ricerca dell’Osservatorio ha inoltre evidenziato che le organizzazioni con una struttura dedicata alla Data Governance si sono dimostrate più preparate ad affrontare il tema: tre aziende su quattro hanno modificato le proprie informative sulla privacy con voci relative agli Analytics e più della metà delle aziende ha acquistato soluzioni tecnologiche specifiche.

Big Data Analytics, cresce il mercato in Italia: +26% nel 2018, a 1,3 miliardi di euro

Il mercato italiano dei Big Data Analytics continua a crescere nel 2018, raggiungendo un valore complessivo di 1,393 miliardi di euro, in crescita del 26% rispetto all’anno precedente. Lo rivelano i nuovi dati dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano.

Un risultato che conferma il trend positivo degli ultimi tre anni, in cui il settore è cresciuto in media del 21% ogni dodici mesi, anche se rimane molto ampio il divario fra le grandi imprese, che si dividono l’88% della spesa complessiva, e le Pmi, che rappresentano il 12% del mercato.

Il 45% della spesa in Analytics è dedicata ai software (database e strumenti per acquisire, elaborare, visualizzare e analizzare i dati, applicativi per specifici processi aziendali), il 34% ai servizi (personalizzazione dei software, integrazione con i sistemi informativi aziendali, consulenza di riprogettazione dei processi) e il 21% alle risorse infrastrutturali (capacità di calcolo, server e storage da impiegare nella creazione di servizi di Analytics). I software sono anche l’ambito con la crescita più elevata (+37%), seguito dai servizi (+23%) e risorse infrastrutturali (+9%). Tra i comparti merceologici, invece, i primi per quota di mercato sono le banche (28% della spesa), manifatturiero (25%) e telco – media (14%), seguiti da servizi (8%), GDO/Retail (7%), assicurazioni (6%), utility (6%) e PA e sanità (6%).

L’evoluzione del mercato dei Big Data Analytics, tuttavia, va ben oltre i numeri. Cambiano le metodologie di analisi, con l’avvento dirompente di tecniche di Machine Learning e Deep Learning, per le quali circa un terzo delle grandi imprese ha già acquisito le competenze necessarie, e dell’analisi di dati in tempo reale, già sfruttata dall’11%. Cresce l’esigenza di competenze di data science: il 46% delle grandi imprese ha già inserito figure di Data Scientist in organico, il 42% Data Engineer, il 56% Data Analyst. Nonostante una crescita del numero di imprese con un modello di governance della Data Science maturo (dal 17% al 31%), però, più della metà (55%) presenta un modello organizzativoancora tradizionale.

«Il mercato dei Big Data Analytics continua a crescere a ritmi serrati, superiori al 25% – afferma Carlo Vercellis, Responsabile scientifico dell’Osservatorio Big Data Analytics & Business Intelligence -. Crescono iniziative “fast data”, in cui l’analisi dei dati avviene in tempo reale, integrando diverse fonti informative in streaming e valorizzando in particolare le potenzialità della Internet of Things: tra queste ricordiamo real- time advertising, fraud detection, predictive maintenance, new product development. Ma per coglierne appieno i benefici, è necessario che i Big Data vengano analizzati secondo modalità smart, mediante sofisticati algoritmi di machine learning in grado di identificare pattern e correlazioni presenti nei dati e di trasformare questa conoscenza in azioni concrete che permettano alle imprese di acquisire vantaggio competitivo».

«Le dinamiche di crescita del mercato sono diverse a seconda delle dimensioni aziendali – afferma Alessandro Piva, Responsabile della ricerca dell’Osservatorio Big Data Analytics & Business Intelligence -. Mentre le PMI inseguono a fatica, tra le grandi aziende si è diffusa la convinzione che sia giunto il momento dell’azione: le imprese che hanno già avviato progetti ne stanno raccogliendo i benefici e sono spinte a continuare a investire, quelle rimaste indietro percepiscono l’urgenza di attrezzarsi. Parallelamente crescono le organizzazioni che hanno inserito professionalità qualificate per la gestione degli analytics, come data scientist, data engineer, data architect data analyst, e introdotto modelli organizzativi per sfruttarne al meglio le opportunità, uniformando scelte tecnologiche e dando vita meccanismi di coordinamento strutturati».

Le grandi aziende

La totalità delle grandi organizzazioni adotta Analytics di tipo descrittivo, ma molte stanno sperimentando un’evoluzione verso logiche di predictive, prescriptive e, in alcuni casi, automated Analytics. L’evoluzione passa attraverso tecniche di Machine Learning e Deep Learning, che abilitano nuove tipologie di analisi, e di Real-time Analytics. Il 62% delle grandi aziende dichiara di avere necessità di competenze specifiche di Machine Learning e Deep Learning: tra queste, poco più di un terzo le ha già introdotte in organico e un ulteriore 30% prevede di farlo nei prossimi due anni. Poco più di un’azienda su dieci (11%) invece sfrutta oggi modalità di analisi in Real-Time o in Streaming, in cui vi è un flusso continuo di raccolta dei dati che devono essere analizzati con continuità. Un ulteriore 33% possiede un’infrastruttura che consente analisi in Near Real-Time, con una frequenza d’aggiornamento che scende a meno di un’ora. Il 56% delle organizzazioni analizza i dati in modalità batch, con un aggiornamento del sistema a intervalli regolari e predefiniti (solitamente giornalieri).

Nonostante siano diminuite complessità e incertezze nel percorso di adozione di progetti di Analytics, rimangono alcuni ostacoli da superare. Le difficoltà maggiori riguardano la mancanza di competenze e figure organizzative interne (53%), l’integrazione dei dati (45%) e la stima dei benefici dell’investimento (34%).

Le PMI

Soltanto il 7% delle Pmi nel 2018 ha avviato progetti di Big Data Analytics, mentre quattro su dieci dichiarano di svolgere analisi tradizionali sui dati aziendali. Se si guarda alla consapevolezza e alla maturità tecnologica delle piccole e medie imprese, dalla ricerca emerge come il 10% continui ad avere una comprensione scarsa o nulla di quali vantaggi i Big Data potrebbero apportare e di come abbia un approccio all’analisi dei dati limitato e tradizionale. Poco meno di un terzo delle aziende, il 31%, è invece sulla buona strada sia dal lato della consapevolezza sia dal lato tecnologico. Circa quattro aziende su dieci (42%), inoltre, si sono mosse in una soltanto delle due direzioni o a causa di una visione limitata del fenomeno o a causa della mancanza di risorse per effettuare investimenti tecnologici. Una PMI su dieci, infine, si dimostra pronta per lanciare delle iniziative di Analytics.

Le startup

L’Osservatorio ha censito 443 startup operanti nel mercato dei Big Data Analytics, fondate a partire dal 2013 e finanziate dal 2016 in avanti, per un totale di 4,74 miliardi di dollari di investimenti raccolti. Quelle che complessivamente raccolgono più finanziamenti, circa 30,6 milioni di dollari ciascuna, sono in ambito Technology (l’8% del totale delle startup), che offrono strumenti per la raccolta, l’analisi l’immagazzinamento, l’organizzazione e integrazione dei dati.