Valore per partner e clienti

Perché serve una data foundation solida per avere successo con l’AI generativa

Perché serve una data foundation solida per avere successo con l’AI generativa

Solo qualche anno fa la maggior parte delle aziende stava ancora pianificando il proprio percorso di adozione del cloud o iniziava a muovere i primi passi in questa direzione. Poi è arrivata la pandemia, che ha imposto cambiamenti radicali nel modo di lavorare e accelerato l’adozione del cloud. In quel momento era necessario adattarsi in modo efficace e al tempo stesso conveniente. Le aziende che sono riuscite rapidamente a scalare verso l’alto o il basso hanno superato la pandemia con successo. Tutto questo è stato possibile grazie alla migrazione al cloud.

Oggi, i vantaggi introdotti dall’intelligenza artificiale generativa stanno cambiando le regole del mercato, imponendo azioni altrettanto rapide e decisive. Questa volta, però, quello che serve è garantire che i dati e la piattaforma sulla quale vengono elaborati siano pronti per gestire i nuovi modelli AI. 

La strada da percorrere è ancora lunga perché il volume, la velocità e la complessità dei dati e delle tipologie dei dati sono in costante aumento. Secondo le stime, entro il 2025 saranno generati 7 petabyte di dati al giorno, un bel salto rispetto ai “soli” 2,3 petabyte generati quotidianamente nel 2021. Questo fenomeno però non riguarderà tutti i tipi di dati. Si stima che adesso la gran parte di questi dati (80%) sia di tipo non strutturato, come immagini, video e documenti, risorse da cui le aziende non riescono ancora a ricavare grande valore. 

Un grosso gap tra aspettative e realtà

In un mondo dove i dati abbondano, le organizzazioni sono consapevoli che, d’ora in avanti, la competitività dipenderà dalla disponibilità, dalla veridicità e dall’accessibilità dei dati di cui hanno bisogno. Eppure oggi, nonostante l’83% dei clienti Accenture riconosca che sarà essenziale poter contare su dati in tempo reale per avere un vantaggio competitivo nei prossimi due anni, appena il 31% sostiene di gestire i dati in modo efficace. 

Questo significa che esiste un grosso gap tra aspettative e realtà. Poiché diventa mission critical condividere i dati in modo sicuro, all’interno e all’esterno dell’azienda, è necessario saper gestire e creare pipeline di dati solide e affidabili. Oggi, però, il 55% delle aziende dice di non essere capace di tracciare il percorso dei dati dall’origine all’endpoint. Quando i dati sono sia strutturati che non strutturati e risiedono isolati in molti ambienti diversi nel cloud e on‑premise, la faccenda evidentemente si complica, ma è una sfida che va comunque risolta se si desidera rimanere competitivi.

Lo conferma anche la nostra ricerca: abbiamo scoperto che è 2,4 volte più probabile che le aziende che ottengono le prestazioni migliori stiano archiviando i loro dati in una piattaforma dati moderna e specializzata nel cloud. Quali azioni chiave contraddistinguono queste organizzazioni dalle altre? Innanzitutto l’eliminazione dei silos di dati, poi la rimozione di dati duplicati, la creazione di data product affidabili, la riduzione del costo della rilavorazione dei dati, la disponibilità di insight e casi d’uso interfunzionali più tempestivi e la maggiore adozione da parte degli utenti.

Ricavare valore dai dati proprietari

Le aziende trarranno il massimo valore da machine learning (ML) e AI generativa su larga scala quando potranno usare i dati per ricavare raccomandazioni e insight specifici, che sposteranno essenzialmente l’ago delle prestazioni. Solo allora potranno passare dall’interazione con un chatbot generico addestrato su internet alla generazione di contenuti altamente rilevanti che sfruttano informazioni aziendali aggiornate e potenzialmente riservate. 

Le aziende che hanno realmente il controllo sui loro dati possono utilizzare la tecnologia in modo più mirato ed efficace. Pensiamo, ad esempio, a un’azienda che opera nel settore life sciences e che adotta un modello addestrato in modo specifico sui dati dei propri prodotti e studi clinici per prevedere la probabilità di successo di un farmaco in modo molto più accurato, efficiente e rapido rispetto ai competitor.

Molte aziende moderne hanno attività operative, prodotti e value chain estesi che generano dati a livello globale e in modo federato. Per creare modelli discreti più mirati come quello descritto nell’esempio precedente, i team hanno bisogno di un modo per condividere e accedere ai dati archiviati su più cloud in ambienti sicuri e governati. 

La soluzione ideale è abilitare l’utilizzo dei dati dati primari più aggiornati senza doverli copiare da un posto a un altro, il tutto nel rispetto dei requisiti normativi applicabili, che continueranno a evolvere insieme all’intelligenza artificiale. 

Questo approccio può evitare costi di archiviazione dei dati elevati e non necessari e, al tempo stesso, prevenire la creazione di ulteriori silos di dati. Ma è anche il metodo imprescindibile attraverso cui applicare una governance e una sicurezza solide preservando, ad esempio, controlli di accesso ai dati granulari. In ultima analisi, l’accesso senza problemi tramite una “clean room” virtuale affidabile a data set controllati da soggetti terzi apre le porte a opportunità completamente nuove per la creazione di valore.

Priorità alla sicurezza e alla governance dei dati

Come possono le aziende agire rapidamente senza mettere a rischio la sicurezza?  Una data foundation completa che integri sicurezza e governance nel digital core non è più un’opzione, ma un must. Tale infrastruttura dati di base deve consentire a tutti i team di fidarsi dei dati utilizzati, siano essi proprietari o provenienti da altre sorgenti, incluso l’ecosistema di partner. 

Questa foundation deve controllare l’accesso ai dati in configurazioni più complesse di quelle utilizzate in passato. Tra gli elementi più interessanti della Gen AI troviamo la sua capacità di democratizzare l’accesso a insight che in precedenza erano riservati esclusivamente a specialisti dell’AI e data scientist. Tuttavia, abbassare le barriere aumenta anche i rischi e la sicurezza e la governance diventano quindi più rilevanti. 

Cosa dobbiamo aspettarci per il futuro?

Molte aziende, ma ovviamente non tutte, hanno gestito con successo la prima fase della sfida dei dati, ovvero condividere i dati strutturati all’interno dell’azienda e con soggetti terzi. La seconda fase, ovvero potersi fidare di quell’abbondanza di informazioni non strutturate che scorrono ad alta velocità, è ancora un work in progress per la maggior parte delle organizzazioni. La terza fase, che consiste nella capacità di sfruttare large language model (LLM) e modelli ML su più larga scala messi a punto o addestrati con questi dati, è ancora in fase embrionale. 

Di particolare importanza per il successo della seconda fase è l’affidabilità dei dati. Affinché ciò sia possibile occorre una piattaforma dati che possa portare tutti gli elementi necessari dell’elaborazione ai dati e che renda questi ultimi disponibili nello stesso ambito di governance. Aiutiamo i nostri clienti a centrare questo obiettivo collaborando con Snowflake. Grazie alla disponibilità di controlli a livello dei dati e nei diversi ambienti cloud, con la piattaforma Snowflake l’elaborazione avviene accanto ai dati. Questo significa che tutte le persone all’interno dell’azienda sanno che i loro modelli AI utilizzano solo dati affidabili. Senza tale certezza, c’è sempre il rischio che i modelli propongano insight non corretti.

Per quanto riguarda la terza fase, ovvero democratizzare ed estendere i vantaggi di AI e LLM leader del settore, serve un modo per permettere a tutti (non solo agli specialisti dell’AI) di utilizzare queste tecnologie all’avanguardia e di sfruttare tutti i loro dati affidabili per addestrare e sviluppare prompt per modelli LLM personalizzati e open source.

Investire in una cloud data platform

Indipendentemente dalla fase raggiunta dalla tua organizzazione o dall’obiettivo fissato, investire oggi in una piattaforma dati moderna per il tuo digital core è una strategia che non rimpiangerai. Individua le aree aziendali con il potenziale di valore più alto e investi nell’ottimizzazione della gestione e della protezione delle pipeline di dati che le alimentano. 

I nostri clienti continuano a investire in questo aspetto perché lo ritengono una priorità assoluta. ML e AI generativa sono funzionalità che si stanno rapidamente affermando come gli elementi di differenziazione cruciali per le aziende di tutti i settori. Oggi un’azienda deve necessariamente democratizzare l’accesso a queste funzionalità ed essere certa di utilizzare dati affidabili. 

Centrare questo obiettivo permetterà di mantenere il margine competitivo e di eccellere in tre aspetti chiave:

  1. Consentire ai team aziendali di utilizzare l’AI nelle analisi dei dati quotidiane in pochi secondi.
  2. Accelerare l’adozione di soluzioni innovative e permettere al personale tecnico di creare e distribuire app basate sull’AI in pochi minuti.
  3. Garantire la sicurezza e la governance di tutti i loro dati e modelli.
Share Article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Inizia la tua provagratuita di 30 giorni

Prova Snowflake gratis per 30 giorni e scopri come l’AI Data Cloud aiuta a eliminare la complessità, i costi e i vincoli tipici di altre soluzioni.