AI e ML

Requisiti di sicurezza fondamentali per integrare in modo sicuro i tuoi dati con gli LLM

Poiché le organizzazioni si stanno sempre più spostando verso l’uso di dati privati con modelli di linguaggio di grandi dimensioni (LLM), la sicurezza è fondamentale. Infatti, secondo un recente sondaggio del MIT, la maggior parte dei rispondenti (59%) ha citato la governance dei dati, la sicurezza o la privacy come preoccupazioni chiave, mentre il 48% ha evidenziato le sfide relative all’integrazione dei dati. Costruire integrazioni sicure da zero è possibile, ma richiede competenze e tempo per impostare e gestire autenticazione, crittografia, conformità e altro. Ora, immagina di fare tutto questo separatamente per ogni LLM che la tua organizzazione desidera utilizzare: la complessità operativa si moltiplica rapidamente.

In questo post, otterrai informazioni sui requisiti di sicurezza e su come Snowflake Cortex AI è costruito con questi principi in modo che gli sviluppatori possano concentrarsi sulla costruzione di applicazioni con i loro modelli di frontiera preferiti di Anthropic, OpenAI, Mistral, DeepSeek o Meta.

 

La checklist di sicurezza per l’integrazione dei dati con l’AI

Integrare i tuoi dati con un LLM richiede una considerazione attenta di diverse aree chiave di sicurezza per proteggere le informazioni sensibili. Un’autenticazione forte, inclusa l’autenticazione multifattoriale (MFA), è cruciale poiché previene l’accesso non autorizzato aggiungendo un ulteriore livello di sicurezza. Implementare controlli di accesso robusti garantisce che solo gli utenti e i servizi AI autorizzati possano interagire con i dati. Per garantire i flussi di dati, stabilire pratiche di sicurezza di rete solide, idealmente con un’architettura zero-trust, è essenziale per mantenere il controllo del set di servizi autorizzati a vedere i dati. 

Proteggere i dati a riposo e in transito attraverso la crittografia è un’altra misura vitale, che salvaguarda le informazioni sensibili da accessi non autorizzati in qualsiasi momento. Costruire capacità di monitoraggio della sicurezza e rilevamento delle anomalie consente controlli coerenti in tempo reale per potenziali minacce e fornisce tracce di audit per indagini approfondite. Per soddisfare i requisiti specifici del settore e mitigare i rischi legali, è necessario eseguire checklist di conformità e certificazione (come SOC 2, ISO 42001, HIPAA, ecc.). Applicare regolarmente patch di sicurezza e aggiornamenti delle vulnerabilità è anche cruciale per rafforzare le difese del sistema mantenendolo aggiornato. Infine, stabilire un framework di risposta rapida agli incidenti consente azioni rapide ed efficaci per contenere e risolvere eventuali rischi di sicurezza che possono sorgere, mentre i test di penetrazione continui identificano proattivamente potenziali vulnerabilità, garantendo che il sistema rimanga resiliente contro minacce in evoluzione. 

 

Come Snowflake Cortex AI semplifica la sicurezza

Cortex AI fornisce un’ampia gamma di LLM leader del settore, insieme a servizi di recupero e orchestrazione di dati strutturati e non strutturati, per costruire AI data agent. Operando direttamente all’interno del perimetro di sicurezza di Snowflake, questi servizi fanno risparmiare tempo prezioso nella configurazione e manutenzione della sicurezza. Cortex AI offre un controllo completo, consentendo agli sviluppatori di concentrarsi sullo sviluppo e ai team della piattaforma di integrare facilmente e in sicurezza più casi d’uso.  

snowflake cortex ai
Figure 1. Language and Embedding model families running in Snowflake via Cortex AI

Snowflake Cortex AI incorpora diverse misure di sicurezza chiave per proteggere i tuoi dati sfruttando le capacità LLM. Per una forte autenticazione quando si utilizza l’API REST LLM di Cortex, viene impiegata l’autenticazione a coppia di chiavi. Inoltre, Snowflake supporta l’autenticazione a più fattori (MFA) per gli utenti umani che accedono alla piattaforma, migliorando la sicurezza del login. Questi metodi di autenticazione possono essere ulteriormente rafforzati abbinandoli a politiche di rete per controllare l’origine del traffico. 

I controlli di accesso sono semplificati attraverso il sistema unificato e data-centric di controllo degli accessi basato sui ruoli (RBAC), di Snowflake gestendo l’accesso sia ai dati che alle risorse AI su larga scala. In particolare, il ruolo del database snowflake.cortex_user consente un controllo granulare su quali utenti possono accedere alle funzioni LLM. Sono disponibili liste di autorizzazione e politiche RBAC se si desidera un controllo granulare sull’accesso a modelli specifici. Per quanto riguarda la sicurezza della rete, quando si utilizza un LLM all’interno della stessa regione del tuo account Snowflake, l’LLM rimane completamente contenuto all’interno del confine sicuro di Snowflake. Il trasferimento dei dati tra i database e il servizio AI è autenticato e crittografato utilizzando un modello zero-trust. Negli scenari cross-region, dove una richiesta potrebbe essere inviata a un LLM in una diversa cloud region Snowflake – per es. l’account Snowflake è su AWS US East 1 (N. Virginia) e l’LLM Cortex AI è su Azure East US 2 (Virginia), i dati in transito sono protetti con mutual TLS 1.2 e superiori, utilizzando algoritmi conformi a FIPS.

La crittografia dei dati è implementata sia a riposo che in transito. I dati sono crittografati lato client a riposo con una chiave unica legata all’account oltre a utilizzare la crittografia lato servizio del fornitore di servizi cloud. Come accennato sopra, i dati sono anche crittografati e autenticati in transito su reti non affidabili utilizzando TLS 1.2 e superiori. Per il monitoraggio e la registrazione, il team di rilevamento delle minacce di Snowflake utilizza tecnologie proprietarie per identificare segnali di sicurezza all’interno dei log, fornendo avvisi per eventuali anomalie scoperte nei dati. Inoltre, i nostri team di supporto e ingegneria mantengono turni di reperibilità per risolvere rapidamente i problemi in caso di cali di prestazioni o altri incidenti identificati. 

In termini di conformità, gli utenti beneficiano di tutte le certificazioni di conformità esistenti di Snowflake. La gestione delle patch e gli aggiornamenti sono gestiti attraverso il sofisticato sistema di gestione delle vulnerabilità di Snowflake, che scansiona i workload di prima parte e guida gli sforzi di patching e ripristino in conformità con alcuni dei regimi di conformità più rigorosi. Per la segnalazione degli incidenti, i team dedicati alla risposta agli incidenti e al rilevamento delle minacce di Snowflake hanno un sistema robusto per gestire gli incidenti di sicurezza che include un insieme di piani preparati e scenari regolarmente provati. Infine, per i test di penetrazione continui, Snowflake completa il suo programma interno di pentesting con un programma di bug bounty aperto attraverso HackerOne, identificando proattivamente potenziali vulnerabilità per mantenere un sistema resiliente contro minacce in evoluzione. 

 

Riepilogo

Integrare LLM e altri servizi AI in modo sicuro può essere complicato e richiede una configurazione estesa. Farlo da soli significa gestire flussi di lavoro complessi che possono sottrarre tempo allo sviluppo o alla scalabilità del deployment dei casi d’uso, con il rischio aggiuntivo di configurazioni e controlli non uniformi che potrebbero essere sfruttati da attori malintenzionati. 

Snowflake Cortex AI offre accesso sicuro a più LLM all’avanguardia. Oggi non esiste un singolo fornitore di servizi cloud in grado di farlo. Devi solo configurare l’autenticazione degli utenti e il controllo degli accessi a questi modelli come faresti per qualsiasi altro prodotto Snowflake. Dietro le quinte, la sicurezza della rete, la crittografia dei dati, il monitoraggio e la registrazione, la conformità, la gestione delle patch e così via sono gestiti automaticamente per te dalla Snowflake Secure Platform. Questo servizio LLM sicuro ti consente di concentrarti sull’innovazione piuttosto che sulla gestione della sicurezza complessa ma estremamente importante.

 

Scopri di più

Guida pratica all’Agentic AI

Generare ROI con l’Agentic AI: concetti chiave, casi d’uso e considerazioni

DeepSeek-R1 ora in preview su Snowflake Cortex AI

DeepSeek-R1 su Snowflake Cortex AI: un modello open source performante e ottimizzato per task matematici, coding e ragionamento. Accesso tramite SQL, Python o API REST.

Settore pubblico, Healthcare e Pharma: in che modo le organizzazioni leader sfruttano i dati, l’AI e la collaborazione per raggiungere gli obiettivi istituzionali

Scopri come utilizzare i dati, l’AI e la collaborazione nel settore pubblico, sanitario e farmaceutico per innovare e raggiungere gli obiettivi istituzionali: Snowflake Accelerate 2025.

Snowflake Intelligence: parla con i tuoi dati, sblocca insight aziendali reali

Snowflake Intelligence (presto in public preview) consente di conversare in modo sicuro con i dati aziendali per ottenere insight rapidi, collegando i dati all’azione.

Crea app AI RAG e agent-based con Claude 3.5 Sonnet di Anthropic in Snowflake Cortex AI

Anthropic Claude 3.5 Sonnet in Snowflake Cortex AI consente alle aziende di creare app Gen AI con modelli linguistici avanzati per soluzioni AI enterprise-ready.

5 ottimi motivi per diventare Snowflake Academia Educator

Insegna con Snowflake e aiuta gli studenti a padroneggiare i dati e le competenze AI. Scopri come il programma Snowflake for Academia supporta gli istruttori di istituti accreditati no-profit.

Best practice di sicurezza e governance per il deployment di Snowflake Intelligence con Horizon Catalog

Scopri le best practice per distribuire Snowflake Intelligence in modo sicuro, su vasta scala con governance unificata: usa il catalogo AI universale di Horizon Catalog.

Snowflake espande i metodi MFA supportati e li rende disponibili di default ovunque

Snowflake espande le opzioni MFA con app di autenticazione e passkey, e rafforza la sicurezza con MFA disponibile di default per gli accessi con password Snowsight.

Condividere e monetizzare i modelli AI in modo sicuro nell’AI Data Cloud

Snowflake consente alle aziende di condividere, ottimizzare e monetizzare AI/ML e LLM all’interno dell’AI Data Cloud, garantendo compliance e in modo sicuro.

Accesso ai pacchetti PyPI in Snowpark tramite UDF e stored procedure

Ora Snowflake consente a sviluppatori, data engineer e data scientist di utilizzare pacchetti Python PyPI all’interno di UDF e stored procedure.

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Where Data Does More

  • prova gratuita di 30 giorni
  • nessuna carta di credito
  • annulli quando vuoi