Unificare il ciclo di vita dell’enterprise AI: Snowflake collabora con AWS e NVIDIA per portare la potenza di Blackwell nell’AI Data Cloud

Ottimizzare l’AI Data Cloud con NVIDIA Blackwell per proteggere la proprietà intellettuale e accelerare lo sviluppo dell’AI lungo l’intero ciclo di vita

Storicamente, l’enterprise AI è stata frammentata, richiedendo ambienti isolati per training, inferenza e serving. Questa separazione comporta spesso complessi spostamenti di dati tra diversi confini di sicurezza, aumentando i rischi e il carico operativo. Snowflake, in collaborazione con Amazon Web Services (AWS) e NVIDIA, affronta queste sfide unificando il ciclo di vita dell’AI all’interno dell’AI Data Cloud Snowflake.

Le GPU NVIDIA RTX PROTM 6000 Blackwell Server Edition saranno presto disponibili sulla piattaforma Snowflake in alcune region AWS selezionate con istanze Amazon EC2 G7e. Questa integrazione porta il calcolo ad alte prestazioni per AI visiva e generativa direttamente accanto ai dati enterprise. Integrando il calcolo di classe NVIDIA Blackwell nell’architettura Snowflake, i clienti possono creare potenti modelli AI, agenti e applicazioni che richiedono elaborazione ad alta intensità — il tutto all’interno di un perimetro di sicurezza governato, proprio dove risiedono i dati. 

Un’unica piattaforma per il ciclo di vita dell’AI

Con questo lancio, Snowflake va oltre l’offerta di istanze più veloci per fornire una piattaforma coesa che supporta le diverse latenze e i workflow richiesti dai team AI moderni, riducendo al contempo il TCO grazie a una maggiore velocità operativa:

  • Snowflake Container Runtime per training e caricamento dati: I data scientist possono ora utilizzare Snowflake Notebooks per eseguire il provisioning di container con GPU per sviluppo interattivo e deployment semplificato in Snowflake ML. Questo ambiente consente l’accesso all’accelerazione GPU senza modifiche al codice per workflow pandas e scikit-learn utilizzando le librerie NVIDIA cuDF e cuML. Supporta inoltre il training distribuito scalabile, permettendo ai team di avviare job PyTorch multinodo su cluster Blackwell con configurazione minima. Per alimentare queste GPU ad alte prestazioni, Snowflake ML DataConnector consente la lettura parallelizzata di dati non strutturati come immagini e PDF direttamente dagli stage Snowflake, garantendo un utilizzo ottimale della GPU senza colli di bottiglia I/O.

  • Deployment flessibile con inferenza in tempo reale e batch: Per applicazioni rivolte agli utenti che richiedono latenza nell’ordine dei millisecondi, i modelli possono essere distribuiti su Snowpark Container Services (SPCS) per inferenza in tempo reale. Per l’elaborazione massiva dei dati, come il punteggio di milioni di record storici, la piattaforma utilizza warehouse ottimizzati Snowpark con supporto previsto per l’architettura NVIDIA Blackwell.

  • Il contesto semantico come ponte verso l’accuratezza: L’AI di livello enterprise richiede un livello di precisione che i modelli generici non possono raggiungere isolatamente. L’architettura NVIDIA Blackwell accelera i cicli di ragionamento ad alta velocità necessari per Snowflake Intelligence. Portando il calcolo accelerato nel livello semantico Snowflake, le aziende possono garantire che i modelli comprendano la logica di business e il “significato” specifico dei dati, colmando il divario di accuratezza e raggiungendo la precisione necessaria per decisioni in produzione.

Un nuovo standard per il calcolo enterprise

La GPU NVIDIA RTX PRO 6000 Blackwell è progettata per le esigenze intensive degli LLM e dei workflow multimodali. Ogni GPU offre 96 GB di memoria GDDR7, supportando modelli con oltre 70 miliardi di parametri e modelli vision-language (VLM) su una singola scheda per ridurre al minimo la latenza di comunicazione tra GPU.

L’inclusione dei Tensor Core di quinta generazione con supporto nativo FP4 garantisce fino a 5 volte più throughput in inferenza rispetto alle generazioni precedenti. Questa architettura ottimizza il livello di calcolo per precisione e latenza nelle implementazioni AI.

Sia NVIDIA RTX PRO 6000 Blackwell Server Edition sia la nuova GPU NVIDIA RTX PRO 4500 Blackwell Server Edition saranno presto disponibili per i clienti Snowflake.

Caso d’uso: intelligenza multimodale per dati assicurativi non strutturati

Le grandi compagnie assicurative gestiscono milioni di sinistri ogni anno, combinando dati strutturati con enormi volumi di contenuti non strutturati come foto di incidenti ad alta risoluzione e report scritti a mano. Per costruire sistemi di retrieval intelligenti su questi dati, le organizzazioni hanno bisogno di una pipeline in grado di acquisire, indicizzare e analizzare file complessi su larga scala senza limiti di memoria o I/O:

  1. Ingestion su larga scala senza copia: L’ingestion di 100.000 report di incidenti al giorno crea un enorme collo di bottiglia I/O nei sistemi tradizionali. Snowflake ML risolve questo problema utilizzando DataConnector o l’accesso dinamico ai file Snowpark all’interno di funzioni definite dall’utente con codice personalizzato per analizzare file in parallelo direttamente dagli stage Snowflake. Questa pipeline sfrutta i 96 GB di memoria GDDR7 della RTX PRO Blackwell 6000 per gestire grandi batch di immagini ad alta risoluzione in memoria. Eseguendo ridimensionamento e normalizzazione direttamente sulla GPU senza scrittura su disco, Snowflake consente alla fase di trasformazione dei dati di tenere il passo con le capacità di calcolo.

  2. Training multimodale semplificato: Per “comprendere” un sinistro, i modelli devono mappare danni visivi e testo in uno spazio vettoriale unificato. I data scientist possono utilizzare Snowflake Notebooks per avviare job di training PyTorch distribuiti per modelli di embedding personalizzati (come CLIP) direttamente sui dati. Snowflake astrae la complessità della gestione dei cluster, mentre l’architettura Blackwell accelera il processo di training. Questa combinazione consente ai team di addestrarsi su milioni di coppie di sinistri in ore anziché giorni, con i modelli risultanti versionati automaticamente nel Snowflake Model Registry per inferenza scalabile.

  3. Deployment unificato per la prevenzione delle frodi: Una volta addestrato, il modello diventa il cuore di una pipeline di rilevamento delle frodi. Con un deployment con un clic, i data scientist possono utilizzare le API Snowflake ML per pubblicare il modello su Snowpark Container Services per inferenza in tempo reale o su un warehouse virtuale con Snowpark per elaborazione batch. Questa flessibilità consente allo stesso hardware Blackwell di supportare sia l’analisi storica ad alta capacità su migliaia di sinistri sia la valutazione a bassa latenza di nuove immagini, mantenendo governance e tracciabilità garantite da Snowflake Horizon.

Caso d’uso: Ottimizzazione accelerata del portafoglio nella finanza quantitativa

I team di ricerca utilizzano Snowflake Notebooks e la precisione FP4 di NVIDIA Blackwell per eseguire backtest di strategie di trading su decenni di dati alternativi non strutturati (audio, immagini) ad alta velocità. Ciò consente la generazione rapida di segnali di trading all’interno di un ambiente dati governato, offrendo un vantaggio competitivo in termini di velocità. Abbandonando i processi tradizionali più lenti, le aziende possono ora eseguire ottimizzazioni complesse del portafoglio in tempo quasi reale — con velocità fino a 80 volte superiori. Questo approccio unificato consente ai trader di prendere decisioni più rapide basate sui dati mantenendo al contempo la sicurezza e la governance delle informazioni sensibili su un’unica piattaforma. Scopri l’architettura.

Per iniziare

Abilita nuovi casi d’uso di AI ad alto throughput integrando oggi le GPU NVIDIA Blackwell in Snowflake. Le GPU NVIDIA RTX PRO 6000 Blackwell sono disponibili in alcune region AWS selezionate con istanze Amazon EC2 G7e; le istanze con GPU NVIDIA RTX PRO 4500 Blackwell saranno presto disponibili. La documentazione di deployment e le guide quickstart saranno pubblicate a breve. Consulta le seguenti risorse per saperne di più: 

 

Dichiarazioni previsionali

Questo articolo contiene dichiarazioni previsionali, incluse informazioni su future offerte di prodotto, che non costituiscono impegni a fornire tali offerte. I risultati e le offerte effettive possono differire e sono soggetti a rischi e incertezze noti e ignoti. Consulta il nostro ultimo 10-Q per maggiori informazioni.

Ricerca globale

The ROI of Gen AI and Agents 2026

Con gli agenti, gli early adopter amplificano i successi della Gen AI
Condividi articolo

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Where Data Does More

  • prova gratuita di 30 giorni
  • nessuna carta di credito
  • annulli quando vuoi