Democratizzare l’enterprise AI: le nuove funzionalità AI di Snowflake accelerano e semplificano ulteriormente l’innovazione data-driven

Al Summit Snowflake 2025 abbiamo introdotto innovazioni per rendere l’AI facile, efficiente e affidabile. Completamente gestite all’interno del perimetro sicuro di Snowflake, queste funzionalità consentono a utenti aziendali e data scientist di trasformare dati strutturati e non strutturati in insight fruibili, senza complessi strumenti o infrastrutture.
Che si tratti di analizzare tabelle, elaborare documenti, distribuire agenti AI o addestrare modelli, queste funzionalità sono integrate nella piattaforma sicura Snowflake con governance unificata, eliminando la gestione dell’infrastruttura o strumenti complessi.
Al Summit abbiamo presentato quattro importanti progressi nel campo dell’intelligenza artificiale:
Data agent: Offriamo funzionalità intelligenti con Snowflake Intelligence (presto in public preview) e Snowflake Cortex Agents (presto in GA). Snowflake Intelligence trasforma i dati strutturati e non strutturati in azioni aziendali rapide e affidabili, mentre Cortex Agents orchestra attività in più fasi e si integra in Microsoft Teams o app personalizzate.
Cortex AISQL e analytics: Portando l’elaborazione dei dati multimodale tramite AI nel familiare SQL, Cortex AISQL (in public preview) rende accessibili flussi di lavoro AI complessi e integra la vasta gamma di offerte per insight sui dati non strutturati di Snowflake. Questo include Document AI potenziata con estrazioni di tabelle schema-aware e un nuovo modello di estrazione “Arctic-Extract”. Questo supporta l’estrazione da documenti in 29 lingue e la possibilità di chiamata attraverso la nuova funzione AI_EXTRACT (presto in public preview).
Modelli di AI generativa leader del settore, valutazione, osservabilità e gateway AI: L’AI Observability in Snowflake Cortex AI (presto in GA) consente il monitoraggio no-code e pro-code delle app Gen AI. Snowflake fornisce anche accesso ai LLM di OpenAI tramite Microsoft Azure OpenAI Service, Anthropic, Meta, Mistral e altri provider leader, sempre all’interno del perimetro sicuro di Snowflake. L’AI Governance Gateway fornisce funzionalità che consentono ai clienti di implementare facilmente criteri di governance, tra cui un controllo degli accessi efficace, un monitoraggio granulare dell’utilizzo e l’applicazione del budget (presto in private preview).
Machine learning (ML): Crea e distribuisci modelli pronti per la produzione con scalabilità e flessibilità migliorate, tra cui l’introduzione del Data Science Agent autonomo per aumentare la produttività su tutti i flussi di sviluppo.
Insieme, questi lanci formano una base AI unificata che semplifica lo sviluppo, scala in modo affidabile e preserva la fiducia all’interno dell’ambiente governato da Snowflake.
“In Luminate, stiamo rivoluzionando il modo in cui forniamo insight basati sui dati attraverso l'intelligenza artificiale generativa. La piattaforma unificata Snowflake offre ai nostri sviluppatori un'elaborazione e un recupero scalabili per dati sia strutturati che non, costituendo la base per la creazione e l'orchestrazione di data agent che alimentano le nostre applicazioni. Cortex AI entro i confini della governance Snowflake ci consente di risparmiare tempo di sviluppo e di sfruttare appieno il potenziale dei dati del settore entertainment grazie all’Agentic AI.” —Glenn Walker, Chief Data Officer, Luminate Data
1. Data agent: creare agenti e analizzare dati multimodali su vasta scala
I data agent consentono di ottenere insight self-service con Snowflake Intelligence, offrendo agli utenti aziendali un’interfaccia basata sul linguaggio naturale per interrogare tutti i propri dati. Gli utenti possono porre domande complesse e ricevere risposte governate ed esplicitabili in pochi secondi senza dashboard o SQL.
Cortex Agents e strumenti come Cortex Analyst e Cortex Search consentono agli sviluppatori di creare applicazioni AI affidabili e pronte per la produzione che ragionano su dati strutturati e non strutturati, orchestrando i flussi di lavoro con LLM, SQL e ricerca semantica.
Il Model Context Protocol (MCP) fornisce uno standard aperto per il collegamento dei sistemi AI con le fonti di dati. Siamo lieti di annunciare che il supporto per i server MCP sarà presto disponibile (presto in private preview) su Snowflake. Al lancio, gli sviluppatori potranno servire Cortex Analyst e Cortex Search come strumenti con il server MCP Snowflake.

1a. Sfruttare la self-service intelligence per i team aziendali
Snowflake Intelligence offre agli utenti aziendali un’interfaccia di linguaggio naturale basata sull’AI per interagire con dati sia strutturati che non strutturati. Gli utenti possono porre domande complesse in linguaggio naturale e ricevere risposte spiegabili governate in pochi secondi, senza bisogno di SQL o dashboard. Questi agenti vengono eseguiti all’interno del perimetro di sicurezza di Snowflake, applicando automaticamente controlli di accesso, mascheramento e verifica basati sui ruoli. Possono ragionare su tutti i dati aziendali, identificare le relazioni tra diverse fonti di dati e restituire risposte sintetiche da tabelle, PDF, Jira, Salesforce, Zendesk e altro ancora.
1b. Semplifica gli insight sui dati per tutti con i data agent
I data agent consentono ai team non tecnici di estrarre insight utilizzando il linguaggio naturale. Gli utenti possono vedere come vengono generati gli insight con grafici automatici, tracciabilità del lineage e explainability. Gli sviluppatori possono distribuire rapidamente nuovi casi d’uso e integrare le analisi in qualsiasi app, accelerando l’innovazione e l’impatto.
1c. Creare applicazioni conversazionali affidabili
Con Cortex Agents (presto in GA), gli sviluppatori possono creare applicazioni Gen AI che ragionano sia sui dati strutturati che su quelli non strutturati. Questi agenti producono risultati spiegabili e di alta qualità orchestrando flussi di lavoro che combinano LLM, SQL e ricerca semantica. Basati su modelli come Claude 3.7 Sonnet, OpenAI GPT-4.1 e o4-mini (presto in GA), questi agenti pianificano, eseguono e perfezionano i task per ottenere risultati accurati. La explainability e l’accesso alle API integrate consentono una distribuzione e un’integrazione rapide con Microsoft Teams e Copilot, consentendo agli utenti di interagire con l’AI direttamente all’interno dei propri strumenti di collaborazione.
2. Cortex AISQL e analisi: passare dai dati multimodali agli insight con Snowflake
I dati non strutturati rimangono sottoutilizzati a causa della loro complessità. Cortex AISQL risolve questo problema consentendo ai team di analizzare documenti, immagini e altri formati utilizzando la familiare sintassi SQL, senza strumenti specializzati. Al Summit abbiamo presentato:
SQL e AI: Estrai metadati, classifica il sentiment o cerca all’interno di SQL.
Estrazione di valore dai dati non strutturati: Utilizza Document AI, che ora supporta l’estrazione di tabelle con consapevolezza dello schema (in public preview), per estrarre tabelle strutturate da PDF complessi con una pulizia minima.
Generazione automatica di modelli semantici (private preview): Elimina la configurazione manuale dei modelli, esplora gli insight con la visualizzazione nativa dei grafici e crea branded experience utilizzando Snowpark Container Services.
2a. Cortex AISQL trasforma gli analisti in sviluppatori di AI
Cortex AISQL ripensa SQL come linguaggio centrale per l’enterprise AI. I suoi operatori AI nativi consentono ai team di creare flussi di lavoro multimodali, combinando testo, audio, immagini e dati strutturati, senza dover imparare nuovi strumenti o duplicare i dati.
Migliora le prestazioni del 30-70% rispetto a diverse pipeline tradizionali (in base ai risultati di benchmark interni, implementati per uso normale), grazie a un’inferenza batch ottimizzata e a un algoritmo di ottimizzazione delle prestazioni (in private preview), consentendo agli analisti di diventare sviluppatori di AI.
I casi d’uso includono record matching, rilevamento delle frodi e join semantici di livello enterprise, tutti scritti in SQL.
2b. Estrai valore dai dati non strutturati
Abbiamo inoltre presentato il nostro vision model di prossima generazione per Document AI chiamato “arctic extract” (private preview).
Ora in grado di supportare un totale di 29 lingue, tra cui giapponese, coreano, tedesco, francese, spagnolo e cinese, e aggiunge funzionalità di ragionamento avanzate, incluse la classificazione e la normalizzazione.
Sul lato del recupero, Cortex Search aggiunge:
Ricerca fuzzy batch per attività ad alto throughput come la risoluzione delle entità e il rilevamento delle frodi
API avanzate (in GA) per ricerca, valutazione e classificazione multicampo per metadati
Interfaccia di amministrazione in Snowsight (in GA) e Quality Evaluation Studio (presto in public preview) per la gestione delle ricerche no-code, la diagnostica e il tuning della pertinenza
I team possono anche portare integrazioni vettoriali personalizzate (public preview) per alimentare Cortex Search, combinando la piattaforma sicura Snowflake con output di modelli proprietari per migliorare prestazioni e controllo.
2c. Accelerare gli insight sui dati con modelli semantici automatizzati e preview dei grafici
La generazione automatica di modelli semantici (private preview) semplifica e velocizza la creazione dei modelli semantici per Cortex Analyst. Analizzando metadati degli schemi, cronologia delle query e dashboard, crea modelli performanti e riutilizzabili, eliminando settimane di lavoro manuale. La funzionalità Grafici (in public preview) consente agli utenti di esplorare gli insight visivamente insieme ai risultati dell’AI.
Snowpark Container Services (in GA su AWS e Azure, presto su Google Cloud Platform) offre un runtime scalabile per ospitare app e API full-stack in modo nativo all’interno di Snowflake, con log, governance e sicurezza centralizzate.
3. Osservabilità dell’AI generativa, scelta del modello e infrastruttura scalabile: Implementa l’AI con fiducia
Per aiutare le organizzazioni a scalare l’AI in modo sicuro e affidabile, Snowflake offre:
Osservabilità dell’AI: Strumenti di valutazione senza codice per accuratezza e prestazioni dell’AI generativa
Accesso al modello: I principali LLM di Meta, OpenAI, Anthropic e Mistral
Throughput con provisioning: Prestazioni di inferenza prevedibili su scala di produzione
3a. Valutazione e tracciamento all’interno di Cortex AI
L’osservabilità AI (in GA) in Snowsight aiuta i team a misurare l’accuratezza e la copertura utilizzando data set di valutazione. Il punteggio di un LLM come giudice valuta fondatezza, disponibilità e nocività, eseguito in modo sicuro all’interno di Snowflake. Funzioni come i registri delle tracce degli agenti e il confronto tra modelli semplificano il debug, il perfezionamento dei prompt e la governance.
3b. Accedere a OpenAI, Anthropic e altri modelli in tutta sicurezza su Snowflake
L’ecosistema di modelli Snowflake ora include l’accesso a LLM leader di settore di OpenAI, Anthropic, Meta e Mistral, inclusi modelli di ultima generazione come GPT-4.1 e o4-mini di OpenAI tramite Microsoft Azure OpenAI Service in Azure AI Foundry e Claude Opus 4 e Claude Sonnet 4 di Anthropic. Questi modelli vengono eseguiti all’interno del perimetro di sicurezza di Snowflake, quindi i dati rimangono protetti e non vengono mai utilizzati per l’addestramento.
I clienti possono abbinare il modello migliore a ogni caso d’uso, riassunto, classificazione, traduzione, ragionamento agente e altro ancora, senza dover gestire l’infrastruttura.
Cortex AI si sta espandendo anche a Google Cloud Platform. Con Snowpark Container Services su Google Cloud Platform (presto in GA), i clienti possono distribuire modelli open source nelle regioni GCP, evitando lo spostamento dei dati e mantenendo la governance.
Cortex AI si sta espandendo anche a Google Cloud Platform. Con Snowpark Container Services su Google Cloud Platform (presto in GA), i clienti possono distribuire modelli open source nelle regioni GCP, evitando lo spostamento dei dati e mantenendo la governance.
3c. Throughput con provisioning per l’AI enterprise-ready
Il throughput con provisioning (in GA su AWS e Azure) offre ai team capacità di inferenza dedicata per le app Gen AI. Accessibile tramite API REST in tutte le regioni Snowflake, consente prestazioni uniformi senza imprevedibilità dei servizi condivisi. È ideale per passare dalla POC alla produzione, senza l’overhead della configurazione dell’infrastruttura.
3d. Gateway di governance dell’AI: Controllo aziendale per la Gen AI
L’AI Governance Gateway offre ai clienti un’unica posizione per accedere ai LLM leader del settore tramite SQL (o API REST) direttamente all’interno del perimetro sicuro di Snowflake. Grazie al controllo degli accessi basato sui ruoli (RBAC), i clienti possono implementare solidi criteri di governance. Viste granulari di monitoraggio dell’utilizzo per ogni funzionalità AI, unite ai controlli di applicazione del budget (presto in private preview), consentono ai clienti di monitorare e gestire l’utilizzo dell’AI generativa in tutta l’organizzazione. I clienti possono utilizzare Cortex Guard per filtrare i contenuti nocivi, mentre AI Observability consente di valutare, debuggare e ottimizzare le proprie app Gen AI per accuratezza e prestazioni. Questo migliora la fiducia e la trasparenza delle distribuzioni di produzione. Cortex AI porta l’AI dove si trovano i dati, e con l’AI Governance Gateway i clienti possono accelerare la distribuzione delle applicazioni Gen AI.
4. Modelli creati e implementati in produzione con Snowflake ML
Il ML predittivo è ancora una pietra angolare critica per i casi d’uso come il rilevamento delle frodi, la segmentazione della clientela e i motori di raccomandazione. Tuttavia, per creare e distribuire tali modelli spesso è necessario combinare più strumenti eterogenei, difficili da governare e costosi da mantenere.
Con Snowflake ML, ora le aziende dispongono di una soluzione ML moderna e strettamente integrata con i dati governati in tutti i flussi di lavoro end-to-end. Clienti come Coinbase e Cloudbeds generano insight predittivi. Scene+, un grande programma di fidelizzazione dei clienti in Canada, ha abbattuto i tempi di produzione di oltre il 60% e i costi di oltre il 35% per più di 30 modelli utilizzando Snowflake ML.
Al Summit abbiamo proseguito il nostro ritmo di innovazione con una serie di nuovi annunci incentrati sul ML scalabile e flessibile, che consentiranno ai clienti di:
Aumentare la produttività automatizzando la generazione di pipeline ML con Data Science Agent (presto in private preview)
Creare modelli pronti per la produzione più velocemente con API di addestramento distribuite in Container Runtime (in GA) e gestire facilmente i processi di addestramento con il tracking nativo degli esperimenti (presto in private preview)
Distribuire e orchestrare facilmente pipeline ML su dati Snowflake, utilizzando qualsiasi IDE preferito con i processi ML (presto in GA)
Offrire funzionalità per previsioni online a bassa latenza (presto in private preview) sulla capacità di calcolo scalabile del Feature Store Snowflake
Tutto questo è integrato con l’osservabilità ML integrata per un facile monitoraggio e avvisi con supporto per metriche personalizzate.

4a. Applicare l’Agentic AI al ML per accelerare la produttività.
Snowflake si impegna a rendere semplice ed efficiente l’utilizzo delle più recenti tecnologie leader del settore, inclusa la Gen AI. Vediamo un’opportunità non sfruttata di applicare le ultime innovazioni dei LLM per consentire ai data scientist. Al Summit abbiamo annunciato che applicheremo l’Agentic AI per potenziare la produttività nel ML predittivo con un Data Science Agent (presto in private preview su AWS) che itera, regola e genera automaticamente una pipeline ML completamente eseguibile a partire da semplici prompt in linguaggio naturale.

Alimentato dai modelli di ragionamento di Anthropic, Data Science Agent utilizza la pianificazione multistep per suddividere un problema in fasi distinte e sceglie la tecnica più performante per ogni fase del flusso di lavoro ML, che include preparazione dei dati, feature engineering e addestramento.
Dopo aver generato rapidamente una pipeline ML verificata, i team possono fornire follow-up in base alle loro conoscenze del dominio per iterare facilmente prestazioni e precisione per la versione successiva migliore. L’output è una pipeline ML pronta per la produzione, completamente funzionale e facilmente eseguibile da notebook Snowflake in Container Runtime. Automatizzando il noioso lavoro di sperimentazione e debug, i data scientist possono risparmiare ore di lavoro manuale e concentrarsi su iniziative di maggiore impatto.
4b. Creare e orchestrare pipeline ML scalabili sui dati Snowflake a partire da qualsiasi IDE
Per lo sviluppo ML, abbiamo annunciato una suite di nuove funzionalità che rendono più semplice e potente la creazione di modelli su dati Snowflake utilizzando notebook Snowflake integrati in modo nativo o qualsiasi IDE esterno preferito con comodi meccanismi pushdown. I clienti possono ora accedere facilmente alle API ML distribuite in Container Runtime (in GA su AWS e Azure) per accelerare il caricamento dei dati, l’addestramento dei modelli e il tuning degli iperparametri da qualsiasi IDE.
Man mano che le versioni dei modelli vengono iterate durante le sessioni di addestramento, il modello più performante può essere rapidamente identificato, condiviso e riprodotto dal tracking degli esperimenti integrato in modo nativo (presto in private preview), accessibile tramite API o l’interfaccia utente di Snowsight.
Per facilitare lo sviluppo e l’automazione delle pipeline ML, orchestrate da Snowflake Tasks o da strumenti esterni come Airflow, ML Jobs (presto in GA su AWS e Azure) offre un comodo meccanismo per attivare l’esecuzione remota di codice ML. Inoltre, le interfacce incluse nei processi ML consentono anche ai team che preferiscono lavorare da un IDE esterno (VS Code, PyCharm, notebook SageMaker) di inviare funzioni, file o moduli al runtime container Snowflake.

4c. Implementare modelli ML creati ovunque su scala
Indipendentemente da dove o come viene creato, un modello può essere registrato nel Model Registry Snowflake e servito per inferenza scalabile su Snowpark Container Services (in GA su AWS e Azure), utilizzando CPU o GPU per previsioni in tempo reale o in batch. I clienti possono anche distribuire modelli a un endpoint API REST per applicazioni a bassa latenza. Questo include il supporto per la distribuzione semplice di modelli da Hugging Face (presto in private preview) con un clic senza scaricare alcun modello lato client. Semplicemente indicando l’handle e il task del modello per la registrazione e il serving in Snowflake, i team possono accedere istantaneamente ai migliori modelli di Hugging Face addestrati, dalla classificazione delle immagini alla somiglianza delle frasi al rilevamento degli oggetti.

Abbiamo anche annunciato che Snowflake Feature Store ora supporta anche la possibilità di fornire funzionalità per l’inferenza online a bassa latenza (presto in private preview) oltre ai batch per supportare casi d’uso come raccomandazioni personalizzate, determinazione dei prezzi, rilevamento delle anomalie e servizio clienti.
I modelli che memorizzano l’inferenza in Snowflake sono automaticamente integrati con le funzionalità di ML Observability di Snowflake (in GA), per fornire previsioni affidabili nel tempo.
Scopri di più e visualizza le risorse
Al Summit abbiamo introdotto innovazioni per rendere l’enterprise AI facile da usare, efficiente da distribuire e affidabile da eseguire. Snowflake Intelligence trasforma i dati strutturati e non strutturati in insight fruibili, mentre Cortex Agents orchestra complessi task multistep su tutti i dati.
Cortex AISQL porta l’elaborazione dei dati multimodale dove si trovano flussi di lavoro SQL familiari, e l’AI Observability offre solidi strumenti di monitoraggio e valutazione per scalare le applicazioni Gen AI. Per i flussi di lavoro tradizionali, Snowflake ML rende più facile e flessibile per i clienti creare e servire modelli in produzione.
Grazie a questi progressi, Snowflake consente alle organizzazioni di trasformare con fiducia i propri dati in azioni intelligenti su vasta scala.
Inizia a usare Snowflake per l’AI utilizzando le seguenti risorse:
Produrre modelli ML: Prova a creare un flusso di lavoro ML end-to-end da Snowflake Notebooks (disponibile dalla prova gratuita) o da qualsiasi IDE preferito
Affermazioni riferite al futuro
Questo articolo contiene delle affermazioni riferite al futuro, tra cui offerte future di prodotti, che però non rappresentano un impegno a fornire alcuna offerta di prodotti. Le offerte e i risultati effettivi potrebbero essere diversi ed essere soggetti a incertezze e rischi noti e non noti. Fai riferimento al nostro più recente modulo 10‑Q per ulteriori informazioni.