Democratizando a IA para empresas: novos recursos de IA do Snowflake aceleram e simplificam ainda mais a inovação data-driven

Durante o Snowflake Summit 2025, apresentamos inovações para tornar a IA fácil, eficiente e confiável. Totalmente gerenciados dentro do perímetro seguro do Snowflake, esses recursos permitem que usuários empresariais e cientistas de dados transformem dados estruturados e não estruturados em insights acionáveis, sem ferramentas ou infraestrutura complexas.
Quer os clientes estejam analisando tabelas, processando documentos, implementando agentes de IA ou modelos de treinamento, esses recursos são integrados à plataforma segura Snowflake com governança unificada, eliminando o gerenciamento de infraestrutura ou ferramentas complexas.
Durante o Summit, revelamos quatro grandes avanços no campo da inteligência artificial:
Agentes de dados: estamos oferecendo recursos inteligentes com o Snowflake Intelligence (breve em versão preliminar pública) e o Snowflake Cortex Agents (em breve disponível ao público). O Snowflake Intelligence transforma dados estruturados e não estruturados em ações comerciais rápidas e confiáveis, enquanto o Cortex Agents organiza tarefas de várias etapas e integra-se ao Microsoft Teams ou a apps personalizados.
Cortex AISQL e análise de dados: ao integrar o processamento de dados multimodais, com o uso de IA, à familiar linguagem SQL, o Cortex AISQL (em versão preliminar pública) torna acessíveis complexos fluxos de trabalho de IA, complementando a extensa oferta de insights de dados não estruturados do Snowflake. Isso inclui melhor Document AI com extrações de tabelas schema-aware em 28 idiomas e recuperação aprimorada via Cortex Search.
Modelos de IA generativa líderes do setor, avaliação, observabilidade e gateway de IA: a AI Observability do Snowflake Cortex AI (em breve disponível ao público) possibilita o monitoramento no-code e pro-code de apps de IA generativa. O Snowflake também fornece acesso a LLMs OpenAI por meio do Microsoft Azure OpenAI Service, Anthropic, Meta, Mistral e outros provedores líderes, tudo no perímetro seguro do Snowflake. O AI Governance Gateway fornece recursos que permitem aos clientes implementar facilmente políticas de governança, incluindo forte controle de acesso, rastreamento de uso granular e aplicação de orçamento (breve em versão preliminar privada).
Aprendizado de máquina (ML): crie e distribua modelos prontos para a produção com escalabilidade e flexibilidade aprimoradas, incluindo o lançamento do Data Science Agent autônomo para aumentar a produtividade em todos os fluxos de trabalho de desenvolvimento.
Juntos, esses lançamentos formam uma base de IA unificada que simplifica o desenvolvimento, permite dimensionar com segurança e preserva a confiança no ambiente governado do Snowflake.
“"Na Luminate, estamos revolucionando o modo de fornecer insights data-driven com uso de IA generativa. A plataforma unificada Snowflake oferece aos nossos desenvolvedores escalabilidade de processamento e recuperação para dados estruturados e não estruturados, que são a base para criar e orquestrar os agentes de dados que movem nossas aplicações. Usar o Cortex AI dentro do limite de governança do Snowflake nos faz economizar tempo de desenvolvimento, permitindo aproveitar todo o potencial dos dados do setor de entretenimento por meio da IA com agentes." Glenn Walker, Chief Data Officer, Luminate Data
1. Agentes de dados: crie agentes e analise dados multimodais em escala
Os agentes de dados possibilitam a obtenção de insights de autoatendimento com o Snowflake Intelligence, fornecendo aos usuários empresariais uma interface de linguagem natural para consultar todos os seus dados. Os usuários podem fazer perguntas complexas e receber respostas governadas e explicáveis em segundos sem dashboards ou SQL.
Os Cortex Agents e ferramentas, como o Cortex Analyst e o Cortex Search, permitem que os desenvolvedores criem aplicações de IA confiáveis e prontas para a produção que raciocinam sobre dados estruturados e não estruturados, organizando fluxos de trabalho com LLMs, SQL e pesquisa semântica.
O Model Context Protocol (MCP) fornece um padrão aberto para conexão de sistemas de IA com fontes de dados. Ficamos felizes que o suporte a servidores de MCP estará disponível (breve em versão preliminar privada) no Snowflake. Quando o lançamento for feito, os desenvolvedores poderão usar o Cortex Analyst e o Cortex Search como ferramentas com o servidor Snowflake MCP.

1a. Disponibilize inteligência de autoatendimento para as equipes de negócios
O Snowflake Intelligence oferece aos usuários empresariais uma interface de linguagem natural baseada em IA para que interajam com dados estruturados e não estruturados. Os usuários podem fazer perguntas complexas em inglês simples e receber respostas explicáveis e governadas em segundos, sem necessidade de SQL ou dashboards. Esses agentes funcionam dentro do perímetro de segurança do Snowflake, impondo automaticamente controles de acesso, mascaramento e auditoria baseados em função. Eles podem raciocinar em dados corporativos, identificar relações entre diversas fontes de dados e enviar respostas sintetizadas de tabelas, PDFs, Jira, Salesforce, Zendesk, entre outras.
1b. Use agentes de dados para simplificar a obtenção de insights de dados para todos
Agentes de dados permitem que equipes não técnicas extraiam insights usando linguagem natural. Os usuários podem ver como os insights são gerados com gráficos automáticos, capacidade de rastreamento e explicabilidade da linhagem. Os desenvolvedores podem implementar novos casos de uso rapidamente e incorporar análises de dados em qualquer app de sua escolha, acelerando a inovação e o impacto.
1c. Crie aplicações conversacionais confiáveis
Com o Cortex Agents (em breve disponível ao público), os desenvolvedores podem criar aplicações de IA generativa que argumentam sobre dados estruturados e não estruturados. Esses agentes viabilizam resultados de alta qualidade e explicáveis, organizando fluxos de trabalho que combinam LLMs, SQL e pesquisa semântica. Com modelos como o Claude 3.7 Sonnet, o OpenAI GPT-4.1 e o4-mini (em breve disponíveis ao público), esses agentes planejam, executam e refinam tarefas para obter resultados precisos. A capacidade integrada de explicação e o acesso por API permitem implementações e integrações rápidas com Microsoft Teams e Copilot, possibilitando que os usuários interajam com a IA diretamente em suas ferramentas de colaboração.
2. Cortex AISQL e análise de dados: redefinindo dados multimodais em insights com o Snowflake
Os dados não estruturados continuam subutilizados por sua complexidade. O Cortex AISQL soluciona esse problema permitindo que as equipes analisem documentos, imagens e outros formatos usando a sintaxe SQL que os usuários já dominam, sem ferramentas especializadas. Durante o Summit, apresentamos:
SQL e IA: extraia metadados, classifique sentimentos ou pesquise incorporações, tudo em SQL.
Extração de valor a partir de dados não estruturados: use o Document AI, agora compatível com extração de tabelas schema-aware (em versão preliminar pública), para extrair tabelas estruturadas de PDFs complexos com o mínimo de limpeza.
Geração automática de modelo semântico (em versão preliminar privada): elimine a configuração manual de modelos, obtenha insights com a visualização de gráficos nativos e crie experiências de marca com o Snowpark Container Services.
2a. Transforma analistas em desenvolvedores de IA com o Cortex AISQL
O Cortex AISQL transforma o SQL na linguagem principal da IA para empresas. Seus operadores nativos de IA permitem que as equipes criem fluxos de trabalho multimodais, combinando texto, áudio, imagens e dados estruturados, sem ter de aprender novas ferramentas ou duplicar dados.
Ele oferece uma melhora de 30% a 70% no desempenho de vários pipelines tradicionais (baseados nos resultados de benchmarks internos implementados por uso normal), com tecnologia de inferência em lote otimizada e um algoritmo de otimização de desempenho (visualização privada), capacitando os analistas a se tornarem desenvolvedores de IA.
Os casos de uso incluem correspondência de registros, detecção de fraudes e junções semânticas de escala empresarial, tudo escrito em SQL.
2b. Extraia valor dos dados não estruturados
A extração de tabelas schema-aware (em versão preliminar pública) do Document AI permite que os usuários definam esquemas de destino e extraiam tabelas limpas a partir de PDFs, mesmo aqueles com células mescladas ou formatos inconsistentes.
Agora, com suporte a um total de 28 idiomas, seu modelo de visão de última geração (versão preliminar privada) adiciona recursos aprimorados de raciocínio, incluindo 23 outros idiomas, incluindo japonês, coreano, alemão, francês, espanhol e chinês.
No lado da recuperação, o Cortex Search acrescenta:
Batch Fuzzy Seearch para atividades de alto throughput, como resolução de entidade e detecção de fraudes.
Advanced APIs (disponíveis ao público) para pesquisa de vários campos, pontuação e classificação por metadados.
Admin UI no Snowsight (disponível ao público) e no Quality Evaluation Studio (breve em versão preliminar pública) para gerenciamento de pesquisa no-code, diagnósticos e ajustes de relevância.
As equipes também podem incorporar Custom Vector Embeddings (versão preliminar pública) para alimentar o Cortex Search, combinando a plataforma segura Snowflake com resultados de modelos proprietários para maior desempenho e controle.
2c. Acelere os insights de dados com modelos semânticos e visualização prévia de gráficos automatizados
Automatic Semantic Model Generation (versão preliminar privada) torna a criação de modelos semânticos para o Cortex Analyst mais fácil e rápida. Ao analisar metadados de esquemas, histórico de queries e dashboards, o DataOps cria modelos de bom desempenho e reutilizáveis, eliminando semanas de trabalho manual. O recurso de gráficos (em versão preliminar pública) permite que os usuários explorem os insights visualmente junto com os resultados de IA.
O Snowpark Container Services (disponível ao público para AWS e Azure e em breve lançado no Google Cloud Platform), oferece um runtime dimensionável para hospedar apps e APIs full-stack de forma nativa no Snowflake, com log, governança e segurança centralizados.
3. Observabilidade de IA generativa, escolha de modelo e infraestrutura em escala: implemente a IA com confiança
Para ajudar as organizações a dimensionar a IA em escala e de forma segura e confiável, a Snowflake oferece:
AI Observability: ferramentas de avaliação no-code para precisão e desempenho da IA generativa.
Acesso a modelos: os principais LLMs Meta, OpenAI, Anthropic e Mistral.
Throughput provisionado: desempenho de inferência previsível na escala da produção.
3a. Avaliação e rastreamento dentro do CortexAI
No Snowsight, o recurso AI Observability (disponível ao público) ajuda as equipes a medir a precisão e a cobertura usando conjuntos de dados de avaliação. A pontuação do LLM como juiz avalia a utilidade, a utilidade e a nocividade, executadas com segurança dentro do Snowflake. Recursos como logs de rastreamento do agente e comparações de modelos simplificam o depuração, o refinamento de comandos e a governança.
3b. Acesse OpenAI, Anthropic e mais modelos, com segurança no Snowflake
O ecossistema de modelos da Snowflake agora inclui acesso aos principais LLMs do setor da OpenAI, Anthropic, Meta e Mistral, incluindo modelos de última geração, como o OpenAI GPT-4.1 e o4-mini por meio do Microsoft Azure OpenAI Service no Azure AI Foundry, bem como o Claude Opus 4 e o Anthropic Claude Sonnet 4. Esses modelos são executados dentro dos limites de segurança do Snowflake, então os dados permanecem protegidos e nunca são usados para treinamento.
Os clientes podem combinar o modelo ideal para cada caso de uso, resumo, classificação, tradução, raciocínio agêntico e muito mais, sem gerenciar a infraestrutura.
O Cortex AI também está em expansão para o Google Cloud Platform. Com o Snowpark Container Services no Google Cloud Platform (em breve disponível ao público), os clientes podem implementar modelos de código aberto em regiões de GCP, evitando a movimentação de dados e mantendo a governança.
O Cortex AI também está em expansão para o Google Cloud Platform. Com o Snowpark Container Services no Google Cloud Platform (em breve disponível ao público), os clientes podem implementar modelos de código aberto em regiões de GCP, evitando a movimentação de dados e mantendo a governança.
3c. Throughput provisionado para IA pronta para as empresas
O Provisioned Throughput (disponível ao público para AWS e Azure) dá às equipes capacidade de inferência dedicada para apps de IA generativa. Acessível por meio da API REST em todas as regiões do Snowflake, o Snowflake permite um desempenho consistente sem a imprevisibilidade dos serviços compartilhados. É ideal para passar de POC para a produção, sem a sobrecarga de configuração de infraestrutura.
3d. Gateway de governança de IA: controle corporativo para IA generativa
O AI Governance Gateway oferece uma única janela de vidro para que os clientes acessem os LLMs líderes do setor por meio de SQL (ou APIs REST) diretamente no perímetro seguro do Snowflake. Por meio do completo controle de acesso baseado em função (role-based access control, RBAC), os clientes podem implementar políticas sólidas de governança. As visualizações granulares de rastreamento do uso de cada recurso de IA, combinadas com controles de aplicação do orçamento (breve em versão preliminar privada), permitem que os clientes monitorem e gerenciem o uso da IA generativa em suas organizações. Os clientes podem utilizar a IA responsável com o Cortex Guard para filtrar conteúdo prejudicial. A AI Observability permite aos clientes avaliar, depurar e otimizar suas aplicações de IA generativa para obter precisão e desempenho. Isso melhora a confiança e a transparência nas implementações de produção. O Cortex AI leva a IA aos seus dados e, com o AI Governance Gateway, os clientes podem acelerar o fornecimento de aplicações de IA generativa.
4. Modelos desenvolvidos e operacionalizados na produção com o Snowflake ML
O Predictive ML ainda é um alicerce essencial para casos de uso, como detecção de fraudes, segmentação de clientes e mecanismos de recomendação. No entanto, a criação e a implementação de tais modelos muitas vezes requer unir ferramentas múltiplas e diferentes que podem ser difíceis de governar e caras de manter.
Com o Snowflake ML, as empresas agora têm uma solução de ML moderna fortemente integrada a dados governados em fluxos de trabalho completos. Clientes como Coinbase e Cloudbeds estão gerando insights preditivos. Scene+, um grande programa de fidelidade do cliente no Canadá, reduz o tempo de produção em mais de 60% e reduz os custos em mais de 35% para mais de 30 modelos usando o Snowflake ML.
Durante o Summit, continuamos nosso ritmo acelerado de inovação com um conjunto de novos anúncios focados em ML flexível e dimensionável em escala, que permitirá aos clientes:
Aumentar a produtividade dos cientistas de dados, automatizando a geração de pipelines de ML com o Data Science Agent (breve em versão preliminar privada).
Criar modelos prontos para a produção mais rapidamente com APIs de treinamento distribuídas no Container Runtime (disponível ao público) e gerenciar trabalhos de treinamento facilmente com o rastreamento de experimentos nativos (breve em versão preliminar privada).
Integrar e orquestrar facilmente pipelines de ML sobre dados do Snowflake, operando a partir de qualquer IDE de sua preferência com ML Jobs (em breve disponível ao público).
Oferecer recursos para previsões on-line de baixa latência (breve em versão preliminar privada) em processamento dimensionável em escala da Snowflake Feature Store.
Tudo isso integrado no ML Observability para facilitar o monitoramento e a alertas com suporte a métricas personalizadas.

4a. Integre IA com agentes e ML confiável para obter maior produtividade.
Na Snowflake, estamos empenhados em fazer com que seja fácil e eficiente para todos os nossos clientes usar as tecnologias mais recentes líderes do setor, incluindo a IA generativa. Vemos uma oportunidade inexplorada de aplicar as mais recentes inovações de LLMs para capacitar cientistas de dados. Durante o Summit, anunciamos que estamos aplicando a IA com agentes para potencializar incrivelmente a produtividade do ML preditivo com o Data Science Agent (breve em versão preliminar privada no AWS), que itera, ajusta e gera de forma autônoma um pipeline de ML totalmente executável a partir de comandos simples de linguagem natural.

Com os modelos de raciocínio Anthropic executados no background, o Data Science Agent usa o planejamento multistep para dividir um problema em etapas distintas e escolhe a técnica de melhor desempenho para cada fase do fluxo de trabalho de ML, incluindo preparação de dados, engenharia de recursos e treinamento.
Depois de gerar rapidamente um pipeline de ML verificado, as equipes podem fornecer follow-ups com base em seu conhecimento de domínio para repetir facilmente o desempenho e a precisão da próxima versão melhor. A saída é de um pipeline de ML totalmente funcional e pronto para a produção, que pode ser facilmente executado a partir do Snowflake Notebooks no Container Runtime. Ao automatizar o trabalhoso trabalho de experimentação e depuração, os cientistas de dados podem economizar horas de trabalho manual e se concentrar em iniciativas de maior impacto.
4b. Crie e orquestre pipelines de ML dimensionáveis com base nos dados do Snowflake a partir de qualquer IDE.
Para o desenvolvimento de ML, anunciamos um conjunto de novos recursos que tornam a criação de modelos com base nos dados do Snowflake mais fácil e eficiente, usando Snowflake Notebooks nativamente integrados ou qualquer IDE externo de sua preferência com mecanismos convenientes de pushdown. Os clientes agora podem acessar facilmente As APIs de ML distribuídas no Container Runtime (disponíveis ao público no AWS e no Azure) para acelerar o carregamento de dados, o treinamento de modelos e o ajuste de hiperparâmetros a partir de qualquer IDE.
À medida que as versões do modelo são iteradas durante os tempos de treinamento, o modelo com melhor desempenho pode ser rapidamente identificado, compartilhado e reproduzido por meio do rastreamento de experimentos integrado nativamente (breve em versão preliminar privada), acessível por meio de APIs ou da interface de usuário Snowsight.
Para facilitar o desenvolvimento e a automatização de pipelines de ML, organizados pela Snowflake Tasks ou ferramentas externas como o Airflow, o ML Jobs (em breve disponível ao público na AWS e no Azure) oferece um mecanismo conveniente para desencadear a execução de código de ML remoto. Além disso, as interfaces incluídas no ML Jobs também possibilitam que as equipes que preferem trabalhar com um IDE externo (VS Code, PyCharm, SageMaker Notebooks) enviem funções, arquivos ou módulos até o Container Runtime do Snowflake.

4c. Implemente modelos de ML desenvolvidos em qualquer lugar em escala
Não importando onde ou como um modelo é criado, ele pode ser registrado no Snowflake Model Registry e implantado para inferência dimensionável em escala no Snowpark Container Services (disponível ao público em AWS e Azure), usando processamento de CPU ou GPU para previsões em lote ou em tempo real. Os clientes também podem implementar modelos em um endpoint de API REST para aplicações de inferência de baixa latência. Isso inclui suporte para implementação fácil de modelos do Hugging Face (breve em versão preliminar privada)com um único clique sem precisar baixar nenhum modelo do lado do cliente. Ao simplesmente apontar para o guia e a tarefa do modelo para o log e o serviço no Snowflake, as equipes podem obter acesso instantâneo aos modelos Hugging Face mais bem treinados, que vão desde a classificação de imagens até a similaridade de frase e detecção de objetos.

Também anunciamos que a Snowflake Feature Store agora também oferece recursos para low latence, inferência online (breve em versão preliminar privada), além de casos de uso em lote, como recomendações personalizadas, preços, detecção de anomalias e atendimento ao cliente.
Os modelos que armazenam inferência no Snowflake são automaticamente integrados aos recursos de observabilidade de ML (disponíveis ao público) do Snowflake para possibilitar previsões confiáveis ao longo do tempo.
Saiba mais e veja recursos
Durante o Summit de 2025, apresentamos inovações para tornar a IA para empresas fácil de usar, eficiente de implementar e confiável para executar. O Snowflake Intelligence transforma dados estruturados e não estruturados em insights práticos, enquanto os Cortex Agents organizam tarefas complexas de várias etapas em todos os dados.
O Cortex AISQL leva o processamento de dados multimodais aos fluxos de trabalho SQL já conhecidos, e a AI Observability oferece ferramentas eficazes de monitoramento e avaliação para dimensionar em escala aplicações de IA generativa. Para fluxos de trabalho tradicionais, o Snowflake ML está tornando mais fácil e flexível para os clientes criar e servir modelos na produção.
Com esses avanços, a Snowflake permite que as organizações transformem com confiança seus dados em ações inteligentes em escala.
Comece a usar o Snowflake para IA com os seguintes recursos:
Produção de modelos de ML: tente criar um fluxo de trabalho de ML completo no Snowflake Notebooks (disponível na versão de avaliação gratuita) ou qualquer IDE de sua preferência.
Declarações prospectivas
Esta página contém declarações prospectivas, inclusive sobre nossas futuras ofertas de produtos. Elas não constituem compromissos de fornecimento ou produção de quaisquer ofertas de produtos. Os resultados e os produtos reais podem diferir e estão sujeitos a riscos e incertezas conhecidos e desconhecidos. Consulte nosso documento 10-Q mais recente para obter mais informações.