Unificando o ciclo de vida da IA para empresas: A Snowflake une forças com AWS e NVIDIA para levar o processamento Blackwell ao AI Data Cloud

Otimizando a AI Data Cloud com NVIDIA Blackwell para proteger a propriedade intelectual proprietária e acelerar o desenvolvimento de IA em todo o ciclo de vida
Historicamente, a IA para empresas tem sido fragmentada, exigindo ambientes isolados para treinamento, inferência e serving. Essa separação frequentemente exige movimentações complexas de dados entre limites de confiança, aumentando os riscos de segurança e a sobrecarga operacional. A Snowflake, em colaboração com a Amazon Web Services (AWS) e a NVIDIA, está enfrentando esses desafios ao unificar o ciclo de vida da IA dentro do Snowflake AI Data Cloud.
As GPUs NVIDIA RTX PRO™ 6000 Blackwell Server Edition estarão disponível em breve na plataforma Snowflake em regiões AWS selecionadas com instâncias Amazon EC2 G7e. Essa integração posiciona o processamento visual e de IA generativa de alta performance diretamente adjacente aos dados corporativos. Ao incorporar o processamento de classe NVIDIA Blackwell à arquitetura Snowflake, os clientes podem criar modelos de IA, agentes e aplicações poderosos que exigem processamento de alto throughput — tudo dentro de um perímetro de segurança governado, exatamente onde seus dados residem.
Uma plataforma para o ciclo de vida da IA
Com este lançamento, a Snowflake vai além de oferecer instâncias mais rápidas para entregar uma plataforma coesa que suporta as diversas latências e fluxos de trabalho exigidos pelas equipes modernas de IA, ao mesmo tempo em que reduz o custo total de propriedade (TCO) por meio de maior velocidade operacional:
Snowflake Container Runtime para treinamento e carga de dados: Cientistas de dados agora podem usar Snowflake Notebooks para aprovisionar contêineres com GPU para desenvolvimento interativo e implantação simplificada no Snowflake ML. Esse ambiente oferece acesso à aceleração de GPU sem alterações de código para fluxos de trabalho com pandas e scikit-learn, usando as bibliotecas NVIDIA cuDF e cuML. Ele também suporta treinamento distribuído escalável, permitindo que as equipes iniciem jobs de treinamento PyTorch multinó em clusters Blackwell com configuração mínima. Para alimentar essas GPUs exigentes, o Snowflake ML DataConnector permite a leitura paralelizada de dados não estruturados, como imagens e PDFs, diretamente dos Stages do Snowflake, garantindo utilização ideal da GPU sem gargalos de I/O.
Implantação flexível com inferência em tempo real e em lote: Para aplicações voltadas ao usuário que exigem latência de milissegundos, os modelos podem ser implantados no Snowpark Container Services (SPCS) para inferência em tempo real. Para processamento massivo de dados, como a pontuação de milhões de registros históricos, a plataforma utiliza Snowpark-Optimized Warehouses com suporte planejado para a arquitetura NVIDIA Blackwell.
Contexto semântico como ponte para a precisão: A IA de nível empresarial exige um grau de precisão que modelos genéricos não conseguem alcançar de forma isolada. A arquitetura NVIDIA Blackwell acelera os loops de raciocínio de alta velocidade necessários para o Snowflake Intelligence. Ao trazer processamento acelerado para a camada semântica do Snowflake, as empresas garantem que os modelos compreendam a lógica de negócios e o "significado" específico por trás de seus dados, eliminando a lacuna de precisão e atingindo o limiar exigido para a tomada de decisões em produção.
Um novo padrão para o processamento corporativo
A GPU NVIDIA RTX PRO 6000 Blackwell foi projetada para as demandas intensivas de grandes modelos de linguagem e fluxos de trabalho multimodais. Cada GPU oferece 96 GB de memória GDDR7, suportando modelos com mais de 70 bilhões de parâmetros e modelos de visão e linguagem (VLMs) em uma única placa, minimizando a latência de comunicação entre GPUs.
A inclusão de Tensor Cores de quinta geração com suporte nativo a FP4 oferece até 5x mais throughput de inferência em comparação com gerações anteriores. Essa arquitetura otimiza a camada de processamento para precisão e latência em implantações de IA.
Tanto a NVIDIA RTX PRO 6000 Blackwell Server Edition quanto a nova GPU NVIDIA RTX PRO 4500 Blackwell Server Edition estarão disponíveis em breve para os clientes Snowflake.
Caso de uso: Inteligência multimodal para dados não estruturados no setor de seguros
Grandes seguradoras gerenciam milhões de sinistros anualmente, combinando dados estruturados com volumes massivos de ativos não estruturados, como fotos de acidentes em alta resolução e laudos manuscritos. Para criar sistemas de recuperação inteligentes sobre esses dados, as organizações precisam de um pipeline capaz de ingerir, incorporar e analisar arquivos complexos em escala sem esbarrar em limites de memória ou I/O:
Ingestão de cópia zero em escala: A ingestão de 100.000 laudos de acidentes por dia cria um enorme gargalo de I/O para sistemas tradicionais. O Snowflake ML resolve isso usando o DataConnector ou o acesso dinâmico a arquivos do Snowpark como parte de funções definidas pelo usuário com código personalizado para transmitir e analisar arquivos em paralelo, diretamente dos Stages do Snowflake. Esse pipeline utiliza os 96 GB de memória GDDR7 da RTX PRO Blackwell 6000 para processar grandes lotes de imagens em alta resolução diretamente na memória. Ao realizar o redimensionamento e a normalização diretamente na GPU, sem gravar em disco, a Snowflake permite que a fase de transformação de dados acompanhe as capacidades de processamento.
Treinamento multimodal simplificado: Para "compreender" um sinistro, os modelos precisam mapear danos visuais e texto em um espaço vetorial unificado. Os cientistas de dados podem usar o Snowflake Notebooks para iniciar jobs de treinamento PyTorch distribuído para modelos de embedding personalizados (como o CLIP) diretamente sobre os dados. A Snowflake abstrai a complexidade do gerenciamento de cluster, enquanto a arquitetura Blackwell subjacente acelera o processo de treinamento. Essa combinação permite que as equipes treinem com milhões de pares de sinistros em horas, e não em dias, com os artefatos de modelo resultantes versionados automaticamente no Snowflake Model Registry para inferência escalável.
Implantação unificada para prevenção de fraudes: Após o treinamento, o modelo atua como núcleo de um pipeline de detecção de fraudes. Com uma implantação em um único clique, os cientistas de dados podem usar as APIs do Snowflake ML para publicar o modelo no Snowpark Container Services para inferência em tempo real ou em um warehouse virtual com Snowpark para processamento em lote. Essa flexibilidade permite que o mesmo hardware Blackwell alimente análises históricas de alta largura de banda de milhares de sinistros anteriores ou a avaliação de baixa latência de novos uploads de imagens, tudo isso mantendo a governança e o rastreamento de linhagem fornecidos pelo Snowflake Horizon.
Caso de uso: Otimização acelerada de portfólio em finanças quantitativas
As equipes de pesquisa utilizam o Snowflake Notebooks e a precisão FP4 do NVIDIA Blackwell para realizar backtesting de estratégias de negociação com décadas de dados alternativos não estruturados (áudio, imagens) em alta velocidade. Isso permite a geração rápida de sinais negociáveis em um ambiente de dados governados, proporcionando uma vantagem de velocidade significativa. Ao abandonar o processamento tradicional e lento, as empresas agora conseguem realizar otimizações complexas de portfólio em tempo quase real, atingindo velocidades até 80x mais rápidas do que antes. Essa abordagem unificada permite que os traders tomem decisões mais rápidas e baseadas em dados, mantendo as informações sensíveis seguras e governadas em uma única plataforma. Explore a arquitetura.
Primeiros passos
Expanda os casos de uso de IA de alto throughput integrando GPUs NVIDIA Blackwell ao Snowflake hoje mesmo. As GPUs NVIDIA RTX PRO 6000 Blackwell estão disponíveis em regiões AWS selecionadas com instâncias Amazon EC2 G7e; as instâncias com GPUs NVIDIA RTX PRO 4500 Blackwell estarão disponíveis em breve. A documentação de implantação e os guias de início rápido serão publicados em breve. Confira os recursos a seguir para saber mais:
Leia sobre aplicações reais das GPUs NVIDIA Blackwell para casos de uso em serviços financeiros nesta publicação no blog.
Experimente acelerar fluxos de trabalho com scikit-learn e pandas usando GPUs por meio da integração da Snowflake com as bibliotecas CUDA-X da NVIDIA.
Descubra como usar ML agêntico para criar e implementar modelos de IA/ML prontos para produção no Snowflake.
Declarações prospectivas
Este artigo contém declarações prospectivas, incluindo sobre nossas futuras ofertas de produtos, e não constituem compromissos de entrega de quaisquer ofertas de produtos. Os resultados e as ofertas reais podem diferir e estão sujeitos a riscos e incertezas conhecidos e desconhecidos. Consulte nosso último relatório 10-Q para mais informações.


