MAR 06, 2025|Leitura: 5 min
Dimensione análises de texto não estruturados em escala com inferência eficiente de LLM em lote

No mundo corporativo, textos não estruturados estão em todos os lugares: avaliações de clientes, tíquetes de suporte, transcrições de chamadas e documentos. Grandes modelos de linguagem (large language models, LLMs) estão transformando a forma como extraímos valor desses dados ao executar tarefas desde a categorização até o resumo e muito mais. Embora a IA tenha provado que conversas em linguagem natural em tempo real são possíveis com LLMs, extrair insights de milhões de conjuntos de dados não estruturados usando esses LLMs pode ser um divisor de águas. É nesse momento que a inferência de LLMs em lote torna-se indispensável.
Neste artigo, você vai obter insights sobre casos de uso comerciais mais comuns para análise de dados de texto em grande escala. Você também vai descobrir por que a implementação de pipelines de LLMs em lote pode ser desafiadora e como a Snowflake otimizou o Snowflake Cortex AI para inferência em lote via funções de SQL.
Quais são os trabalhos mais comuns de inferência de LLMs em lote?
Diversas equipes de uma organização podem usar a inferência de LLM em lote para extrair insights de grandes volumes de dados de texto. As equipes de inteligência do cliente analisam as avaliações e os comentários do fórum para identificar tendências de percepção, enquanto as equipes de suporte processam tíquetes para descobrir problemas com os produtos e informar as falhas de roteiro de desenvolvimento de um produto. Ao mesmo tempo, as equipes de operações usam a extração de entidades de documentos para automatizar fluxos de trabalho e permitir filtragem analítica com base em metadados. Veja a seguir alguns exemplos de como diferentes equipes podem usar LLMs para extrair insights de grandes volumes de dados de textos não estruturados.
Marcação (tagging) e classificação de texto: categorização automática de tíquetes de suporte, emails, artigos de notícias ou avaliações de produtos com base em sentimento, tópico ou urgência.
Extração de entidades: extração de entidades-chave (nomes, datas, locais, dados financeiros) de contratos, faturas ou registros médicos para transformar texto não estruturado em dados estruturados.
Análise de tendências e de sentimento: análise de feedback do cliente, respostas de pesquisa ou discussões de mídias sociais em escala para detectar tendências, medir sentimento e tomar decisões de negócios embasadas.
Moderação de conteúdo: verificação de grandes conjuntos de dados (publicações em mídias sociais, logs de chat, feedback do cliente) em busca de violações de políticas, conteúdo prejudicial ou problemas de conformidade regulatória.
Resumo do documento: gerar resumos concisos para grandes volumes de relatórios, trabalhos de pesquisa, documentos jurídicos ou transcrições de reuniões.
Preparação do documento para RAG: ingerir, limpar e fragmentar documentos antes de incorporá-los às representações vetoriais, possibilitando uma recuperação eficiente e melhores respostas de LLM em sistemas de geração aumentada de recuperação (retrieval augmented generation, RAG).
Qualidade dos dados de texto: validação de vários campos de texto, como preenchimento de formulários, fornecendo contexto sobre as melhores combinações de entrada, para permitir que os LLMs detectem anomalias e registros incorretos visando melhorar a qualidade dos dados.
Engenharia de recursos: extração, categorização e transformação de texto não estruturado em recursos estruturados, aprimorando modelos de aprendizado de máquina com contexto e insights avançados.
Por que pipelines de LLM em lote eficientes são importantes
"Os LLMs estão transformando o local de trabalho" é mais do que apenas um slogan. Pense nisto: categorizar 10.000 tíquetes de suporte levaria cerca de 55 horas (considerando 20 segundos por tíquete) para o funcionário mais rápido da equipe. Com um pipeline de LLM otimizado, a mesma tarefa leva minutos. Não se trata de uma melhoria gradual, mas um ganho na eficiência revolucionário, que economiza milhares de horas de trabalho e otimiza enormemente os tempos de resposta.
Conforme os volumes de dados crescem e a automação de IA expande, a eficiência de custos no processamento com LLMs depende tanto da arquitetura do sistema quanto da flexibilidade do modelo. Um sistema eficiente de processamento em lote é dimensionado de forma econômica para lidar com volumes crescentes de dados não estruturados. Ser capaz de mudar de LLMs de forma flexível ajuda as empresas a otimizar os custos, dimensionando os modelos corretamente em escala para cada caso de uso e atualizando facilmente conforme os modelos melhoram.
E para criar eficiências significativas em tecnologia e equipe, as organizações precisam pensar nas oportunidades de integrar pipelines de LLM aos fluxos de trabalho de dados estruturados já existentes. Expandir os atuais investimentos em gerenciamento, processamento e orquestração de pipeline simplifica a arquitetura e reduz a complexidade operacional decorrente do trabalho de integração e manutenção da infraestrutura. Essa unificação também pode permitir aos engenheiros de dados, que já gerenciam pipelines estruturados, integrar e manter facilmente fluxos de trabalho de dados não estruturados.
Executar pipelines de inferência em lote com eficiência com o Cortex AI
A Headset mudou um de seus pipelines de categorização em lote, que estava funcionando com um provedor líder de inferência de LLM API (Fireworks AI), e viu a execução de tarefas passar de 20 minutos para 20 segundos usando a função de inferência do Snowflake Cortex COMPLETE.
Ao usar a função Snowflake Cortex COMPLETE, os desenvolvedores podem executar a inferência de LLM em lote com funções SQL que não precisam de bancos de dados intermediários ou lambdas para obter processamento confiável e de alto rendimento com escolha de modelo flexível.


Casos de sucesso de clientes
Com o Snowflake, a Nissan conseguiu agilizar dois meses do cronograma de projeto de uma aplicação de inteligência voltada para analisar o sentimento dos clientes em avaliações e fóruns para ajudar as empresas de varejo a melhorar seus produtos e serviços. Assista ao webinar sob demanda.
Em apenas dois dias, a Skai implementou uma ferramenta de categorização para dar a seus clientes melhores insights sobre os padrões de compra, desenvolvendo categorias que fazem sentido em várias plataformas de comércio eletrônico. Ler o estudo de caso.
Leia mais histórias em nosso ebook de casos de sucesso dos clientes.
Começar agora
Confira esses recursos e mantenha-se atualizado sobre a inferência sem servidor para mais tipos de dados.
Para você
FEB 12, 2025|Leitura: 10 min
JAN 09, 2025|Leitura: 4 min
Simplificando a análise multimodal de dados com o Snowflake Cortex AI
Combine dados estruturados e não estruturados com facilidade usando o Snowflake Cortex AI. Analise textos, imagens, áudio e vídeo para obter insights mais detalhados com SQL simples.
Como as instituições de serviços financeiros devem pensar em dados não estruturados
Veja por que os dados não estruturados são cruciais para as estratégias de IA para as empresas de serviços financeiros. Saiba como processar e usar dados para gerar mais valor para o cliente com o uso de inteligência artificial.
Crie melhores pipelines de dados: criação e orquestração com SQL e Python no Snowflake
Veja os novos recursos para ajudar engenheiros de dados a criar e organizar pipelines de dados dimensionáveis em escala com SQL e Python, simplificando fluxos de trabalho e aumentando a agilidade.
Os dados da sua empresa precisam de um agente
O Snowflake Cortex Agents, uma estrutura de orquestração totalmente gerenciada, obtém insights de dados estruturados e não estruturados para tomar decisões precisas e dimensionáveis.
IA para o setor de esportes: estratégia de jogo para o sucesso baseado em dados
Como a IA vem transformando os esportes, desde a interação personalizada com os fãs até a análise avançada de desempenho, com uma estratégia de dados moderna para obter sucesso.
Diskover, com apoio da Snowflake Ventures, permite às empresas ter visibilidade total de seus acervos de dados herdados
Saiba como a Diskover, apoiada pela Snowflake Ventures, permite que as empresas obtenham visibilidade total dos acervos de dados herdados, melhorando a disponibilidade dos dados para IA e análise de dados.
Snowflake Intelligence: todo o seu conhecimento + um agente corporativo de confiança.
O Snowflake Intelligence, um agente de inteligência corporativa, ajuda todos os usuários a responder a perguntas complexas em linguagem natural para obter insights práticos a partir de seus dados corporativos.
Lançamento: DeepSeek-R1 agora em versão preliminar no Snowflake Cortex AI
DeepSeek-R1 no Snowflake Cortex AI: um modelo de código aberto de alto desempenho otimizado para tarefas de matemática, código e raciocínio. Acesse por meio de SQL, Python ou REST API.
Snowflake Startup Spotlight: ROE AI
Hear from Richard Meng, co-founder of ROE AI, about how his company is using AI agents to extract actionable intelligence from unstructured data.




