Desenvolvimento de aplicativos de LLM rápido, fácil e seguro com o Snowflake Cortex
A inteligência artificial generativa (GenAI) e os grandes modelos de linguagem (large language models, LLMs) estão revolucionando o modo de trabalhar em todo o mundo. A Snowflake tem o prazer de anunciar uma linha de produtos inovadores que combinam a facilidade de uso, a segurança e a governança de nossa plataforma com o mundo da IA generativa. Por meio dessas novas ofertas, qualquer usuário poderá incorporar LLMs aos seus processos analíticos em questão de segundos; os desenvolvedores poderão criar aplicativos baseados em IA generativa com extrema rapidez ou executar fluxos de trabalho avançados em poucas horas, como ajustar modelos básicos em dados empresariais. Tudo isso realizado dentro do perímetro de segurança do Snowflake. Esses avanços possibilitam que analistas e desenvolvedores de todos os níveis de habilidade levem a IA generativa aos dados empresariais já governados e seguros.
Agora, vamos nos aprofundar em todos os recursos que os desenvolvedores podem usar para levar as vantagens da IA generativa até seus dados empresariais com segurança e facilidade usando Snowflake.
Para levar a IA generativa com segurança aos seus dados já governados, os clientes Snowflake têm acesso a dois componentes fundamentais:
Snowflake Cortex. O Snowflake Cortex (disponível em versão preliminar privada) é um serviço inteligente totalmente gerenciado que oferece acesso aos principais modelos do setor de inteligência artificial (IA), LLMs e funcionalidade de pesquisa de vetores para que as organizações possam analisar dados e criar aplicativos de IA com rapidez. Para que as empresas criem rapidamente aplicativos de LLM que compreendam seus dados, o Snowflake Cortex fornece aos usuários acesso a um conjunto crescente de funções que não precisam de servidor e que permitem a realização de inferências nos principais LLMs generativos do setor, como o modelo Llama 2 da Meta AI. Ele também oferece modelos específicos de tarefas para acelerar a análise de dados e funcionalidade avançada de pesquisa vetorial.
Tudo o que o Snowflake Cortex tem a oferecer não se limita apenas aos desenvolvedores. Ele também é o serviço subjacente que possibilita experiências embasadas em LLM com uma interface de usuário totalmente finalizada. Dentre essas experiências estão o Document AI, o Snowflake Copilot e o Universal Search (todos em versão preliminar privada).
Snowpark Container Services. Esse runtime adicional do Snowpark (disponível em versão preliminar pública e em breve para determinadas regiões do AWS) permite que os desenvolvedores implementem, gerenciem e dimensionem com facilidade modelos e cargas de trabalho em contêineres personalizados para tarefas, como ajuste de LLMs de fonte aberta, usando a infraestrutura gerenciada pelo Snowflake com instâncias de unidades de processamento gráfico (GPU). Tudo isso dentro dos limites de uma conta Snowflake. Saiba mais e mantenha-se atualizado.
Com esses dois componentes, os desenvolvedores têm poder ilimitado para criar aplicativos de LLM sem precisar mover os dados dos limites governados pelo Snowflake.
Use IA em questão de segundos
Para democratizar o acesso a dados empresariais e à IA, e para que esses recursos não sejam somente usados por alguns especialistas, a Snowflake fornece inovação para qualquer usuário conseguir usar LLMs de última geração sem integrações personalizadas ou desenvolvimento de front-end. Isso inclui experiências completas baseadas em interface do usuário (user interface, UI), como o Snowflake Copilot, e acesso a funções SQL e Python baseadas em LLMs que podem acelerar a análise de dados de maneira econômica com modelos especializados e de uso geral disponíveis por meio do Snowflake Cortex. Saiba mais aqui.
Crie aplicativos de LLM com seus dados, em poucos minutos
Agora, em questão de minutos, os desenvolvedores podem criar aplicativos de LLM que aprendem as nuances específicas dos seus negócios e dados, sem precisar de integrações, implementação manual de LLM ou gerenciamento de infraestrutura baseada em GPU. Para criar esses aplicativos de LLM personalizados com seus dados, usando a geração aumentada de recuperação (retrieval augmented generation, RAG) de maneira nativa dentro do Snowflake, os desenvolvedores podem usar:
Funções do Snowflake Cortex. Por ser um serviço totalmente gerenciado, o Snowflake Cortex garante que todos os clientes tenham acesso aos componentes básicos necessários para o desenvolvimento de aplicativos de LLM, sem gerenciamento de infraestruturas complexas.
Isso inclui um conjunto de funções de uso geral que utilizam LLMs de código aberto líderes do setor e LLMs proprietários de alto desempenho para facilitar o suporte imediato da engenharia a uma ampla variedade de casos de uso. Os modelos iniciais incluem:
- Complete (em versão preliminar privada): os usuários podem executar um prompt e selecionar o LLM que desejam usar. Nessa versão preliminar privada, os usuários poderão escolher entre três tamanhos de modelos do Llama 2 (7B, 13B e 70B).
- Text to SQL (em versão preliminar privada): gera SQL a partir de linguagem natural, usando o mesmo Snowflake LLM que possibilita a experiência do Snowflake Copilot.
Além disso, essas funções incluem incorporação de vetores e funcionalidade de pesquisa semântica, para que os usuários possam contextualizar facilmente as respostas do modelo com seus dados para criar aplicativos personalizados em minutos. Isso inclui:
- Embed Text (em breve, em versão preliminar privada). Essa função transforma uma determinada informação textual em incorporações de vetores usando um modelo de incorporação escolhido pelo usuário.
- Vector Distance (em breve, em versão preliminar privada). Para calcular a distância entre vetores, os desenvolvedores terão três opções de função: similaridade por cosseno - vector_cosine_distance(), norma L2 - vector_l2_distance() e produto interno - vector_inner_product().
- Native Vector Data Type (em breve, em versão preliminar privada). Para possibilitar que essas funções sejam executadas com os seus dados, o vetor agora passa a ser um tipo de dado nativamente compatível no Snowflake, além de todos os outros tipos de dados com compatibilidade nativa.
Streamlit in Snowflake (em versão preliminar pública). Com o Streamlit, as equipes podem acelerar ainda mais a criação de aplicativos de LLM, com a capacidade de desenvolver interfaces com apenas algumas linhas de código Python e sem necessidade de experiência em front-end. Esses aplicativos podem ser implementados e compartilhados com segurança em toda a organização por meio de URLs que utilizam controles de acesso baseados em função no Snowflake, podendo ser gerados com apenas um clique. Saiba mais aqui.
Snowpark Container Services. implemente interfaces de usuário personalizadas, ajuste LLMs de código aberto e muito mais
Para que os desenvolvedores possam personalizar ainda mais os aplicativos de LLM, praticamente não há limites para o que pode ser criado e implementado no Snowflake usando o Snowpark Container Services (em breve, em versão preliminar pública para determinadas regiões do AWS). Essa opção de runtime adicional do Snowpark permite que os desenvolvedores implementem, gerenciem e dimensionem com total facilidade suas cargas de trabalho em contêiner (tarefas, serviços, funções de serviço) usando uma infraestrutura segura e gerenciada pelo Snowflake com opções de hardware configuráveis, como as GPUs NVIDIA.
Veja, a seguir, algumas das outras adaptações mais comuns que os desenvolvedores podem fazer em um aplicativo de LLM, sem que os dados precisem ser movidos dos limites seguros e governados pelo Snowflake:
- Implementar e ajustar LLMs de código aberto e bancos de dados vetoriais. O emparelhamento de uma infraestrutura alimentada por GPU com o Snowpark Model Registry facilita a implementação, o ajuste e o gerenciamento de qualquer LLM de código aberto ou a execução de um banco de dados vetorial de código aberto, como o Weaviate, com a simplicidade do Snowflake e dentro dos limites seguros da sua conta.
- Usar aplicativos comerciais, LLMs e bancos de dados vetoriais. Por fazer parte da integração da versão preliminar privada com o Snowflake Native Apps, o Snowpark Container Services pode ser usado para executar aplicativos sofisticados inteiramente na conta Snowflake. Alguns exemplos deles podem ser os LLMs comerciais da AI21 Labs ou da Reka.ai, os principais notebooks do mercado, como o Hex, as ferramentas avançadas de LLMOps da Weights & Biases, os bancos de dados vetoriais, como o Pinecone, e muitos outros. Clique aqui para saber mais sobre as novidades em desenvolvimento de aplicativos no Snowflake.
- Desenvolver UIs personalizadas para aplicativos de LLM. O Snowpark Container Services oferece o que há de melhor em flexibilidade para desenvolvedores empresariais que criam aplicativos de LLM. Se eles quiserem criar front-ends personalizados usando estruturas como o REactJS, tudo o que precisarão fazer será implementar a imagem de um contêiner com seu código para disponibilizá-lo no Snowflake.
Recursos para iniciar
Com o Snowflake, agora ficou fácil para que os usuários obtenham valor de seus dados empresariais de maneira rápida e segura usando LLMs e IA. Caso deseje colocar a IA em uso imediatamente em questão de segundos ou ter a flexibilidade de criar aplicativos de LLM personalizados em poucos minutos, o Snowflake Cortex, o Streamlit e o Snowpark Container Services fornecem os componentes básicos necessários sem que você precise mover os dados dos limites seguros e governados pelo Snowflake. Para mais informações sobre como começar a usar esses recursos, confira:
- Criar aplicativos usando o Streamlit in Snowflake.
- Saiba mais sobre o Snowpark Container Services e mantenha-se atualizado sobre as novidades em versão preliminar pública.
- Para acessar todas as versões preliminares, entre em contato com sua equipe de vendas.