snowflake graphic on blue gradient background

Programação Snowpark DataFrame

Curso de formação

Neste curso de um dia, aprenda e implemente conceitos-chave de programação do Snowpark Dataframe para colaborar com os mesmos dados em uma arquitetura simplificada.

Snowpark:

aprenda mais

Este curso de um dia apresenta conceitos-chave do Snowpark, bem como seus recursos e configurações de programação, com aulas detalhadas, demonstrações, laboratórios interativos e discussões.

*O curso é oferecido em formato público e privado e exige proficiência básica em linguagens de programação, como Python, Java e Scala. Para obter mais informações sobre os pré-requisitos necessários, leia a ficha técnica do curso.

Tire mais proveito dos projetos de dados

Saiba como se conectar ao Snowflake usando um objeto de sessão e fontes de dados de consulta do Snowpark, como objetos do Snowpark DataFrame.

Compare os recursos do Snowpark para clientes e para servidores

Descubra a criptografia completa do Snowflake que oferece um sistema seguro para gerenciar dados armazenados na nuvem.

Crie melhores pipelines e modelos de dados

Obtenha consultas simplificadas e conversões contínuas aprendendo a criar códigos compartilhados e reutilizáveis como funções definidas pelos usuários (user-defined functions, UDFs).

O que é o Snowpark?

Um kit de ferramentas para desenvolvedores que integra capacidade de programação direto no Snowflake. Há três pilares de sustentação: uma DataFrame API, procedimentos armazenados e funções definidas pelo usuário. O Snowpark permite que as organizações tirem o máximo proveito dos dados.

Por que fazer o curso?

Por que estudar sozinho, se você pode estudar com nosso grupo de instrutores altamente treinados e experientes? Com a orientação passo a passo de um instrutor, você terá uma exposição muito maior a todas as informações técnicas necessárias para começar a trabalhar no Snowpark de forma rápida e eficaz.

Quem deve fazer o curso?

Todos os profissionais interessados em aprender a desenvolver usando o Snowpark, principalmente aqueles que criam pipelines de dados, modelos de ciência de dados, soluções de análise de dados ou aplicações de dados usando linguagens de programação, como Python, Scala ou Java.