Partecipa a Build.local a Milano per imparare come costruire una pipeline di dati con cui processare dati provenienti da fonti diverse e come eseguire periodicamente la pipeline per aggiornare le tue tabelle dati in Snowflake.
Durante questo workshop di mezza giornata gratuito:
- Userai stage e tabelle per caricare e organizzare i dati grezzi S3 all’interno di Snowflake
- Sfrutterai i DataFrame Snowpark per Python per eseguire trasformazioni di dati come group by, aggregate e join per preparare i tuoi dati per le applicazioni a valle
- Userai le Snowflake Python Tasks API per trasformare il codice delle tue pipeline di dati in pipeline operative con monitoraggio integrato
- Parteciperai a sessioni tecniche create da sviluppatori per gli sviluppatori
- Incontrerai altri esperti di dati della community Snowflake
Partecipa a Build.local a Milano per imparare come costruire una pipeline di dati con cui processare dati provenienti da fonti diverse e come eseguire periodicamente la pipeline per aggiornare le tue tabelle dati in Snowflake.
Durante questo workshop di mezza giornata gratuito:
- Userai stage e tabelle per caricare e organizzare i dati grezzi S3 all’interno di Snowflake
- Sfrutterai i DataFrame Snowpark per Python per eseguire trasformazioni di dati come group by, aggregate e join per preparare i tuoi dati per le applicazioni a valle
- Userai le Snowflake Python Tasks API per trasformare il codice delle tue pipeline di dati in pipeline operative con monitoraggio integrato
- Parteciperai a sessioni tecniche create da sviluppatori per gli sviluppatori
- Incontrerai altri esperti di dati della community Snowflake
AGENDA
Introduzione e benvenuto
Snowflake per gli sviluppatori
Panoramica del moderno data engineering con Snowflake
Hands-On Lab: Data engineering con Snowpark Python
In questo lab, costruiremo una pipeline di data engineering utilizzando Snowpark Python, caricheremo i dati da uno stage esterno con Snowflake Dynamic File Access, useremo i dati del Marketplace Snowflake e orchestreremo la pipeline di dati attraverso Snowflake Tasks.