Que ce soit pour créer une startup ou une application qui consomme beaucoup de données, tirer parti d’une plateforme de données cloud et des technologies Machine Learning est essentiel pour continuer d’innover et maintenir son avantage concurrentiel.

Rejoignez Snowflake et AWS pour une session interactive d’une demi-journée. Durant cet atelier, vous découvrirez les différentes étapes du développement d’une application Streamlit permettant l’exploitation de Snowpark External Access, et ainsi permettre l’intégration entre Snowflake et Amazon Bedrock. Cela vous permettra de créer des messages marketing personnalisés et d’améliorer vos recommandations de produits !

 

A QUI EST DESTINÉ CET ÉVÉNEMENT ?

  • Aux Data Engineers, DBAs et Architectes Data.
  • Aux développeurs cherchant à intégrer l’apprentissage automatique à leurs applications Data
  • Aux Data Scientists cherchant à intégrer des données Snowflake à leur workflow ML

 

CE QUE VOUS APPRENDREZ 

Les exercices de cet atelier vous guideront à travers les différentes étapes pour : 

  • Configurer des environnements à la fois dans Snowflake et AWS
  • Créer une fonction qui exploite Snowpark External Access pour faire un appel à Amazon Bedrock
  • Créer une application Streamlit qui s’appuie sur la fonction ci-dessus pour générer des réponses à l’aide des données de Snowflake

 

CONDITIONS PRÉALABLES

  • Connaissance de Snowflake et compte Snowflake avec accès à Streamlit
  • Compte AWS
  • Le compte AWS doit être un compte Sandbox avec des politiques de réseau ouvertes ou vous devez créer un VPC dans la même région que le compte Snowflake.
  • Dans le VPC, créez des sous-réseaux avec une passerelle internet pour permettre le trafic sortant vers l’internet en utilisant une table de routage et un groupe de sécurité pour le trafic sortant.
  • Remarque : assurez-vous d’utiliser une région Amazon Bedrock prise en charge.
  • Familiarité avec le langage de programmation Python.
  • (Facultatif) accès à Sagemaker Canvas pour affiner un modèle Bedrock.

 

INFORMATIONS LOGISTIQUES

  • 7 Novembre 2024
  • 14h – 17h
  • Bureaux Snowflake : Morning, Pont de Neuilly. 179 Av. Charles de Gaulle, 92200 Neuilly-sur-Seine

 

En collaboration avec :

Que ce soit pour créer une startup ou une application qui consomme beaucoup de données, tirer parti d’une plateforme de données cloud et des technologies Machine Learning est essentiel pour continuer d’innover et maintenir son avantage concurrentiel.

Rejoignez Snowflake et AWS pour une session interactive d’une demi-journée. Durant cet atelier, vous découvrirez les différentes étapes du développement d’une application Streamlit permettant l’exploitation de Snowpark External Access, et ainsi permettre l’intégration entre Snowflake et Amazon Bedrock. Cela vous permettra de créer des messages marketing personnalisés et d’améliorer vos recommandations de produits !

 

A QUI EST DESTINÉ CET ÉVÉNEMENT ?

  • Aux Data Engineers, DBAs et Architectes Data.
  • Aux développeurs cherchant à intégrer l’apprentissage automatique à leurs applications Data
  • Aux Data Scientists cherchant à intégrer des données Snowflake à leur workflow ML

 

CE QUE VOUS APPRENDREZ 

Les exercices de cet atelier vous guideront à travers les différentes étapes pour : 

  • Configurer des environnements à la fois dans Snowflake et AWS
  • Créer une fonction qui exploite Snowpark External Access pour faire un appel à Amazon Bedrock
  • Créer une application Streamlit qui s’appuie sur la fonction ci-dessus pour générer des réponses à l’aide des données de Snowflake

 

CONDITIONS PRÉALABLES

  • Connaissance de Snowflake et compte Snowflake avec accès à Streamlit
  • Compte AWS
  • Le compte AWS doit être un compte Sandbox avec des politiques de réseau ouvertes ou vous devez créer un VPC dans la même région que le compte Snowflake.
  • Dans le VPC, créez des sous-réseaux avec une passerelle internet pour permettre le trafic sortant vers l’internet en utilisant une table de routage et un groupe de sécurité pour le trafic sortant.
  • Remarque : assurez-vous d’utiliser une région Amazon Bedrock prise en charge.
  • Familiarité avec le langage de programmation Python.
  • (Facultatif) accès à Sagemaker Canvas pour affiner un modèle Bedrock.

 

INFORMATIONS LOGISTIQUES

  • 7 Novembre 2024
  • 14h – 17h
  • Bureaux Snowflake : Morning, Pont de Neuilly. 179 Av. Charles de Gaulle, 92200 Neuilly-sur-Seine

 

En collaboration avec :

INSCRIVEZ-VOUS

SPEAKERS
  • Elizabeth den Dulk

    Sales Engineer, Snowflake

  • Ahmed Rachid Hazourli

    Sales Engineer, Snowflake