Que ce soit pour créer une startup ou une application qui consomme beaucoup de données, tirer parti d’une plateforme de données cloud et des technologies Machine Learning est essentiel pour continuer d’innover et maintenir son avantage concurrentiel.
Rejoignez Snowflake et AWS pour une session interactive d’une demi-journée.
Durant cet atelier, vous découvrirez les différentes étapes du développement d’une application Streamlit permettant l’exploitation de Snowpark External Access, et ainsi permettre l’intégration entre Snowflake et Amazon Bedrock. Cela vous permettra de créer des messages marketing personnalisés et d’améliorer vos recommandations de produits !
A QUI EST DESTINÉ CET ÉVÉNEMENT ?
- Aux Data Engineers, DBAs et Architectes Data.
- Aux développeurs cherchant à intégrer l’apprentissage automatique à leurs applications Data
- Aux Data Scientists cherchant à intégrer des données Snowflake à leur workflow ML
CE QUE VOUS APPRENDREZ
Les exercices de cet atelier vous guideront à travers les différentes étapes pour :
- Configurer des environnements à la fois dans Snowflake et AWS
- Créer une fonction qui exploite Snowpark External Access pour faire un appel à Amazon Bedrock
- Créer une application Streamlit qui s’appuie sur la fonction ci-dessus pour générer des réponses à l’aide des données de Snowflake
CONDITIONS PRÉALABLES
- Familiarité avec le langage de programmation Python.
INFORMATIONS LOGISTIQUES
- Date: Mardi 27 janvier 2026
- Heure: 14h-17h
- Lieu: Station F – 5 Parvis Alan Turing, 75013 Paris
En collaboration avec :

Que ce soit pour créer une startup ou une application qui consomme beaucoup de données, tirer parti d’une plateforme de données cloud et des technologies Machine Learning est essentiel pour continuer d’innover et maintenir son avantage concurrentiel.
Rejoignez Snowflake et AWS pour une session interactive d’une demi-journée.
Durant cet atelier, vous découvrirez les différentes étapes du développement d’une application Streamlit permettant l’exploitation de Snowpark External Access, et ainsi permettre l’intégration entre Snowflake et Amazon Bedrock. Cela vous permettra de créer des messages marketing personnalisés et d’améliorer vos recommandations de produits !
A QUI EST DESTINÉ CET ÉVÉNEMENT ?
- Aux Data Engineers, DBAs et Architectes Data.
- Aux développeurs cherchant à intégrer l’apprentissage automatique à leurs applications Data
- Aux Data Scientists cherchant à intégrer des données Snowflake à leur workflow ML
CE QUE VOUS APPRENDREZ
Les exercices de cet atelier vous guideront à travers les différentes étapes pour :
- Configurer des environnements à la fois dans Snowflake et AWS
- Créer une fonction qui exploite Snowpark External Access pour faire un appel à Amazon Bedrock
- Créer une application Streamlit qui s’appuie sur la fonction ci-dessus pour générer des réponses à l’aide des données de Snowflake
CONDITIONS PRÉALABLES
- Familiarité avec le langage de programmation Python.
INFORMATIONS LOGISTIQUES
- Date: Mardi 27 janvier 2026
- Heure: 14h-17h
- Lieu: Station F – 5 Parvis Alan Turing, 75013 Paris
En collaboration avec :

INSCRIVEZ-VOUS
-
Elizabeth den Dulk
Solution Engineer, Snowflake
-
Ahmed Rachid Hazourli
Solution Engineer, Snowflake
-
Louis Hourcade
Solutions Architect, Startups, AWS