Spark vers Snowpark pour le data engineering

Migrez les pipelines Spark avec un minimum de modifications du code et réduisez les frais opérationnels grâce à un moteur de traitement élastique qui prend en charge Python, Java et Scala en mode natif.

Two project leads standing and looking at a tablet

Programmez comme avec Pyspark, exécutez plus rapidement

Développez des transformations de données et une logique métier personnalisée à partir de votre environnement de développement intégré ou du notebook de votre choix en utilisant l’API Snowpark. Enfin, exécutez le code en toute sécurité dans les environnements d’exécution de calcul de Snowflake pour un traitement élastique, performant et gouverné.

Digram showing how users can develop code from any IDE with the Snowpark API

Spark vers Snowpark Présentation

API Dataframe

Créez des requêtes à l’aide de DataFrames de type Spark à partir de l’environnement de développement intégré de votre choix et transférez le traitement vers le moteur de traitement élastique de Snowflake.

Fonctions définies par l’utilisateur

Exécutez une logique personnalisée écrite en Python ou en Java directement dans Snowflake à l’aide de fonctions définies par l’utilisateur (UDF) pouvant être migrées depuis Spark avec un minimum de modifications du code.

Procédures stockées

Opérationnalisez et orchestrez vos pipelines avec votre logique personnalisée directement dans Snowflake, puis mettez‑les à la disposition de vos utilisateurs de SQL.

La plateforme Snowflake

pour plusieurs langages

L’architecture de données partagées multi‑cluster unique de Snowflake alimente la performance, l’élasticité et la gouvernance de Snowpark.

Découvrez les témoignages de développeurs Snowpark

Les clients migrent de Spark vers Snowpark pour des pipelines de données évolutifs et gouvernés.

Des modifications minimes du code

« Nous voulions passer à Snowpark pour des raisons de performance et cela a été très facile. La conversion de notre code PySpark à Snowpark a été aussi simple qu’un changement dans une déclaration d’importation. »

Principal Data Engineer, Homegenius

Un meilleur rapport prix‑performances

« Avant, nous devions déplacer les données pour les traiter avec d’autres langages, puis importer les résultats pour les rendre accessibles. Maintenant, avec Snowpark, le traitement des données a lieu directement dans Snowflake, là où se trouvent les données. Avec une seule plateforme, notre architecture est plus simple, et nos pipelines de data engineering et nos applications intelligentes plus rentables. »

Sr. Director Clinical Data Analytics, IQVIA

Des frais opérationnels réduits

« Nos précédentes plateformes basées sur Spark devenaient difficiles à faire évoluer et nous ne pouvions plus respecter nos SLA de charge. Snowflake nous facilite grandement la tâche, car le calcul et le stockage sont indépendants. Nous avons toujours respecté nos SLA depuis la migration. »

Senior Manager of Data Platforms, EDF