Hands-On Lab
Von Spark zu Snowpark für Data Engineering
Migrieren Sie Spark-Pipelines mit minimalen Codeänderungen und reduzieren Sie den betrieblichen Overhead mit einer elastischen Verarbeitungs-Engine, die Python, Java und Scala unterstützt.

Programmieren wie mit PySpark, aber mit schnellerer Ausführung
Entwickeln Sie mit der Snowpark API Datenumwandlungen und individuelle Geschäftslogiken in beliebigen integrierten Entwicklungsumgebungen oder Notebooks. Führen Sie Code sicher in den Snowflake-Laufzeitumgebungen für Rechenressourcen aus, um eine elastische, leistungsstarke und kontrollierte Verarbeitung zu erreichen.
Von Spark zu Snowpark Übersicht
DataFrame API
Nutzen Sie beliebige integrierte Entwicklungsumgebungen, um Abfragen mit Spark-ähnlichen DataFrames zu erstellen, und führen Sie die Verarbeitung in der elastischen Snowflake-Engine aus.
User-Defined Functions
Führen Sie benutzerdefinierte Logiken, die Sie in Python oder Java geschrieben haben, direkt in Snowflake aus – mit User Defined Functions (UDFs), die Sie mit minimalen Codeänderungen aus Spark migrieren können.
Stored Procedures
Operationalisieren und orchestrieren Sie Ihre Pipelines und individuellen Logiken direkt in Snowflake und stellen Sie sie Ihren SQL-Nutzenden zur Verfügung.
Snowflake-Plattform für
mehrere Sprachen
Die einzigartige Multi-Cluster Shared Datenarchitektur von Snowflake sorgt für die nötige Performance, Elastizität und Governance in Snowpark.
Das sagen unsere Snowpark-Entwickler:innen
Kunden migrieren von Spark zu Snowpark, um skalierbare, kontrollierte Daten-Pipelines zu erreichen.

Minimale Codeänderungen
„Wir wollten aus Performancegründen zu Snowpark wechseln und die Umstellung war wirklich einfach. Für die Umwandlung unseres PySpark-Codes in Snowpark mussten wir einfach nur einen Importbefehl ändern.“
Principal Data Engineer, Homegenius

Besseres Preis-Performance-Verhältnis
„Früher mussten wir die Daten bewegen, um sie mit anderen Sprachen zu verarbeiten, und dann das Ergebnis zurückbringen, um es zugänglich zu machen. Mit Snowpark bringen wir nun die Verarbeitung zu den Daten, optimieren so unsere Architektur und machen unsere Data-Engineering-Pipelines und intelligenten Anwendungen kosteneffektiver, da die Verarbeitung innerhalb von Snowflake, unserer einheitlichen Plattform, erfolgt.“
Sr. Director Clinical Data Analytics, IQVIA

Weniger betriebliche Gemeinkosten
„Bei unseren vorherigen Spark-basierten Plattformen kam der Punkt, an dem die Skalierung schwierig wurde und wir unsere Load-SLAs nicht einhalten konnten. Dies ist erheblich einfacher mit Snowflake dank der Trennung von Speicher und Rechenressource. Seit der Migration haben wir alle SLAs einhalten können.“