BUILD: The Dev Conference for AI & Apps (Nov. 12-14)

Hear the latest product announcements and push the limits of what can be done in the AI Data Cloud.

WORKLOADS

Snowflake für Data Engineering

Erstellen Sie leistungsstarke Streaming- und Stapeldaten-Pipelines in SQL oder Python. Unterstützen Sie Data Engineering für KI und ML, Apps und Analytik und erzielen Sie so eine 4,6-fach schnellere Performance – und das bei Gewährleistung vollständiger Governance und Kontrolle.

Vereinfachung komplexer Data-Engineering-Anforderungen

Erstellen Sie Streaming- und Stapeldaten-Pipelines auf einer einzigen Plattform mit der Leistung von deklarativen Pipelines und kosteneffizienter inkrementeller Aktualisierung.  

Beseitigung unnötiger Pipelines dank Data Sharing

Greifen Sie über den Snowflake Marketplace direkt auf einsatzbereite Live-Daten aus Tausenden von Datasets und Apps zu, ohne Pipelines erstellen zu müssen. 

Programmierung in bevorzugter Sprache – mit nur einer optimierten Engine

Programmieren Sie z. B. in Python oder SQL und nutzen Sie anschließend zur Ausführung die Multi-Cluster-Rechenressourcen von Snowflake. Keine separate Infrastruktur erforderlich. 

So funktioniert es

Datenstreaming mit einer Latenzzeit von weniger als 10 Sekunden

Streaming- und Stapeldaten-Systeme werden oft getrennt gehalten und sind in der Regel komplex zu verwalten und kostspielig zu skalieren. Doch mit Snowflake können Sie in einem einzigen System sowohl Streaming- als auch Stapeldaten unkompliziert erfassen und umwandeln. 

Streamen Sie mit Snowpipe Streaming zeilenweise Daten nahezu in Echtzeit mit einer Latenz im einstelligen Bereich oder erfassen Sie Dateien automatisch mit Snowpipe. Zur Steigerung der Skalierbarkeit und Kosteneffizienz erfolgt beides serverlos.

Stream data with less than 10 second latency
Adjust latency with single parameter change

Latenzanpassung mit einer einzigen Parameteränderung

Mit Dynamic Tables können Sie SQL oder Python verwenden, um Datenumwandlungen deklarativ zu definieren. Snowflake verwaltet die Abhängigkeiten und stellt automatisch Ergebnisse auf der Grundlage Ihrer Ziele hinsichtlich Aktualität bereit. In Dynamic Tables können nur die Daten verarbeitet werden, die sich seit der letzten Aktualisierung geändert haben, um große Datenmengen und komplexe Pipelines einfacher und kosteneffizienter zu gestalten.

Je nach Geschäftsanforderungen können Sie eine Stapeldaten-Pipeline problemlos in eine Streaming-Pipeline umwandeln, indem Sie eine einzige Änderung an den Latenzparametern vornehmen.

Data Engineering für Analytik, KI/ML und Applikationen

Bringen Sie Ihre Workloads zu den Daten, um die Pipeline-Architektur zu optimieren und die Notwendigkeit einer separaten Infrastruktur zu eliminieren. 

Bringen Sie Ihren Code zu den Daten, um eine Vielzahl von Geschäftsanforderungen zu erfüllen – von der Beschleunigung von Analytics über die Entwicklung von Apps bis hin zur Optimierung der Nutzung von generativer KI und LLMs. Mit den Bibliotheken und Laufzeitumgebungen von Snowpark kann dieser Code in der von Ihnen bevorzugten Sprache erstellt werden, einschließlich Python, Java oder Scala.

Snowflake Platform
diagram showing code development in any IDE and code execution in Snowflake's engine

4,6-fach schnellere Performance und 35 % Kosteneinsparung – ohne Kompromisse bei der Governance

Führen Sie Python und anderen Programmiercode neben Ihren Daten in Snowflake aus, um Daten-Pipelines zu erstellen. Schieben Sie die Verarbeitung automatisch in mehrsprachige Laufzeitumgebungen, die direkt in die elastische Rechen-Engine von Snowflake integriert sind.

STARTHILFE FÜR DATA ENGINEERING MIT WENIGER DATEN-PIPELINES

Mit der AI Data Cloud steht Ihnen ein riesiges Netzwerk von Daten und Applikationen zur Verfügung.

Greifen Sie einfach auf Daten und Applikationen zu und stellen Sie sie mit direktem Zugriff auf Live-Datasets aus dem Snowflake Marketplace zur Verfügung. So reduzieren Sie die Kosten und den Aufwand, die mit herkömmlichen ETL-Pipelines (Extrahieren, Transformieren und Laden) und API-basierten Integrationen einhergehen. Oder verwenden Sie einfach die nativen Konnektoren von Snowflake, um Daten reibungslos und ohne zusätzliche Lizenzkosten einzubinden. 

snowflake trail dashboard

EIN OPTIMIERTER WEG ZUR PRODUKTION MIT INTEGRIERTEN DEVOPS-FUNKTIONEN

Importieren Sie Projektkonfigurationen und Pipelines direkt aus Git und stellen Sie sie bereit. Stellen Sie die Konsistenz Ihrer Datenbanken sicher – durch automatisiertes Änderungsmanagement (Erstellen, Ändern, Ausführen) in Produktionsumgebungen. Verwalten Sie Snowflake-Ressourcen programmgesteuert mithilfe von Python-APIs.* Automatisieren Sie Tasks innerhalb Ihrer CI/CD-Pipeline (z. B. GitHub Actions) mit Snowflake CLI. Dies ermöglicht Ihnen die Zusammenarbeit, Versionsverwaltung und nahtlose Integration direkt in Snowflake oder in Ihre vorhandenen DevOps-Tools. Außerdem erhalten Sie mit Snowflake Trail mühelose Beobachtbarkeit.

 

* in Public Preview

ANWENDUNGSFÄLLE

Brechen Sie Streaming- und Stapeldatensilos auf

Nutzen Sie ein einziges System, um Streaming- und Stapeldaten zu erfassen und umzuwandeln.
UNSERE KUNDSCHAFT

Führende Unternehmen nutzen Snowflakefür Data Engineering

Durch die Migration ihres Data-Engineering-Workloads zu Snowpark ist OpenStore jetzt in der Lage, 20-mal mehr Daten zu verarbeiten, bei gleichzeitiger Reduzierung der betrieblichen Belastung und 100-prozentiger PySpark-Codeparität.

87 %

eingesparte Pipeline-Laufzeit

80 %

weniger Arbeitsstunden für die technische Wartung erforderlich

ice logo
sanofi
power digital
cortex
siemens

Keine Silosbei der Entwicklung

Bringen Sie mehr Workloads, Benutzer:innen und Anwendungsfälle direkt zu Ihren Daten – alles in der AI Data Cloud.

ErsteSchritte

Hier finden Sie alle Data-Engineering-Ressourcen, die Sie für die Erstellung von Pipelines mit Snowflake benötigen.

Snowflake Quickstarts logo

Quickstarts

Mit den Snowflake-Tutorials für Data Engineering können Sie sofort loslegen.

Virtual Hands on Labs

Virtual Hands-On Lab

Nehmen Sie an einem geleiteten Virtual Hands-On Lab teil, um zu erfahren, wie Sie Daten-Pipelines mit Snowflake einrichten können.

Snowflake Community logo

Snowflake-Community

Treffen Sie führende Datenexpert:innen im weltweiten Netzwerk der Snowflake-Community im Forum und in den Snowflake-Nutzergruppen und erwerben Sie neues Wissen.

Starten Sie Ihre 30-tägigekostenlose Testversion

Testen Sie Snowflake 30 Tage kostenlos und erleben Sie die Data Cloud – ohne die Komplexität, Kosten und Beschränkungen anderer Lösungen.