
Snowpark DataFrame-Programmierung
Schulungskurs
Arbeiten Sie auf kollaborative Weise an denselben Daten mit einer optimierten Architektur. In unserem eintägigen Kurs lernen Sie die wichtigsten Konzepte von Snowpark Dataframe-Programmierung kennen und erfahren, wie Sie sie umsetzen können.
Snowpark:
Erweitern Sie Ihre Skills
Dieser eintägige Kurs deckt in detaillierten Lektionen, Demos, interaktiven Workshops und Diskussionen wichtige Konzepte, Funktionen und Programmierkonstrukte von Snowpark ab.
* Dieser Kurs wird sowohl öffentlich als auch privat angeboten und setzt grundlegendes Wissen in Programmiersprachen wie Python, Java oder Scala voraus. Weitere Informationen zu den Voraussetzungen finden Sie im Kurs-Datasheet.
Optimierung Ihrer Datenprojekte
Erfahren Sie, wie Sie über ein Snowpark Session-Objekt eine Verbindung zu Snowflake herstellen und Datenquellen als Snowpark-DataFrame-Objekte abfragen können.
Der Unterschied zwischen client- und serverseitigen Funktionen von Snowpark
Entdecken Sie Snowflakes End-to-End-Verschlüsselung, die ein sicheres System für das Datenmanagement im Cloud-Speicher bietet.
Entwicklung besserer Pipelines und Datenmodelle
Erreichen Sie optimierte Abfragen und nahtlose Umwandlungen, indem Sie lernen, wie Sie Code als User-Defined Functions (UDFs) erstellen können, um ihn zu teilen und wiederzuverwenden.
Was ist Snowpark?
Ein Entwickler-Toolkit, mit dem Sie direkt in Snowflake programmieren können. Dieses Toolkit umfasst drei Komponenten: DataFrame API, Stored Procedures und User-Defined Functions. Snowpark eröffnet Ihnen völlig neue Möglichkeiten mit Ihren Daten.
Warum lohnt sich der Kurs?
Warum sollten Sie allein lernen, wenn Ihnen eine Gruppe hochqualifizierter und erfahrener Expert:innen bereitsteht. Mit unserer Schritt-für-Schritt-Anleitung lernen Sie all die technischen Details kennen, die Sie brauchen, um schnell in Snowpark einzusteigen und effektiv darin zu arbeiten.
Wer sollte am Kurs teilnehmen?
Alle Entwickler:innen, die über funktionale Snowflake-Kenntnisse verfügen – insbesondere diejenigen, die Daten-Pipelines, Data-Science-Modelle, Datenanalytik-Lösungen oder Daten-Apps mit Sprachen wie Python, Scala oder Java entwickeln.