Da Spark a Snowpark per il data engineering

Migra le pipeline Spark con cambiamenti minimi al codice e riduci le spese operative generali grazie a un motore di elaborazione elastico che supporta Python, Java e Scala in modo nativo.

Two project leads standing and looking at a tablet

Programma come in PySpark. Velocizza l’esecuzione.

Sviluppa le trasformazioni dei dati e una business logic personalizzata dal tuo ambiente di sviluppo integrato o dal notebook che preferisci con la Snowpark API. Esegui il codice in sicurezza nei runtime di Snowflake per un’elaborazione elastica, performante e governata.

Digram showing how users can develop code from any IDE with the Snowpark API

Da Spark a Snowpark Panoramica

DataFrame API

Crea le query con DataFrame tipo Spark dal tuo ambiente di sviluppo integrato e invia e delega l’elaborazione al motore di elaborazione elastico di Snowflake.

User Defined Functions

Esegui la tua logica personalizzata scritta in Python o Java direttamente in Snowflake con UDF che puoi migrare da Spark apportando modifiche minime al codice.

Stored procedures

Implementa e orchestra le tue pipeline e la tua logica personalizzata direttamente all’interno di Snowflake e rendile disponibili ai tuoi utenti SQL.

La piattaforma Snowflake

parla più linguaggi

L’originale architettura dati condivisa multi‑cluster di Snowflake è alla base delle prestazioni, dell’elasticità e della governance di Snowpark.

Le testimonianze degli sviluppatori Snowpark

I clienti migrano da Spark a Snowpark per ottenere pipeline di dati scalabili e governate.

Interventi minimi sul codice

“Volevamo passare a Snowpark per migliorare le prestazioni e ci siamo riusciti con estrema facilità. Convertire il codice PySpark in Snowpark è stato semplice come cambiare un’istruzione di importazione.”

Principal Data Engineer, Homegenius

Migliore rapporto prezzo‑prestazioni

“Prima dovevamo spostare i dati per elaborarli con altri linguaggi e reimportare i risultati per renderli accessibili. Adesso con Snowpark abbiamo portato l’elaborazione ai dati. Lavorando sulla piattaforma unificata Snowflake abbiamo ottimizzato l’architettura e migliorato il rapporto costi/efficacia delle pipeline di data engineering e delle app intelligenti.”

Sr. Director Clinical Data Analytics, IQVIA

Spese operative generali ridotte

“Con le nostre precedenti piattaforme basate su Spark, avevamo raggiunto il punto in cui sarebbe stato difficile scalare e non riuscivamo più a rispettare gli SLA sul carico di lavoro. Con Snowflake, la separazione tra capacità di calcolo e archiviazione rende tutto molto più semplice.”

Senior Manager of Data Platforms, EDF