Data engineering

Fai di più spendendo meno: nuovi prezzi per Snowpipe e 9 altri modi per risparmiare sui costi del data engineering

Snowflake è lieta di annunciare che il nuovo modello di pricing di Snowpipe, entrato in vigore per le edizioni Business Critical e VPS lo scorso agosto, è ora esteso anche ai clienti delle edizioni Enterprise e Standard. 

Trasferire ai clienti i risparmi ottenuti con Snowpipe è solo una parte dell’impegno di Snowflake nel garantire il massimo valore possibile, ridefinendo l’economia dei dati su scala enterprise. Mentre i costi dei dati e dell’AI continuano a crescere, ecco 10 modi in cui Snowflake può aiutarti a tenere sotto controllo i costi del data engineering. 

Buon risparmio!

1. Ottieni una migliore prevedibilità dei costi con il nuovo modello di pricing di Snowpipe, più semplice e conveniente

A partire dall’8 dicembre 2025, per tutti i clienti Snowflake saranno calcolati 0,0037 crediti per GB su tutti i servizi Snowpipe, inclusi file 1 ingestion e streaming2. Questo aggiornamento rispetto al precedente modello di pricing, basato sulle risorse di calcolo utilizzate e sul numero di file gestiti, renderà molto più semplice prevedere la spesa, mentre il costo inferiore consentirà notevoli risparmi sull’ingestion per la maggior parte dei workload. Sulla base dei benchmark interni relativi al rollout per i clienti BC/VPS di agosto, i clienti stanno già registrando risparmi fino al 50% con il nuovo modello di pricing. E la cosa migliore è che non è richiesto alcun intervento da parte del cliente per beneficiare di questi vantaggi. I clienti iniziano automaticamente a beneficiare dei risparmi sia per l’utilizzo esistente sia per quello nuovo di Snowpipe. 

2. Realizza streaming di livello enterprise con un budget ridotto grazie a Snowpipe Streaming

Per rispondere alle esigenze di pipeline di streaming a bassa latenza, stiamo potenziando le funzionalità di streaming di Snowflake con la nuova architettura Snowpipe Streaming, offrendo un modello di pricing basato sull’utilizzo, completamente serverless, che riduce i costi dei workload in tempo reale ad alto throughput. 

Motorq, un’azienda specializzata in intelligenza sui veicoli connessi, sta passando dai tradizionali job batch a soluzioni più economiche e a bassa latenza con Snowpipe Streaming. Grazie a questa transizione, l’azienda ha ridotto la latenza dei dati da ore a secondi e ridotto del 60% la spesa per l’ingestion. Inoltre, un cliente ha riportato una riduzione fino al 30% dei costi delle risorse lato client grazie al nuovo SDK basato su Rust.

3. Onboard di nuovi dati in totale sicurezza: Prezzi più semplici per l’integrazione dei dati con Snowflake Openflow

La prevedibilità è fondamentale quando si gestiscono pipeline di dati. Con Openflow, abbiamo introdotto un modello di pricing semplice, applicato durante il runtime della pipeline, basato su un importo fisso di crediti per vCPU. Questa trasparenza consente ai team di pianificare il budget con maggiore efficacia, senza compromessi sulle prestazioni. L’impatto sull’efficienza operativa è concreto: Dynata, ad esempio, ha ridotto il time-to-insight di oltre il 75% e il costo di onboarding dei nuovi dataset di oltre il 50%.

4. Unifica l’architettura e riduci i costi con Snowpark Connect per Apache SparkTM

Per gli ambienti Spark gestiti, i costi diretti — come compute e storage — rappresentano spesso il 30%-40% del costo totale. Al tempo stesso, un sorprendente 60%-70% del TCO rimane “intrappolato” in costi indiretti, come la gestione dei cluster. Ora, con Snowpark Connect for Apache SparkTM, puoi eseguire il codice Spark direttamente sul potente motore Snowflake, riducendo drasticamente i costi di trasferimento e di egress dei dati. Questo approccio unifica l’architettura ed elimina l’onere operativo legato al provisioning e alle patch dei cluster.

Booking.com ha ridotto il runtime da 1,5 ore a soli 25 minuti grazie a Snowpark Connect. E Chicago Trading Company ha ottenuto 800.000 dollari di risparmio annuale sul TCO sfruttando l’esecuzione di Snowpark e il motore Snowflake. Snowflake prevede fino al 30% di risparmio sul TCO in tre anni per i clienti che adottano Snowpark Connect rispetto a Spark non gestito da Snowflake.3

5. Semplifica il tuo stack tecnologico con dbt Projects su Snowflake

La gestione di infrastrutture esterne comporta spesso costi aggiuntivi. Eseguendo i progetti dbt in modo nativo, i clienti possono semplificare drasticamente il proprio stack tecnologico, eliminando i costi legati all’hosting e alla gestione dell’infrastruttura dbt core e, in alcuni casi, degli strumenti di orchestrazione esterni. Questo consolidamento migliora l’efficienza complessiva. Chris Androsoff, Director of Data presso l’organizzazione no-profit STARS, ha evidenziato come il consolidamento su un’unica piattaforma abbia migliorato la trasparenza dei costi e permesso agli ingegneri del suo team di concentrarsi sulla creazione di valore in modo più rapido.

6. Migliora l’efficienza delle pipeline con Dynamic Tables

Lo sviluppo delle pipeline è più rapido e le pipeline risultano più affidabili grazie a Dynamic Tables. Questo approccio dichiarativo elimina la necessità di scrivere manualmente logiche di orchestrazione e dipendenze: Snowflake gestisce automaticamente la logica di aggiornamento ed elabora i nuovi dati in modo efficiente tramite aggiornamenti incrementali. Più recentemente, Snowflake ha migliorato l’efficienza delle Dynamic Tables concatenate, rendendo la manutenzione incrementale ancora più efficace. Questo assicura pipeline eseguite nel modo più efficiente possibile, elaborando solo ciò che è necessario senza ricalcolare interi dataset. 

Travelpass, una società di esperienze di viaggio, ha ottenuto un risparmio del 65% passando dalla precedente piattaforma, Databricks (con Delta Live Tables), a Snowflake con Dynamic Tables. La semplicità e la flessibilità di Dynamic Tables consentono a Travelpass di coinvolgere più persone nel processo di data engineering e di fornire dati alle business unit con un’efficienza superiore del 350%.

7. Automatizza la gestione dei dati con le Storage Lifecycle Policies

La conservazione dei dati non dovrebbe richiedere interventi manuali. Le Storage Lifecycle Policies offrono un modo semplice e automatizzato per gestire il ciclo di vita dei dati, dall’archiviazione dei dati “cold” all’eliminazione dei record scaduti. Questa automazione consente di ridurre i costi e supportare la conformità, permettendo ai team di concentrarsi sull’innovazione anziché sull’infrastruttura. Riducendo la complessità operativa, i clienti possono ottenere risparmi significativi sui costi di storage.4 La società di sicurezza di rete Securonix, ad esempio, ha ridotto del 50% i costi complessivi di storage rispetto al precedente formato di cold storage, grazie a tiering ottimizzato e automazione basata su policy.

8. Migliora il movimento globale dei dati con Egress Cost Optimizer (ECO)

La condivisione dei dati tra regioni geografiche comporta solitamente costi elevati. La condivisione cross-cloud dei dati con Egress Cost Optimizer (ECO) offre un modo economicamente vantaggioso di condividere dati tra qualsiasi regione o cloud Snowflake su AWS, GCP e Azure, ottimizzando il routing dei dati. Questa funzionalità consente risparmi potenziali fino al 96% sui costi di egress (nel caso di replica da AWS US West verso tutte le regioni commerciali e governative Snowflake). RavenPack, società di data analytics, è un esempio emblematico: invia dati tra più regioni globali riducendo di 14 volte i costi di condivisione.

9. Abbatti i costosi silos nei sistemi aziendali

Snowflake ti aiuta a ridurre i costi derivanti dalla ridondanza. Unifica fonti di dati aziendali critiche — tra cui ERP, CRM e altre — all’interno dell’AI Data Cloud di Snowflake per eliminare i silos e ridurre copie e pipeline ridondanti. Le integrazioni Zero-Copy bidirezionali con SAP, Salesforce e Workday evitano costosi spostamenti di dati e mantengono le informazioni sempre disponibili dove servono.

10. Crea meno pipeline ed elimina l’ingestion non necessaria con Secure Data Sharing

Per ottenere insight e prepararti all’AI, serve una base dati solida e completa. Tuttavia, molti dati risiedono al di fuori dell’organizzazione — presso clienti, fornitori, partner e altri. Con Secure Data Sharing, se i dati necessari sono già presenti nell’ecosistema Snowflake e condivisi tramite Snowflake Marketplace o Direct Shares, lo storage è a carico del provider, non tuo: ciò ti consente di accedere ai dati a costi inferiori. Inoltre, grazie alla condivisione zero-copy — interoperabile, governata e pronta per l’uso enterprise — eviti i costi di creazione o manutenzione di pipeline dedicate allo spostamento dei dati. 

Scegli Snowflake per risparmiare

Per approfondire i diversi vantaggi aziendali e i risparmi ottenibili con Snowflake, leggi il report Forrester “The Total Economic Impact of the Snowflake AI Data Cloud” e scarica “The Simple Guide to Snowflake Pricing” per maggiori dettagli. 

Per un’esperienza più interattiva, prova il nuovo Snowflake Pricing Calculator, uno strumento online che tiene conto di cloud provider, compute, storage e utilizzo dell’AI per aiutarti a stimare i costi.

Ebook

La nuova guida essenziale al data engineering

I data engineer rappresentano la linfa vitale di ogni organizzazione data-driven. Accelerano il time-to-value ed eliminano i colli di bottiglia che rallentano la produttività. Preparare le pipeline di dati all’AI è essenziale per sfruttare modelli AI e ML e adottare workflow agentici. È quindi fondamentale comprendere e rivalutare l’impatto aziendale del data engineering.

 

1 Per i file di testo (come CSV, JSON e XML) la tariffazione si basa sulle dimensioni non compresse. Per i file binari (come Parquet, Avro e ORC) la tariffazione si basa sulle dimensioni osservate, indipendentemente dalla compressione.

2 L’architettura ad alte prestazioni introduce un modello di prezzo fisso basato sul volume di dati non compressi ingeriti.

3 Il TCO comprende costi diretti (compute cloud, storage, startup a freddo, over-provisioning e trasferimento dati) e indiretti (tempo ingegneristico dedicato a incidenti, riesecuzioni, tuning e coerenza del runtime delle SLA). I costi sono stimati sulla base di una combinazione di casi di successo dei clienti, un report terzo del 2023, le PoC dei clienti e i benchmark interni di Snowflake.

4 Risparmi stimati su una retention superiore a un anno con recupero periodico (10% dei dati ogni sei mesi) per clienti enterprise, basati sui listini AWS US East e una policy semplice.

Articolo di
Condividi articolo

Democratizzare l’enterprise AI: le nuove funzionalità AI di Snowflake accelerano e semplificano ulteriormente l’innovazione data-driven

Snowflake presenta nuove funzionalità di enterprise AI che semplificano l’analisi dei dati, la distribuzione degli agenti e l’addestramento dei modelli, il tutto con una governance unificata.

Healthcare e Pharma: ripensare il contact center per migliorare l’esperienza di pazienti e clienti

In che modo le organizzazioni Healthcare e Pharma possono modernizzare i contact center per ridurre i costi e offrire esperienze personalizzate basate su dati affidabili

Ottimizzare i costi di storage e semplificare la compliance con le Storage Lifecycle Policies, ora in GA

Gestisci automaticamente il ciclo di vita dei dati con le Storage Lifecycle Policies Snowflake (ora in GA) per semplificare la conformità e ridurre i costi di storage.

Cose che conosciamo, cose che non conosciamo e perché i principi sono ancora importanti (anche quando si tratta di dati e AI)

Scopri perché i principi fondamentali del data engineering (pipeline pulite, governance e lineage) sono più importanti che mai per costruire le fondamenta dell’AI.

Espandersi in più regioni e cloud senza costi di egress aggiuntivi

Snowflake Egress Cost Optimizer consente una condivisione sicura ed economica dei dati tra cloud e regioni, riducendo i costi di egress senza latenza aggiuntiva.

I segreti del successo della migrazione da Spark a Snowflake: esperienze e risultati dei clienti

Scopri in che modo Travelpass, CTC e Swire Coca-Cola hanno ottenuto risparmi sui costi, efficienza e affidabilità migrando da un ambiente Spark a Snowflake.

In che modo la data collaboration di Snowflake contribuirà a rendere i Giochi Olimpici e Paralimpici di Los Angeles 2028 i più data-driven di sempre

Snowflake, provider ufficiale per la data collaboration di LA28, contribuisce a realizzare i Giochi Olimpici e Paralimpici più data-driven della storia.

Snowflake annuncia l’intenzione di acquisire Observe per fornire osservabilità basata sull’AI

Snowflake annuncia l’intenzione di acquisire Observe per fornire osservabilità basata sull’AI, ridurre i costi di telemetria e unificare log, metriche e tracce su vasta scala.

Open Semantic Interchange (OSI): l’ecosistema di partner si espande e si riunisce per la prima volta

Open Semantic Interchange (OSI), l’iniziativa per la standardizzazione delle metriche dei dati accoglie nuovi partner come Amazon, Google e DataHub alla prima riunione del gruppo di lavoro.

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Where Data Does More

  • prova gratuita di 30 giorni
  • nessuna carta di credito
  • annulli quando vuoi