Fin dalle origini. Le idee che hanno costruito Snowflake, e quello che verrà

Fare parte del team che ha fondato Snowflake rende straordinario vedere come ciò che avevamo immaginato oltre un decennio fa sia oggi la base dell’agentic enterprise emergente. Nel 2016 abbiamo pubblicato un articolo che delineava una visione ambiziosa di come il mondo della tecnologia e dei dati nel cloud avrebbe potuto essere trasformato. Un decennio dopo, siamo onorati che questo lavoro abbia ricevuto il SIGMOD Test-of-Time Award 2026, offrendoci l’opportunità di riesaminare l’articolo e riflettere su come il nostro pensiero abbia plasmato l’azienda che Snowflake è oggi e la direzione verso cui ci stiamo muovendo.
Nel nostro articolo abbiamo delineato tre principi fondamentali che hanno guidato la creazione di Snowflake:
Unificare tutti i dati. Volevamo sviluppare una piattaforma in grado di unificare i dati strutturati (i tradizionali data warehouse) con i dati semi‑strutturati su scala petabyte (big data, come Hadoop), consentendo un’analisi fluida senza compromettere i principi fondamentali dei database: SQL di prima classe, integrità transazionale e accesso in tempo reale.
Sfruttare l’elasticità e la scalabilità del cloud. Utilizzando la capacità di calcolo on-demand e una scalabilità virtualmente illimitata, Snowflake poteva gestire tutti i dati e i workload, eliminando definitivamente i tradizionali silos di dati.
Semplicità e facilità d’uso. Erogato come servizio cloud completamente gestito, il nostro obiettivo era eliminare la complessità operativa della gestione dell’infrastruttura dati, così che gli utenti potessero concentrarsi sugli insight, non sulla manutenzione.
Sebbene queste idee fossero ambiziose nel 2012, quando abbiamo fondato Snowflake, hanno gettato le basi per l’innovazione e lo sviluppo tecnologico che ne sono seguiti negli anni.
L’anno in cui abbiamo reinventato la piattaforma dati
Nel 2012 abbiamo iniziato a ripensare l’architettura della piattaforma dati dalle fondamenta.
I sistemi esistenti erano vincolati da presupposti che nel cloud non avevano più senso. All’epoca, il software era legato all’hardware su cui girava. L’accoppiamento stretto tra capacità di calcolo e archiviazione creava compromessi tra prestazioni, gestione di utenti concorrenti e costi. L’architettura cloud lo ha liberato da quel vincolo.
All’epoca, abbiamo preso la decisione consapevole di separare la capacità di calcolo dall’archiviazione, in modo completo e senza compromessi.
Ben più di una semplice scelta architetturale, ha permesso di eliminare in modo radicale i compromessi che avevano caratterizzato i sistemi dati per decenni. Disaccoppiando la capacità di calcolo dall’archiviazione, abbiamo eliminato la contesa delle risorse come fattore limitante. La capacità di calcolo poteva scalare in modo indipendente, rimanere isolata e supportare più workload che operano sugli stessi dati, simultaneamente e senza interferenze. Quello che in precedenza era un vincolo è diventato improvvisamente un vantaggio competitivo.
Ci siamo anche impegnati a costruire cloud-native fin dal primo giorno, con il cloud object storage come base fondamentale. Con la crescente importanza dei formati di dati semi‑strutturati come JSON, era evidente che un supporto parziale avrebbe solo perpetuato le difficoltà. Rendere questi dati pienamente accessibili tramite SQL era essenziale per ampliare la platea di chi poteva lavorare con i dati, non solo per una questione di flessibilità. Si trattava di democratizzare l’accesso in modo concreto.
Infine, abbiamo introdotto i virtual warehouse, cluster di calcolo elastici e indipendenti che scalano su richiesta, trasformando completamente il modello. Invece di adattare i workload a un’infrastruttura fissa, l’infrastruttura poteva finalmente adattarsi in tempo reale alle esigenze del business.
Come diceva spesso il mio co-founder Thierry Cruanes: “Il sistema deve adattarsi al workload, non il contrario”.
Non si trattava di ottimizzazioni, ma di decisioni architetturali che hanno definito il sistema.
Trasformare l’architettura in impatto
Le idee sono la parte facile. L’esecuzione è quella difficile.
Nei nostri primi anni, la sfida non era solo sviluppare la piattaforma, ma aiutare il mercato a capire perché fosse importante. Molti utenti erano abituati a ottimizzare i sistemi attorno a una capacità fissa e a gestire la contesa come un dato di fatto, ma eravamo convinti che quei vincoli fossero artefatti di architetture obsolete.
Dimostrare la validità del nostro approccio richiedeva coerenza:
Le prestazioni dovevano essere prevedibili.
La scalabilità doveva funzionare automaticamente.
Gli utenti dovevano fidarsi del sistema.
E tutto doveva essere semplice da utilizzare. Le funzionalità si possono sempre aggiungere, ma eliminare la complessità richiede disciplina. In definitiva, è stato il nostro focus radicale sulla semplicità a consentire a Snowflake di rendere i sistemi accessibili, favorendo un’adozione su larga scala.
Nel tempo, l’utilizzo da parte dei clienti si è evoluto. Quello che era iniziato come reporting e analisi dei dati si è ampliato alla condivisione dei dati, alla collaboration, alle pipeline continue, al machine learning e ai workload di intelligenza artificiale. Le organizzazioni che inizialmente utilizzavano Snowflake per workload analitici ora sviluppano applicazioni direttamente sulla piattaforma, utilizzando la stessa architettura e gli stessi principi che avevamo descritto nel 2016.
Alimentare l’agentic enterprise
Con l’intelligenza artificiale sempre più integrata in ogni settore, stiamo entrando nel prossimo cambiamento architetturale: l’agentic enterprise.
Nell’ultimo decennio, Snowflake ha aiutato le organizzazioni a consolidare i propri dati su un’unica piattaforma.
Molte delle decisioni architetturali che abbiamo preso erano considerate non convenzionali, ma sono ora diventate standard di settore. La separazione tra capacità di calcolo e archiviazione, la scalabilità elastica e il supporto nativo per i dati semi‑strutturati non sono più elementi differenzianti: sono requisiti di base per i sistemi moderni.
La missione continua: il sistema affronta ora task più complessi e il ruolo della piattaforma dati si è ampliato. Abilitiamo la condivisione sicura dei dati, alimentiamo applicazioni e costituiamo la base per sistemi sempre più intelligenti, non più focalizzati esclusivamente sull’archiviazione e l’interrogazione dei dati.
Oggi quei dati sono al centro di tutto. Il focus delle imprese è sfruttarne tutto il valore, e l’intelligenza artificiale sta accelerando il modo in cui i dati vengono utilizzati, consultati e trasformati in azioni.
Gli agenti di intelligenza artificiale sono già operativi nel customer support, nella finanza, nelle vendite e nelle operations. Con l’accelerazione dell’adozione, emerge una sfida familiare. Questi sistemi vengono spesso sviluppati in silos, senza contesto condiviso, governance coerente o coordinamento, con conseguente frammentazione, fiducia limitata e impatto ridotto.
Questa è la prossima barriera da abbattere.
Oggi le aziende richiedono un nuovo livello architetturale: un “control plane” che colleghi l’intelligenza ai dati aziendali, fornisca un contesto condiviso, applichi la governance e coordini le azioni tra i sistemi.
Per molti versi, si tratta di una naturale evoluzione di ciò che ci eravamo proposti di costruire fin dall’inizio. L’importanza dei dati come unica fonte di verità non fa che crescere in un mondo di sistemi autonomi. Ora non si tratta più solo di separare la capacità di calcolo dall’archiviazione. Si tratta di connettere dati, intelligenza e azione in modo coordinato.
La prossima frontiera è rendere reale l’agentic enterprise, connettendo dati, intelligenza e azione in modo fluido su scala enterprise.
Nessuno di questi risultati è frutto di una singola idea o di un singolo team.
Questo riconoscimento racchiude anni di lavoro inter-funzionale tra i team di engineering, prodotto e go-to-market, guidati dalla collaborazione con i clienti che continuano a spingere il sistema in nuove direzioni.
Fin dall’inizio, la centralità del cliente è stato un valore fondamentale per Snowflake, e continuerà a guidarci nel futuro. I nostri clienti plasmano il modo in cui sviluppiamo sistemi più semplici da utilizzare e più efficienti da gestire, così da cogliere un valore straordinario dai loro dati e aiutarli ad avere successo.
Sarebbe un’omissione non riconoscere gli straordinari collaboratori il cui contributo è stato fondamentale per questo lavoro, anch’essi insigniti di questo premio: Vadim Antonov, Artin Avanes, Jon Bock, Jonathan Claybaugh, Daniel Engovatov, Martin Hentschel, Jiansheng Huang, Allison W. Lee, Ashish Motivala, Abdul Q. Munir, Steven Pelley, Peter Povinec, Greg Rahn, Spyridon Triantafyllis, Phillipp Unterbrunner e Marcin Zukowski. Grazie per la vostra collaborazione.
Guardando agli ultimi dieci anni, è innegabile che il mondo sia cambiato. L’intelligenza artificiale sta ridefinendo il possibile, trasformando il modo in cui sviluppiamo e operiamo. Mentre il panorama continua a evolversi, il nostro impegno verso l’innovazione e verso i nostri clienti rimane costante. Non potrei essere più entusiasta di ciò che ci aspetta.

