Data engineering

Colmare il divario tra Oracle e Snowflake AI: Snowflake Openflow Connector per Oracle è ora in GA

I database Oracle alimentano alcune delle operazioni aziendali più critiche al mondo, dalle supply chain globali alla sanità fino al trading finanziario in tempo reale. Con Cortex Code e Openflow, i dati Oracle sono ora connessi al resto dei dati aziendali in Snowflake, consentendoti di creare agenti AI con pieno contesto in pochi minuti.

Tradizionalmente, i team dati potevano accedere ai dati transazionali Oracle solo tramite ETL batch o piattaforme CDC complesse, con insight ritardati per le dashboard operative. Le architetture CDC multi-hop aumentavano complessità, costi e rischio operativo. I clienti volevano ridurre l’overhead tecnologico ed evitare piattaforme costose, beneficiando al contempo di dati in tempo quasi reale e movimenti a bassa latenza.

Ascoltando queste esigenze, siamo entusiasti di annunciare la GA di Snowflake Openflow Connector per Oracle, sviluppato in collaborazione con Oracle. Si tratta di un’integrazione completamente gestita, nativa e agentless che trasmette i dati direttamente dalla tua istanza Oracle a Snowflake, senza richiedere la gestione di infrastrutture di replica di terze parti aggiuntive. Il Snowflake Openflow Connector per Oracle è disponibile da oggi in tutte le regioni commerciali AWS con deployment Bring Your Own Cloud (BYOC) e nelle regioni commerciali AWS e Azure con deployment Snowflake

Convalidato in produzione dai clienti

Non ci siamo limitati a rendere questo connettore compatibile con Oracle, lo abbiamo progettato per supportare i requisiti di scalabilità dei grandi ambienti enterprise. Durante la preview, i clienti hanno testato i limiti dell’architettura e i risultati parlano da soli.

Yes Energy offre analisi in tempo quasi reale che accelerano le decisioni nel mercato dell’energia

Per Yes Energy, leader nei dati del mercato elettrico, “veloce” non era abbastanza veloce. L’azienda doveva migrare enormi set di dati storici in Snowflake per alimentare le proprie analisi. Utilizzando lo snapshot parallelo dell’Openflow Connector, Yes Energy ha registrato una significativa riduzione dei tempi di caricamento.

Quote Icon

L’ottimizzazione che abbiamo riscontrato con questa nuova integrazione è rivoluzionaria per la nostra pipeline. Le prestazioni iniziali di caricamento delle istantanee con questo connettore rappresentano un enorme miglioramento per il nostro flusso di prodotto principale. In precedenza, per caricare una tabella ci volevano più di 10 giorni; ora l'operazione si completa in sole 5 ore e 40 minuti. Inoltre, per una tabella con 130 milioni di righe il tempo necessario è passato da 14 ore a una sola.

Dan Goodman
Staff Engineer, Yes Energy

Prestazioni elevate, impatto ridotto

Il timore di ogni DBA è che uno strumento di replica influisca sulle prestazioni del database di origine. Abbiamo progettato l’Openflow Connector per essere un “buon cittadino” nella tua rete.

  • Latenza in tempo quasi reale: Le modifiche vengono acquisite da Oracle tramite XStream in tempo quasi reale e trasmesse continuamente a Snowflake, con i dati che arrivano nella tabella journal di Snowflake entro pochi secondi dal commit sull’origine. In combinazione con cicli di merge a livello di minuto, il connettore ha raggiunto una latenza end-to-end P90 inferiore a 2 minuti. Nei test interni di stress, questo risultato è rimasto stabile su 600 tabelle a 15.000 modifiche al secondo per 18 ore consecutive.1
  • Impatto minimo sull’origine: Il connettore utilizza l’API XStream nativa di Oracle per acquisire le modifiche direttamente dal redo log, un approccio basato su log che evita interrogazioni sulle tabelle di origine. Nei test interni di stress HammerDB TPC-C su Oracle 19c con workload OLTP ad alto throughput sostenuto, l’attivazione della cattura delle modifiche ha comportato un overhead CPU trascurabile e un impatto inferiore al millisecondo sulla latenza di commit delle transazioni.

Partnership di fiducia con Oracle

La connessione di sistemi mission-critical richiede fiducia e affidabilità. Il Snowflake Openflow Connector per Oracle è il risultato di una stretta collaborazione tra Snowflake e Oracle, progettato fin dall’inizio per workload enterprise. Questa partnership offre i seguenti vantaggi:

  • Oracle CDC nativo: Il connettore integra nativamente la tecnologia di change data capture di Oracle, con licenza OEM direttamente da Oracle, per leggere i logical change record (LCR) dal server XStream outbound in tempo quasi reale. Questo sfrutta la tecnologia di change data capture basata su XStream di Oracle, utilizzata anche nelle soluzioni di replica Oracle.
  • Modello di supporto semplificato: I clienti interagiscono con Snowflake come unico punto di contatto, mentre un partner Oracle fornisce supporto diretto per i componenti Oracle quando necessario. In questo modo si riducono i passaggi tra fornitori e si consente una risoluzione coordinata dei problemi.
  • Sostegno di due leader di settore: Per Snowflake, il connettore sblocca una fonte di dati enterprise critica per l’AI Data Cloud Snowflake. Per Oracle, estende la portata di Oracle Database nei moderni ecosistemi cloud e AI.
  • Affidabilità enterprise per l’AI: I clienti ottengono un’architettura best-of-breed che porta i dati transazionali Oracle affidabili in Snowflake in tempo quasi reale, supportata da due vendor impegnati congiuntamente nel successo a lungo termine.

Insieme, Snowflake e Oracle aiutano i clienti a passare da sistemi transazionali isolati a dati pronti per l’AI, senza compromettere prestazioni o affidabilità sull’origine.

Perché la natività è importante

Poiché il connettore opera sul framework Snowflake Openflow, beneficia degli stessi controlli di governance e della potenza di calcolo elastica che ti aspetti dall’AI Data Cloud:

  • Architettura agentless: Non è necessario installare alcun software sui server Oracle. La connettività può essere configurata utilizzando opzioni di rete privata come AWS PrivateLink o Azure Private Link.
  • Scalabilità: Il connettore scala automaticamente le risorse per gestire picchi nella generazione dei log, aiutandoti a tenere il passo durante le ore di trading di punta o eventi stagionali.
  • Operazioni semplificate: Configura il tuo Openflow Connector per Oracle con Cortex Code in pochi secondi. Gestisci la replica direttamente dal control plane Snowflake Openflow e monitora utilizzando Snowflake SQL nativo, avvisi o una dashboard Streamlit.

Per comprendere la filosofia ingegneristica alla base di questa architettura e in cosa differisce radicalmente dal middleware legacy, leggi l’annuncio della private preview pubblicato insieme a Oracle.

Dalla connettività agli agenti AI, in un’unica conversazione

Storicamente, configurare Oracle CDC era un progetto di più giorni che richiedeva competenze DBA specialistiche, come la configurazione dei server XStream outbound, il dimensionamento dei redo log, l’impostazione del supplemental logging e la risoluzione di criptici errori ORA-. Con Cortex Code, l’agente di coding potenziato dall’AI di Snowflake, questa complessità si riduce a un flusso di lavoro guidato e conversazionale.

Cortex Code include una skill dedicata al connettore Oracle, progettata appositamente per comprendere la tua architettura. Ti guida passo dopo passo nei prerequisiti XStream, generando l’SQL esatto necessario al tuo DBA, verifica la configurazione, distribuisce il connettore, convalida il flusso dei dati e risolve eventuali problemi. Ciò che prima richiedeva un runbook e un ticket di supporto ora avviene in un’unica sessione di terminale.

Ma il vero salto di qualità avviene dopo l’atterraggio dei dati. Poiché Cortex Code comprende sia il livello di connettività sia lo stack AI Snowflake, la stessa conversazione che configura la pipeline Oracle può immediatamente creare un servizio Cortex Analyst sui dati replicati, creare un agente Snowflake Intelligence che li analizza o collegare un’app Streamlit per il monitoraggio in tempo reale.

Ecco come funziona nella pratica:

$ cortex

> I need to replicate our Oracle 19c orders database to Snowflake

  I'll help you set up the Openflow Oracle CDC connector. First, a few
  questions about your environment:

  1. Is this Oracle on-prem, OCI, or AWS RDS?
  2. Do you have an existing Oracle license, or do you need the embedded
     license from Snowflake?

> It's on RDS and we have an independent license. Oracle credentials
  are in our external vault at vault/oracle-prod, Snowflake credentials
  in ~/.snowflake/connections.toml with key at ~/.ssh/sf_rsa_key.p8.
  Use ORACLE_REPLICA database and REPLICATION_WH warehouse.

  Got it — AWS RDS Oracle 19c with BYOL licensing. I've loaded your
  Oracle credentials from the vault and Snowflake connection config.

  Here's the SQL your DBA should run to prepare the Oracle source.
  I'll generate each step:

  -- Step 1: Configure archived redo log retention (RDS Standard)
  BEGIN
    rdsadmin.rdsadmin_util.set_configuration(
      name  => 'archivelog retention hours',
      value => '24');
  END;
  /
  COMMIT;

  -- Step 2: Enable XStream replication and supplemental logging
  ALTER SYSTEM SET enable_goldengate_replication=TRUE SCOPE=BOTH;
  ALTER SYSTEM SET STREAMS_POOL_SIZE = 2560M;
  ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (ALL) COLUMNS;

  -- Step 3: Create XStream administrator (CDB architecture)
  CREATE USER c##xstreamadmin IDENTIFIED BY "****"
    DEFAULT TABLESPACE xstream_adm_tbs
    QUOTA UNLIMITED ON xstream_adm_tbs
    CONTAINER=ALL;

  GRANT CREATE SESSION, SET CONTAINER, EXECUTE ANY PROCEDURE,
    LOGMINING TO c##xstreamadmin CONTAINER=ALL;

  BEGIN DBMS_XSTREAM_AUTH.GRANT_ADMIN_PRIVILEGE(
    grantee => 'c##xstreamadmin',
    privilege_type => 'CAPTURE',
    grant_select_privileges => TRUE,
    container => 'ALL'); END;
  /
  ...

  Shall I generate the connect user, outbound server, and remaining
  steps for your ORDERS schema?

> Yes, tables ORDERS, ORDER_ITEMS, and CUSTOMERS

  Here's your outbound server setup:

  BEGIN
    DBMS_XSTREAM_ADM.CREATE_OUTBOUND(
      server_name  => 'XOUT_ORDERS',
      table_names  => 'ORCL.ECOMMERCE.ORDERS,
                       ORCL.ECOMMERCE.ORDER_ITEMS,
                       ORCL.ECOMMERCE.CUSTOMERS',
      schema_names => NULL);
  END;
  /

  After your DBA runs this, I'll deploy the connector and verify the
  XStream link. Ready?

> DBA ran it. Let's deploy.

  Deploying oracle-independent-license flow... ✓
  Configuring source parameters... ✓
  Verifying XStream connectivity... ✓
    ├─ Capture status: ENABLED
    ├─ LogMiner session: MINING
    └─ XStream state: SENDING CHANGES
  Starting flow... ✓

  Your tables are replicating. ORDERS is in SNAPSHOT_REPLICATION state
  — initial load is in progress. I'll check back when it reaches
  INCREMENTAL_REPLICATION.

  Meanwhile — want me to set up a Cortex Analyst semantic model over
  these tables so your team can query order data in natural language?

Inizia oggi

Snowflake Openflow Connector per Oracle è ora GA. Puoi iniziare a trasmettere in streaming i tuoi dati mission-critical direttamente dal catalogo Openflow Connector in Snowsight. Per aiutarti a partire subito:

Connettiamo in modo sicuro i tuoi dati Oracle per l’AI.

 


1 Benchmark interno condotto da Snowflake nel novembre 2025 su Oracle 19c con server XStream outbound. Workload: 15.000 modifiche al secondo su 600 tabelle sostenute per 18 ore. Latenza end-to-end misurata dal commit sull’origine alla disponibilità dei dati nelle tabelle di destinazione Snowflake. I risultati provengono da ambienti di test controllati e non sono garantiti nelle implementazioni di produzione. La latenza effettiva può variare in base alle caratteristiche del workload, alle condizioni di rete, alla configurazione Oracle e alle impostazioni dell’account Snowflake.

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Where Data Does More

  • prova gratuita di 30 giorni
  • nessuna carta di credito
  • annulli quando vuoi