BUILD: The Dev Conference for AI & Apps (Nov. 12-14)

Hear the latest product announcements and push the limits of what can be done in the AI Data Cloud.

Prodotto e tecnologia

Sviluppare app LLM è semplice, rapido e sicuro con Snowflake Cortex

Sviluppare app LLM è semplice, rapido e sicuro con Snowflake Cortex

L’AI generativa e i LLM stanno rivoluzionando il nostro modo di lavorare su scala globale. Snowflake ha il piacere di annunciare un’innovativa lineup che applica alla GenAI tutte le caratteristiche di semplicità d’uso, sicurezza e governance della sua piattaforma. Le nuove funzionalità consentono a tutti gli utenti di incorporare i LLM nei processi di analisi, in pochi secondi, mentre gli sviluppatori possono realizzare app basate su GenAI in pochi minuti o eseguire in poche ore flussi di lavoro avanzati, come l’ottimizzazione dei modelli di base a partire dai dati aziendali, il tutto senza uscire dal perimetro di sicurezza di Snowflake. Grazie a questi progressi, tutti gli sviluppatori e gli analisti di dati possono applicare la GenAI ai dati aziendali, già protetti e governati, indipendentemente dal proprio livello di preparazione ed esperienza. 

Ma esaminiamo in dettaglio tutte le funzionalità che gli sviluppatori possono utilizzare per applicare l’AI generativa ai dati aziendali in modo intuitivo e sicuro con Snowflake.

Per applicare l’AI generativa in tutta sicurezza ai propri dati governati, i clienti Snowflake possono utilizzare due componenti di base:

Snowflake Cortex: Snowflake Cortex (disponibile in private preview) è un servizio intelligente e completamente gestito che consente di accedere a modelli AI, LLM e funzionalità di ricerca vettoriale leader di settore, per analizzare i dati e realizzare applicazioni AI in tempi brevissimi. Per consentire alle aziende di creare velocemente app LLM in grado di comprendere i loro dati, Snowflake Cortex permette agli utenti di accedere a una serie di funzioni serverless in continua espansione, che consentono di applicare l’inferenza ai LLM generativi leader di settore, come il modello Llama 2 di Meta AI, a modelli dedicati ad attività specifiche, per accelerare le analisi dei dati, e ad avanzate funzionalità di ricerca vettoriale. 

Ma i vantaggi di Snowflake Cortex non vanno solo a beneficio degli sviluppatori, perché questo servizio è anche alla base delle esperienze LLM-powered, che includono un’interfaccia utente dotata di funzionalità complete, come Document AI, Snowflake Copilot e Universal Search, tutte attualmente disponibili in private preview.

Snowpark Container Services: questo runtime Snowpark aggiuntivo (che sarà disponibile a breve in public preview in alcune regioni AWS) consente agli sviluppatori di distribuire, gestire e dimensionare in modo semplice e intuitivo modelli e workload containerizzati per attività come l’ottimizzazione dei modelli LLM open-source, utilizzando l’infrastruttura gestita di Snowflake con le istanze GPU, il tutto entro il perimetro del proprio account Snowflake. Scopri di più e ricevi gli aggiornamenti

Grazie a questi due componenti, gli sviluppatori hanno infinite possibilità di realizzare app LLM senza trasferire i dati all’esterno del perimetro governato da Snowflake.

Usare l’AI in pochi secondi

Per offrire a tutti la possibilità di accedere ai dati aziendali e all’AI, estendendo l’adozione oltre la ristretta cerchia degli esperti, Snowflake offre innovazioni alla portata di qualunque utente, per sfruttare modelli LLM all’avanguardia senza richiedere integrazioni personalizzate o lo sviluppo di front-end. Questo include esperienze complete incentrate sull’interfaccia utente, come Snowflake Copilot, e l’accesso a funzioni SQL e Python basate su LLM, che permettono di accelerare gli analytics a costi contenuti, con modelli generici e specializzati disponibili tramite Snowflake Cortex. Scopri di più qui.

Creare app LLM con i vostri dati nell’arco di pochi minuti

Ora gli sviluppatori possono realizzare app LLM che imparano, nell’arco di pochi minuti, tutte le sfumature uniche dei loro dati e del loro business, senza richiedere integrazioni, distribuzioni manuali di LLM, né la gestione di un’infrastruttura basata su GPU. Per creare queste applicazioni LLM personalizzate con i loro dati, utilizzando la Retrieval Augmented Generation (RAG) in modo nativo all’interno di Snowflake, gli sviluppatori possono utilizzare: 

Funzioni di Snowflake Cortex: essendo un servizio completamente gestito, Snowflake Cortex offre a tutti i clienti la possibilità di accedere agli elementi fondamentali necessari per sviluppare app LLM, senza essere costretti a gestire un’infrastruttura complessa. 

Offre ad esempio una serie di funzioni generiche in grado di sfruttare sia i LLM open source leader di settore che i LLM proprietari con performance elevate, per semplificare la progettazione dei prompt a supporto di una vasta gamma di casi d’uso. I modelli iniziali includono:

  • Complete (in private preview): gli utenti possono passare un prompt e selezionare il modello LLM che desiderano utilizzare. Per la private preview, gli utenti avranno la possibilità di scegliere fra tre diverse taglie (7 B, 13 B e 70 B) di Llama 2.
  • Text to SQL (in private preview): genera SQL a partire dal linguaggio naturale, utilizzando lo stesso modello LLM Snowflake alla base dell’esperienza di Snowflake Copilot.

Offre inoltre funzionalità per l’integrazione di vettori e ricerca semantica, per consentire agli utenti di contestualizzare agevolmente le risposte dei modelli con i loro dati, per creare app personalizzate in pochi minuti.

  • Embed Text (disponibile a breve in private preview): questa funzione trasforma l’input di testo ricevuto in embedding vettoriali, utilizzando un modello di embedding selezionato dall’utente. 
  • Vector Distance (disponibile a breve in private preview): per calcolare la distanza fra i vettori, gli sviluppatori potranno scegliere fra tre funzioni diverse, ovvero similarità coseno (vector_cosine_distance()), norma L2 (vector_l2_distance()) e prodotto interno (vector_inner_product()).
  • Native Vector Data Type (disponibile a breve in private preview): per consentire l’esecuzione di queste funzioni con i vostri dati, ora Snowflake supporta in modo nativo anche i tipi di dati vettoriali, in aggiunta agli altri tipi di dati già supportati

Streamlit in Snowflake (public preview): Streamlit consente ai team di accelerare ulteriormente la creazione delle app LLM, grazie alla possibilità di sviluppare interfacce con poche righe di codice Python, anche senza esperienza di sviluppo front-end. Tali app possono essere quindi distribuite e condivise in tutta sicurezza all’interno dell’azienda, tramite URL univoci che sfruttano i controlli di accesso basati sul ruolo in Snowflake e possono essere generati con un semplice clic. Scopri di più qui

Snowpark Container Services: sviluppare interfacce utente personalizzate, ottimizzare i modelli LLM open source e molto altro ancora

Con Snowpark Container Services (disponibile a breve in public preview in alcune regioni AWS), Snowflake offre agli sviluppatori opportunità di sviluppo e distribuzione praticamente illimitate per personalizzare ulteriormente le applicazioni LLM. Questa nuova opzione runtime di Snowpark consente agli sviluppatori di distribuire, gestire e scalare facilmente workload containerizzati (processi, servizi e funzioni dei servizi) tramite l’infrastruttura Snowflake, sicura e gestita, con opzioni hardware configurabili, come le GPU NVIDIA.

Di seguito sono riportati alcuni degli adattamenti più comuni che gli sviluppatori possono effettuare sulle app LLM senza essere costretti a spostare i dati al di fuori del perimetro governato e sicuro di Snowflake.

  • Distribuzione e ottimizzazione di database vettoriali e modelli LLM open source: utilizzando un’infrastruttura basata su GPU insieme a Snowpark Model Registry, è facile distribuire, ottimizzare e gestire qualunque modello LLM open source o eseguire un database vettoriale open source, come Weaviate, con la tipica semplicità di Snowflake ed entro il perimetro sicuro dell’account.
  • Uso di app, modelli LLM e database vettoriali commerciali: l’integrazione in private preview con le Snowflake Native App consente di utilizzare Snowpark Container Services per eseguire integralmente app sofisticate nell’account Snowflake, per esempio LLM commerciali di AI21 Labs o Reka.ai, notebook all’avanguardia come Hex, avanzati strumenti LLMOps di Weights & Biases, database vettoriali come Pinecone e molto altro ancora.  Per scoprire di più sulle ultime novità per lo sviluppo di applicazioni in Snowflake, fai clic qui
  • Sviluppo di interfacce utente personalizzate per le app LLM: Snowpark Container Services offre la massima flessibilità agli sviluppatori di applicazioni LLM aziendali. Per creare front-end personalizzati utilizzando framework come ReactJS, basta implementare un’immagine container con il relativo codice per renderla disponibile in Snowflake. 

Risorse utili per iniziare

Snowflake offre a tutti gli utenti la possibilità di sfruttare i modelli LLM e l’intelligenza artificiale per estrarre valore in modo semplice, veloce e sicuro dai loro dati aziendali. Che tu abbia l’esigenza di cominciare a utilizzare l’intelligenza artificiale in pochi secondi, o di realizzare app LLM personalizzate con la massima flessibilità in pochi minuti, Snowflake Cortex, Streamlit e Snowpark Container Services forniscono tutti i blocchi costitutivi necessari senza costringerti a spostare i dati all’esterno del perimetro governato e sicuro di Snowflake. Per altre informazioni utili per cominciare, consulta: 

Share Article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Inizia la tua provagratuita di 30 giorni

Prova Snowflake gratis per 30 giorni e scopri come l’AI Data Cloud aiuta a eliminare la complessità, i costi e i vincoli tipici di altre soluzioni.