BUILD: The Dev Conference for AI & Apps (Nov. 12-14)

Hear the latest product announcements and push the limits of what can be done in the AI Data Cloud.

Producto y tecnología

Desarrollo de aplicaciones de LLM rápido, fácil y seguro con Snowflake Cortex

Desarrollo de aplicaciones de LLM rápido, fácil y seguro con Snowflake Cortex

La inteligencia artificial (IA) generativa y los large language models (LLM) están transformando la forma en la que trabajamos a escala global. Snowflake tiene el placer de anunciar una línea de productos innovadora que llevará la facilidad de uso, la seguridad y la gobernanza de nuestra plataforma hacia el mundo de la IA generativa. Con estas nuevas ofertas, cualquier usuario podrá incorporar los LLM a procesos analíticos en segundos, los desarrolladores podrán crear aplicaciones con tecnología de IA generativa en minutos o ejecutar potentes flujos de trabajo en cuestión de horas, como, por ejemplo, ajustar modelos básicos según los datos empresariales. Y todo, dentro del perímetro de seguridad de Snowflake. Estos avances permiten a desarrolladores y analistas de todos los niveles técnicos utilizar la IA generativa junto a los datos empresariales gobernados y seguros. 

Vamos a profundizar en todas las capacidades que los desarrolladores pueden utilizar para sacarle partido a la IA generativa aplicada a sus datos empresariales de forma segura y sin esfuerzo, gracias a Snowflake.

Para poder aplicar la IA generativa a sus datos ya gobernados, los clientes de Snowflake tienen acceso a dos componentes esenciales:

Snowflake Cortex: Snowflake Cortex (disponible en vista previa privada) es un servicio inteligente y totalmente gestionado que proporciona acceso a modelos de IA líderes del sector, LLM y funcionalidades de búsqueda de vectores que permite a las organizaciones analizar los datos y desarrollar aplicaciones de IA rápidamente. Para que las empresas desarrollen rápidamente aplicaciones de LLM que comprendan sus datos, Snowflake Cortex proporciona a los usuarios acceso a un conjunto creciente de funciones sin servidor que permite la inferencia en LLM generativos líderes del sector, como el modelo Llama 2 de AI at Meta, modelos para tareas específicas que aceleran las analíticas y funcionalidad de búsqueda de vectores avanzada. 

No solo los desarrolladores pueden disfrutar del poder de Snowflake Cortex; también dispone de un servicio subyacente que posibilita las experiencias con tecnología de LLM, entre las que se incluye una interfaz de usuario totalmente automatizada. Algunos ejemplos son Document AI (en vista previa privada), Snowflake Copilot (en vista previa privada) y Universal Search (en vista previa privada).

Snowpark Container Services: Este tiempo de ejecución adicional de Snowpark (disponible en vista previa pública próximamente en regiones de AWS seleccionadas) permite a los desarrolladores implementar, gestionar y escalar workloads y modelos personalizados y contenedorizados sin esfuerzo para tareas como el ajuste de LLM de código abierto mediante infraestructuras seguras gestionadas por Snowflake con instancias GPU. Todo en su cuenta de Snowflake. Obtén más información para mantenerte al tanto

Con estos dos componentes, el poder de los desarrolladores para crear aplicaciones de LLM sin necesidad de extraer datos del entorno gobernado de Snowflake es ilimitado.

Usa la IA en segundos

Con el objetivo de democratizar el acceso a la IA y a los datos empresariales, y que no solo unos pocos expertos pudieran adoptarlos, Snowflake ofrece innovación a todos aquellos usuarios que quieran aprovechar los LLM de vanguardia sin integraciones personalizadas ni desarrollo front-end. Esta innovación incluye experiencias basadas en interfaces de usuario (user interface, UI), como Snowflake Copilot, y acceso a funciones de SQL y Python basadas en LLM que pueden acelerar las analíticas de manera rentable con modelos especializados y de uso general disponibles a través de Snowflake Cortex. Obtén más información aquí.

Desarrolla aplicaciones de LLM con tus datos en unos minutos

Los desarrolladores ya pueden crear aplicaciones de LLM que asimilen las diferencias únicas de su negocio y datos en cuestión de minutos, sin integraciones, implementaciones manuales de LLM ni gestión de infraestructuras basadas en GPU. Para desarrollar estas aplicaciones de LLM personalizadas con sus datos mediante generación aumentada de recuperación (retrieval augmented generation, RAG) de forma nativa en Snowflake, los desarrolladores pueden utilizar: 

Funciones de Snowflake Cortex: el servicio totalmente gestionado Snowflake Cortex garantiza que todos los clientes tengan acceso a los componentes básicos necesarios para el desarrollo de aplicaciones de LLM sin necesidad de una gestión de estructuras compleja. 

Aquí se incluye un conjunto de funciones de uso general que aprovechan LLM de código abierto líderes del sector y LLM propios de alto rendimiento para que la ingeniería rápida pueda admitir fácilmente una amplia gama de casos de uso. Entre los modelos iniciales podemos encontrar:

  • Complete (en vista previa privada): los usuarios pueden enviar una petición y seleccionar el LLM que prefieran. En la vista previa privada, los usuarios podrán elegir entre tres tamaños de modelo (7000 M, 13 000 M y 70 000 M) de Llama 2.
  • Text to SQL (en vista previa privada): genera código SQL a partir del lenguaje natural mediante el mismo LLM de Snowflake que sustenta la experiencia de Snowflake Copilot.

Además, estas funciones cuentan con una funcionalidad de búsqueda semántica y de integración de vectores para que los usuarios puedan contextualizar fácilmente las respuestas de los modelos con los datos y crear aplicaciones personalizadas en minutos. Algunos ejemplos son:

  • Embed Text (próximamente en vista previa privada): esta función transforma el texto introducido en integraciones de vectores mediante un modelo de integración seleccionado por el usuario. 
  • Vector Distance (próximamente en vista previa privada): para calcular la distancia entre vectores, los desarrolladores tendrán que elegir entre las funciones similitud coseno (vector_cosine_distance()), norma L2 (vector_l2_distance()) y producto interno (vector_inner_product()).
  • Native Vector Data Type (próximamente en vista previa privada): para que estas funciones se ejecuten con tus datos, los vectores son ahora un tipo de datos compatible de forma nativa en Snowflake además de todos los demás tipos de datos compatibles de forma nativa

Streamlit in Snowflake (en vista previa pública): con Streamlit, los equipos pueden acelerar más la creación de aplicaciones de LLM gracias a la posibilidad de desarrollar interfaces con solo unas pocas líneas en código Python y sin necesidad de contar con experiencia en front-end. Estas aplicaciones se pueden implementar y compartir de forma segura en una organización mediante URL únicas que aprovechen los controles de acceso existentes basados en roles de Snowflake, y se pueden generar con un solo clic. Obtén más información aquí

Snowpark Container Services: implementa UI personalizadas, ajusta LLM de código abierto y mucho más

Los desarrolladores no tienen prácticamente límites a la hora de crear o desarrollar para poder personalizar más a fondo las aplicaciones de LLM en Snowflake mediante Snowpark Container Services (próximamente en vista previa pública en regiones de AWS seleccionadas). Esta opción adicional de tiempo de ejecución de Snowpark permite a los desarrolladores implementar, gestionar y escalar workloads contenedorizados (trabajos, servicios, funciones de servicios) sin esfuerzo mediante la infraestructura segura gestionada de Snowflake con opciones de hardware configurables, como las GPU de NVIDIA.

A continuación, podrás encontrar algunas de las adaptaciones más comunes que los desarrolladores pueden hacer en las aplicaciones de LLM sin tener que mover datos fuera de los límites seguros y gobernados de Snowflake:

  • Implementar y ajustar LLM y bases de datos de vectores de código abierto: al combinar una infraestructura con tecnología de GPU con Snowpark Model Registry, es más sencillo implementar, ajustar y gestionar cualquier LLM de código abierto o ejecutar una base de datos de vectores de código abierto, como Weaviate, gracias a la sencillez de Snowflake y con la seguridad de tu cuenta.
  • Usar aplicaciones, LLM y bases de datos de vectores comerciales: como parte de las integraciones de la vista previa privada con Snowflake Native Apps, se puede utilizar Snowpark Container Services para ejecutar al completo aplicaciones sofisticadas en su cuenta de Snowflake. Pueden ser LLM comerciales de AI21 Labs o Reka.ai, cuadernos destacados como Hex, herramientas de operaciones de LLM (LLMOps) avanzadas de Weights & Biases, bases de datos de vectores como Pinecone y muchos más.  Obtén más información sobre las últimas novedades en desarrollo de aplicaciones de Snowflake aquí
  • Desarrollar interfaces de usuario personalizadas para aplicaciones de LLM: Snowpark Container Services proporciona gran flexibilidad para los desarrolladores empresariales encargados de las aplicaciones de LLM. Si desean crear front-ends personalizados con marcos como ReactJS, lo único que tienen que hacer es implementar una imagen de contenedor con su código para que esté disponible en Snowflake. 

Formas de empezar

Snowflake facilita a todos los usuarios la obtención de valor de forma rápida y segura a partir de los datos de sus empresas mediante LLM e IA. Si deseas empezar a usar la IA en cuestión de segundos o disponer de la flexibilidad necesaria para desarrollar aplicaciones de LLM personalizadas en unos minutos, Snowflake Cortex, Streamlit y Snowpark Container Services te proporcionarán los componentes básicos necesarios para no tener que mover datos fuera del entorno seguro y gobernado de Snowflake. Para obtener más información que te ayude a empezar, echa un vistazo a los siguientes recursos: 

Share Article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Comienza tu pruebagratuita de 30 días

Prueba Snowflake gratis durante 30 días y experimenta el Data Cloud, que acaba con la complejidad, el coste y las restricciones de otras soluciones.