BUILD: The Dev Conference for AI & Apps (Nov. 12-14)

Hear the latest product announcements and push the limits of what can be done in the AI Data Cloud.

Producto y tecnología

Integra la IA generativa y los LLM en tus datos

Integra la IA generativa y los LLM en tus datos

El potencial de la inteligencia artificial (IA) generativa y de los large language models (LLM) es enorme para las empresas.   

Ya hemos analizado esta oportunidad en el pasado y, en el Summit 2023, anunciamos una serie de capacidades combinadas para que nuestros clientes puedan integrar la IA generativa y los LLM directamente en sus datos propios, todo mediante una sola plataforma segura. 

La plataforma única de Snowflake ya ha ayudado a nuestros clientes a acabar con sus silos de datos y a llevar diferentes tipos de desarrollo directamente a sus datos. Todo esto supone, entre otras ventajas, poder ejecutar y optimizar los principales LLM en Snowflake con Snowpark Container Services, mejorar la inteligencia de datos con LLM integrados y aumentar la productividad con experiencias basadas en LLM. Sigue leyendo para obtener más información sobre estas novedades.

Lleva los LLM a tus datos

En el Summit, presentamos Snowpark Container Services (en vista previa privada), que permite a los desarrolladores registrar e implementar fácilmente aplicaciones de datos contenedorizados mediante la infraestructura segura gestionada de Snowflake, con opciones de hardware configurables, como el procesamiento acelerado con las unidades de procesamiento gráfico (graphics processing units, GPU) de NVIDIA. Esta flexibilidad adicional amplía drásticamente el alcance de los workloads de IA/ML y Applications, que pueden incorporarse directamente en los datos de Snowflake.

Para que los clientes puedan aprovechar los LLM principales aún más fácilmente y de forma segura, Snowpark Container Services puede usarse como parte de una aplicación nativa de Snowflake, de forma que los clientes obtengan acceso directo a dichos LLM a través de Snowflake Marketplace, o bien instalarse para que se ejecute por completo en sus cuentas de Snowflake. Entre los LLM comerciales iniciales se incluyen AI21 Labs, Reka o NVIDIA (marco NeMo, parte de la plataforma de software NVIDIA AI Enterprise). 

En el caso de estos proveedores, las ponderaciones de sus LLM y otros datos de la propiedad intelectual (PI) interna no se ven expuestos al consumidor de la aplicación, ya que la lógica y los datos de la aplicación nativa de Snowflake no son accesibles para el consumidor final, incluso si la aplicación se implementa y ejecuta en Snowpark Container Services en su cuenta de Snowflake. Y, dado que el LLM se ejecuta dentro de la cuenta del consumidor final, los datos empresariales gobernados usados para llevar a cabo optimizaciones u otras interacciones con el LLM nunca quedan expuestos al proveedor. Todos salen ganando. Echa un vistazo a esta demostración para verlo todo en acción.  

Da vida a los LLM con Streamlit

Streamlit siempre ha procurado ofrecer una forma sencilla y cómoda de convertir los datos y los modelos de IA/ML en aplicaciones interactivas desarrolladas con Python. En lo que respecta a los LLM, aplica la misma idea. Streamlit se ha convertido rápidamente en el estándar para desarrollar interfaces de usuario (User Interfaces, UI) en aplicaciones con tecnología de LLM. De hecho, ya se han creado más de 7000 aplicaciones de Streamlit basadas en LLM en Community Cloud, y la cifra sigue creciendo día tras día. Solo en GitHub ya hay más de 190 000 fragmentos de código de Streamlit que ayudan a interactuar con GPT4 y otros LLM, y la cifra sigue en aumento. Esto quiere decir que los analistas, los científicos de datos y hasta los estudiantes pueden realizar análisis, crear prototipos de nuevas aplicaciones y combinar fragmentos de Streamlit generados automáticamente por otras aplicaciones.

Gracias a la integración de Streamlit en Snowflake (en vista previa pública próximamente), los clientes de Snowflake podrán usar Streamlit para desarrollar e implementar UI potentes para sus experiencias y aplicaciones con tecnología de LLM, todo ello en Snowflake. De este modo, los equipos pueden compartir aplicaciones fácilmente con sus marcos de gobernanza de Snowflake e implementarlas rápidamente sin que suponga una carga operativa, ya que todo se ejecuta en la plataforma de Snowflake. 

Mejora la inteligencia de tus datos con LLM nativos

Por si fuera poco, Snowflake está creando LLM directamente en su plataforma para ayudar a los clientes a mejorar su productividad y acceder a información nueva sobre sus datos. La comprensión y la extracción de valor a partir de datos no estructurados, como documentos, están resultando tareas especialmente complejas para los clientes. Con Document AI (en vista previa privada), Snowflake ofrece uno de los principales LLM para ayudar a los clientes a extraer rápida y fácilmente información de los documentos. Aquí puedes verlo en acción.

Document AI usa un LLM multimodal diseñado específicamente que se integra de forma nativa en la plataforma de Snowflake. Los clientes pueden acceder fácilmente a su contenido y extraerlo, lo que incluye importes de facturas o términos contractuales de los documentos, y personalizar los resultados a través de una interfaz visual y de lenguaje natural. Como todo forma parte de la plataforma única de Snowflake, los ingenieros de datos y los desarrolladores también pueden realizar inferencias llamando mediante programación a los modelos integrados o ajustados, como en los flujos con Streams y Tasks o en las aplicaciones. 

Mejora la productividad a través de experiencias con tecnología de LLM

Tal y como vemos en el sector, los LLM pueden suponer un potente método para aumentar la productividad de los usuarios, ya que reducen la necesidad de codificación manual y facilitan la detectabilidad. En el Summit, presentamos varias mejoras que actualmente se encuentran en fase de desarrollo y que permitirán a los clientes de Snowflake disfrutar de experiencias basadas en LLM. Todo esto incluye experiencias de búsqueda mediante conversaciones, para que los clientes puedan descubrir datos y aplicaciones respondiendo a una serie de preguntas empresariales en Snowflake Marketplace, así como capacidades conversacionales de texto a código para facilitar las consultas de datos y la detección de nueva información en Snowsight a los usuarios que no dominan SQL. Seguiremos realizando avances en este sentido y facilitando aún más la detección de datos y la obtención de valor para todos, sin necesidad de que se tengan conocimientos de codificación.

¿Y ahora qué?

La IA generativa está dando lugar a un cambio esencial en el ámbito empresarial y en el del software, y la transformación no ha hecho más que empezar. Mantente al tanto de las novedades en nuestro sitio para desarrolladores a fin de obtener más información sobre cómo puede ayudarte Snowflake a aprovechar todo el potencial de los LLM en tu empresa. 


Más información: Obtén más información sobre cómo Snowflake está desarrollando una plataforma centrada en los datos para la IA generativa y los LLM. Lee esta publicación del blog.

Share Article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Comienza tu pruebagratuita de 30 días

Prueba Snowflake gratis durante 30 días y experimenta el Data Cloud, que acaba con la complejidad, el coste y las restricciones de otras soluciones.