IA y ML

Democratización de la IA empresarial: Las nuevas capacidades de IA de Snowflake aceleran y simplifican aún más la innovación basada en datos

En el Snowflake Summit 2025 presentamos innovaciones para que la inteligencia artificial (IA) sea fácil, eficiente y fiable. Estas capacidades, totalmente gestionadas dentro del perímetro seguro de Snowflake, permiten a los usuarios empresariales y científicos de datos convertir datos estructurados y no estructurados en información práctica, sin necesidad de contar con herramientas ni infraestructuras complejas.

Tanto si los clientes analizan tablas como si procesan documentos, implementan agentes de IA o entrenan modelos, estas capacidades se integran en la plataforma segura de Snowflake con gobernanza unificada, lo que elimina la gestión de infraestructuras y las herramientas complejas.

En el Summit, revelamos cuatro avances importantes en IA:

  1. Agentes de datos: Ofrecemos funciones inteligentes con Snowflake Intelligence (próximamente en vista previa pública) y Snowflake Cortex Agents (con disponibilidad general próximamente). Snowflake Intelligence convierte los datos estructurados y no estructurados en acciones empresariales rápidas y fiables, mientras que Cortex Agents orquesta las tareas en varios pasos y se integra en Microsoft Teams o aplicaciones personalizadas.

  2. Cortex AISQL y analíticas: Al llevar el procesamiento de datos multimodal mediante IA a un lenguaje SQL conocido, Cortex AISQL (en vista previa pública) hace accesibles los complejos flujos de trabajo de IA y complementa la completa oferta de información de datos no estructurados de Snowflake. Incluye Document AI mejorado con extracciones de tablas que tienen en cuenta los esquemas y un nuevo modelo de extracción “Arctic-Extract”. Esto permite la extracción de documentos en 29 idiomas, que se pueden llamar a través de nuestra nueva función ai_extract (en vista previa pública próximamente).

  3. Modelos de IA generativa líderes del sector, evaluación, observabilidad y puerta de enlace de IA: AI Observability en Snowflake Cortex AI (próximamente con disponibilidad general) permite supervisar aplicaciones de IA generativa sin código y con código. Snowflake también proporciona acceso a LLM de OpenAI a través de Microsoft Azure OpenAI Service, Anthropic, Meta, Mistral y otros proveedores líderes, todo ello dentro del perímetro seguro de Snowflake. AI Governance Gateway proporciona funciones que permiten a los clientes implementar fácilmente políticas de gobernanza, como un sólido control de acceso, un seguimiento detallado del uso y la aplicación del presupuesto (próximamente en vista previa privada).

  4. Aprendizaje automático (ML): Crea y ofrece modelos listos para la producción con escalabilidad y flexibilidad mejoradas, incluida la introducción del agente Data Science Agent autónomo para aumentar la productividad en todos los flujos de trabajo de desarrollo. 

Juntos, estos lanzamientos forman una base de IA unificada que simplifica el desarrollo, escala de forma fiable y preserva la confianza dentro del entorno gobernado de Snowflake.

“En Luminate, estamos revolucionando nuestra forma de proporcionar información basada en datos mediante la IA generativa. La plataforma unificada de Snowflake ofrece a nuestros desarrolladores una capacidad escalable para procesar y recuperar datos tanto estructurados como no estructurados, que son los ingredientes esenciales para desarrollar y orquestar los agentes de datos en los que se basan nuestras aplicaciones. El uso de Cortex AI dentro del perímetro de gobernanza de Snowflake nos ahorra innumerables horas de desarrollo. Gracias a ello, podemos sacar el máximo partido de los datos del sector del entretenimiento mediante los agentes de IA”. —Glenn Walker, Chief Data Officer, Luminate Data

1. Agentes de datos: Crea agentes y analiza datos multimodales a escala

Los agentes de datos proporcionan información de autoservicio con Snowflake Intelligence, lo que proporciona a los usuarios empresariales una interfaz de lenguaje natural para consultar todos sus datos. Los usuarios pueden formular preguntas complejas y recibir respuestas gobernadas y explicables en cuestión de segundos sin paneles ni SQL.

Cortex Agents y herramientas como Cortex Analyst y Cortex Search permiten a los desarrolladores crear aplicaciones de IA fiables y listas para la producción que razonen a través de datos estructurados y no estructurados, orquestando flujos de trabajo con LLM, SQL y búsqueda semántica.

Model Context Protocol (MCP) proporciona un estándar abierto para conectar sistemas de IA con fuentes de datos. Nos complace compartir que la compatibilidad con el servidor MCP estará disponible (próximamente en vista previa privada) en Snowflake. En su lanzamiento, los desarrolladores podrán utilizar Cortex Analyst y Cortex Search como herramientas con el servidor MCP de Snowflake. 

Figura 1: Pila de Snowflake Cortex AI con las últimas innovaciones
Figura 1: Pila de Snowflake Cortex AI con las últimas innovaciones

1a. Aprovecha la inteligencia de autoservicio para los equipos empresariales

Snowflake Intelligence ofrece a los usuarios empresariales una interfaz de lenguaje natural basada en IA para interactuar con datos estructurados y no estructurados. Los usuarios pueden formular preguntas complejas en lenguaje natural y recibir respuestas explicables y gobernadas en cuestión de segundos, sin necesidad de SQL ni paneles de control. Estos agentes se ejecutan dentro del perímetro de seguridad de Snowflake y aplican automáticamente controles de acceso basados en roles, de enmascaramiento y de auditoría. Pueden razonar a partir de datos empresariales, identificar relaciones entre diversas fuentes de datos y devolver respuestas sintetizadas de tablas, PDF, Jira, Salesforce y Zendesk, entre otros.

1b. Simplifica la información de los datos para todo el mundo con agentes de datos

Los agentes de datos permiten a los equipos sin conocimientos técnicos extraer información mediante el lenguaje natural. Los usuarios pueden ver cómo se genera la información con gráficos automáticos, trazabilidad del linaje y explicabilidad. Los desarrolladores pueden implementar nuevos casos de uso rápidamente e integrar analíticas en cualquier aplicación de su elección, lo que acelera la innovación y el impacto.

1c. Crea aplicaciones conversacionales de confianza

Con Cortex Agents (próximamente con disponibilidad general), los desarrolladores pueden crear aplicaciones de IA generativa que razonen a partir de datos estructurados y no estructurados. Estos agentes permiten obtener resultados explicables de alta calidad mediante la orquestación de flujos de trabajo que combinan LLM, SQL y búsqueda semántica. Con la tecnología de modelos como Claude 3.7 Sonnet, OpenAI GPT-4.1 y o4-mini (próximamente con disponibilidad general), estos agentes planifican, ejecutan y ajustan las tareas para obtener resultados precisos. La explicabilidad integrada y el acceso a la API permiten una implementación e integraciones rápidas con Microsoft Teams y Copilot, lo que permite a los usuarios interactuar con la IA directamente en sus herramientas de colaboración. 

2. Cortex AISQL y analíticas: Redefine los datos multimodales como información con Snowflake

Los datos no estructurados siguen infrautilizados debido a su complejidad. Cortex AISQL resuelve este problema al permitir a los equipos analizar documentos, imágenes y otros formatos utilizando sintaxis SQL conocida, sin herramientas especializadas. En el Summit presentamos lo siguiente:

  • SQL e IA: Extrae metadatos, clasifica el sentimiento o busca representaciones vectoriales, todo dentro de SQL.

  • Extracción de valor a partir de datos no estructurados: Utiliza Document AI, que ahora admite la extracción de tablas que tienen en cuenta los esquemas (en vista previa pública), para extraer tablas estructuradas de PDF complejos con una limpieza mínima. 

  • Generación automática de modelos semánticos (en vista previa privada): Elimina la configuración manual de modelos, explora la información con la visualización nativa de gráficos y crea experiencias de marca con Snowpark Container Services.

2a. Convierte a los analistas en desarrolladores de IA con Cortex AISQL

Cortex AISQL reinventa SQL como el lenguaje principal de la IA empresarial. Sus operadores nativos de IA permiten a los equipos crear flujos de trabajo multimodales, combinando texto, audio, imágenes y datos estructurados, sin necesidad de aprender nuevas herramientas ni duplicar datos. 

Ofrece entre un 30 y un 70 % de mejora en el rendimiento en comparación con varios flujos tradicionales (basados en resultados de referencia internos, implementados según el uso normal), gracias a la inferencia optimizada por lotes y un algoritmo de optimización del rendimiento (en vista previa privada), lo que permite a los analistas convertirse en desarrolladores de IA. 

Los casos de uso incluyen la coincidencia de registros, la detección de fraudes y las uniones semánticas a escala empresarial, todo escrito en SQL.

2b. Extrae valor de los datos no estructurados

También hemos presentado nuestro modelo de visión de última generación para Document AI llamado “arctic-extract” (en vista previa privada). Es compatible con un total de 29 idiomas (incluidos japonés, coreano, alemán, francés, español y chino) y cuenta con capacidades mejoradas de razonamiento, como clasificación y estandarización.

En lo que se refiere a la recuperación, Cortex Search añade:

  • Búsqueda difusa por lotes de tareas de alto rendimiento, como la resolución de entidades y la detección de fraudes

  • API avanzadas (con disponibilidad general) para la búsqueda en varios campos, la puntuación y la clasificación por metadatos

  • IU de administrador en Snowsight (con disponibilidad general) y Quality Evaluation Studio (próximamente en vista previa pública) para gestionar la búsqueda sin código, realizar diagnósticos y ajustar la relevancia

Los equipos también pueden incorporar representaciones vectoriales personalizadas (en vista previa pública) para impulsar Cortex Search, combinando la plataforma segura de Snowflake con resultados de modelos propios para obtener un mayor rendimiento y control.

2c. Acelera la extracción de información de los datos con modelos semánticos automatizados y vistas previas de gráficos

La generación automática de modelos semánticos (en vista previa privada) facilita y acelera la creación de modelos semánticos para Cortex Analyst. Al analizar los metadatos del esquema, el historial de consultas y los paneles, crea modelos reutilizables y eficaces, lo que elimina semanas de trabajo manual. La capacidad Charts (en vista previa pública) permite a los usuarios explorar la información visualmente junto con los resultados de la IA. 

Snowpark Container Services (con disponibilidad general en AWS y Azure, próximamente en Google Cloud Platform) ofrece un entorno de ejecución escalable para alojar, de forma nativa, aplicaciones y API de pila completa en Snowflake, con registro, gobernanza y seguridad centralizados.

3. Observabilidad de la IA generativa, elección de modelos e infraestructura escalable: Implementa la IA con confianza

Para ayudar a las organizaciones a escalar la IA de forma segura y fiable, Snowflake ofrece: 

  • AI Observability: Herramientas de evaluación sin código para la precisión y el rendimiento de la IA generativa

  • Acceso a modelos: Los mejores LLM de Meta, OpenAI, Anthropic y Mistral

  • Rendimiento aprovisionado: Rendimiento de inferencia predecible a escala de producción

3a. Evaluación y rastreo en Cortex AI

AI Observability (con disponibilidad general) en Snowsight ayuda a los equipos a medir la precisión y la cobertura mediante conjuntos de datos de evaluación. La puntuación de tipo “LLM como juez” (LLM-as-a-judge) evalúa la fundamentación, la utilidad y la nocividad, y se ejecuta de forma segura dentro de Snowflake. Funciones como los registros de rastreo de agentes y las comparaciones de modelos simplifican la depuración, el perfeccionamiento de las instrucciones (prompt) y la gobernanza.

3b. Acceso a modelos de OpenAI, Anthropic y otros en Snowflake de forma segura

El ecosistema de modelos de Snowflake ahora incluye acceso a LLM líderes del sector de OpenAI, Anthropic, Meta y Mistral, incluidos los modelos de última generación como GPT-4.1 y o4-mini de OpenAI, Microsoft Azure OpenAI Service en Azure AI Foundry, así como Claude Opus 4 y Claude Sonnet 4 de Anthropic. Estos modelos se ejecutan dentro del límite de seguridad de Snowflake, por lo que los datos permanecen protegidos y nunca se utilizan para el entrenamiento.

Los clientes pueden adaptar el mejor modelo a cada caso de uso, resumen, clasificación, traducción, razonamiento de agentes y mucho más, sin necesidad de gestionar la infraestructura.

Cortex AI también se está expandiendo a Google Cloud Platform. Con Snowpark Container Services en Google Cloud Platform (GCP) (con disponibilidad general próximamente), los clientes pueden implementar modelos de código abierto en las regiones de GCP, evitando así el movimiento de datos y manteniendo la gobernanza.

3c. Rendimiento aprovisionado para IA preparada para la empresa

El rendimiento aprovisionado (con disponibilidad general en AWS y Azure) ofrece a los equipos una capacidad de inferencia dedicada para las aplicaciones de IA generativa. Accesible a través de la REST API en todas las regiones de Snowflake, permite un rendimiento constante sin imprevisibilidad de los servicios compartidos. Es ideal para pasar de prueba de concepto a producción, sin la sobrecarga de la configuración de la infraestructura. 

3d. AI Governance Gateway: Control empresarial para la IA generativa

AI Governance Gateway ofrece un panel único para que los clientes accedan a los LLM líderes del sector a través de API SQL (o REST API) directamente dentro del perímetro seguro de Snowflake. Mediante un control de acceso integral basado en roles (role-based access control, RBAC), los clientes pueden implementar políticas de gobernanza sólidas. Las vistas detalladas de seguimiento del uso de cada función de IA, combinadas con los controles de aplicación del presupuesto (próximamente en vista previa privada), permiten a los clientes supervisar y gestionar el uso de la IA generativa en sus organizaciones. Los clientes pueden impulsar la IA responsable con Cortex Guard para filtrar el contenido dañino, mientras que AI Observability permite a los clientes evaluar, depurar y optimizar sus aplicaciones de IA generativa para obtener precisión y rendimiento. Esto mejora la confianza y la transparencia de las implementaciones de producción. Cortex AI lleva la IA a tus datos y, con AI Governance Gateway, los clientes pueden acelerar la entrega de aplicaciones de IA generativa.

4. Modelos creados y operacionalizados en producción con Snowflake ML

El ML predictivo sigue siendo un pilar fundamental en casos de uso como la detección de fraudes, la segmentación de clientes y los motores de recomendaciones. Sin embargo, la creación e implementación de estos modelos a menudo requiere la combinación de varias herramientas dispares difíciles de gobernar y costosas de mantener. 

Con Snowflake ML, las empresas disponen ahora de una solución de ML moderna estrechamente integrada con los datos gobernados en todos los flujos de trabajo. Clientes como Coinbase y Cloudbeds están obteniendo información predictiva. Scene+, un importante programa de fidelidad de clientes en Canadá, redujo el tiempo de producción en más de un 60 % y los costes en más de un 35 % para más de 30 modelos que usan Snowflake ML.

En el Summit, continuamos nuestro rápido ritmo de innovación con una serie de nuevos anuncios centrados en el ML escalable y flexible, que permitirá a los clientes: 

  • Mejorar la productividad de los científicos de datos al automatizar la generación de flujos de ML con Data Science Agent (próximamente en vista previa privada)

  • Crear modelos listos para la producción más rápido con API de entrenamiento distribuidas en Container Runtime (con disponibilidad general) y gestionar fácilmente los trabajos de entrenamiento con seguimiento nativo de experimentos (próximamente en vista previa privada)

  • Implementar y orquestar fácilmente flujos de ML con datos de Snowflake, desde cualquier entorno de desarrollo integrado (integrated development environment, IDE) de su elección con ML Jobs (con disponibilidad general próximamente)

  • Ofrecer funciones de predicciones en línea, de baja latencia (próximamente en vista previa privada) en procesamiento escalable de Snowflake Feature Store 

Todo esto se integra en ML Observability para facilitar la supervisión y las alertas con compatibilidad con métricas personalizadas. 

Figura 2: Conjunto integrado de capacidades de desarrollo y producción en Snowflake ML
Figura 2: Conjunto integrado de capacidades de desarrollo y producción en Snowflake ML

4a. Lleva los agentes de IA al ML de confianza para acelerar la productividad

En Snowflake, nos comprometemos a facilitar a todos nuestros clientes el uso de las últimas tecnologías líderes del sector de forma eficaz, incluida la IA generativa. Vemos una oportunidad sin explotar de aplicar las últimas innovaciones de los LLM para capacitar a los científicos de datos. En el Summit, anunciamos que vamos a aplicar los agentes de IA para potenciar la productividad del ML predictivo con un Data Science Agent (próximamente en vista previa privada en AWS) que itera, ajusta y genera de forma autónoma un flujo de ML totalmente ejecutable a partir de instrucciones sencillas en lenguaje natural. 

Figura 3: Data Science Agent genera flujos de ML en forma de celdas de Snowflake Notebooks
Figura 3: Data Science Agent genera flujos de ML en forma de celdas de Snowflake Notebooks

Con los modelos de razonamiento de Anthropic que se ejecutan en segundo plano, Data Science Agent utiliza la planificación en varios pasos para dividir un problema en distintos pasos y elige la técnica de mejor rendimiento para cada fase del flujo de trabajo de ML, incluida la preparación de datos, la ingeniería de funciones y el entrenamiento. 

Después de generar rápidamente un flujo de ML verificado, los equipos pueden proporcionar información de seguimiento basada en su conocimiento del dominio para repetir fácilmente el rendimiento y la precisión de la siguiente mejor versión. El resultado es un flujo de ML totalmente funcional y listo para la producción que se puede ejecutar fácilmente desde Snowflake Notebooks en Container Runtime. Al automatizar el tedioso trabajo de experimentación y depuración, los científicos de datos pueden ahorrar horas de trabajo manual y centrarse en iniciativas de mayor impacto. 

4b. Crea y orquesta flujos de ML escalables con datos de Snowflake a partir de cualquier IDE 

Para el desarrollo de ML, hemos anunciado un conjunto de nuevas funciones que hacen que la creación de modelos con datos de Snowflake sea más fácil y potente, ya sea desde Snowflake Notebooks integrados de forma nativa o desde cualquier IDE externo que prefieras con mecanismos de pushdown convenientes. Ahora, los clientes pueden acceder fácilmente a las API de ML distribuidas en Container Runtime (con disponibilidad general en AWS y Azure) para acelerar la carga de datos, el entrenamiento de modelos y el ajuste de hiperparámetros desde cualquier IDE.

A medida que las versiones de los modelos se iteran durante las ejecuciones de entrenamiento, el modelo con el mejor rendimiento se puede identificar, compartir y reproducir rápidamente a partir del seguimiento de experimentos integrado de forma nativa (próximamente en vista previa privada), accesible a través de API o la interfaz de usuario (IU) de Snowsight. 

Para facilitar el desarrollo y la automatización de flujos de ML, orquestados por Snowflake Tasks o herramientas externas como Airflow, ML Jobs (con disponibilidad general próximamente en AWS y Azure) ofrece un mecanismo conveniente para activar la ejecución remota de código de ML. Además, las interfaces incluidas en ML Jobs también permiten a los equipos que prefieran trabajar desde un IDE externo (VS Code, PyCharm, SageMaker Notebooks) enviar funciones, archivos o módulos hasta Container Runtime de Snowflake.

Figura 4: Ejecución de código de forma remota con ML Jobs directamente desde cualquier IDE (por ej., VS Code) u orquestador de flujos
Figura 4: Ejecución de código de forma remota con ML Jobs directamente desde cualquier IDE (por ej., VS Code) u orquestador de flujos

4c. Implementa modelos de ML creados en cualquier lugar a escala 

Independientemente de dónde o cómo se cree un modelo, se puede registrar en Snowflake Model Registry y usarse para inferencia escalable en Snowpark Container Services (con disponibilidad general en AWS y Azure), mediante el procesamiento de CPU o GPU para predicciones en tiempo real o por lotes. Los clientes también pueden implementar modelos en un punto de conexión de API REST para aplicaciones de inferencia de baja latencia. Esto incluye soporte para la implementación sencilla de modelos de Hugging Face (próximamente en vista previa privada) con un solo clic sin descargar ningún modelo del cliente. Con solo señalar el identificador del modelo y la tarea para registrar y usar en Snowflake, los equipos pueden obtener acceso instantáneo a los modelos de Hugging Face mejor entrenados, que van desde la clasificación de imágenes hasta la similitud de frases y la detección de objetos. 

Figura 5: Traer un modelo entrenado en cualquier sitio para ejecutar inferencias con datos de Snowflake
Figura 5: Traer un modelo entrenado en cualquier sitio para ejecutar inferencias con datos de Snowflake

También hemos anunciado que Snowflake Feature Store ahora también admite la capacidad de ofrecer funciones de baja latencia e inferencia en línea (próximamente en vista previa privada), además de por lotes para admitir casos de uso como recomendaciones personalizadas, precios, detección de anomalías y servicio al cliente. 

Los modelos que almacenan la inferencia en Snowflake se integran automáticamente con las capacidades de ML Observability (con disponibilidad general) de Snowflake para permitir predicciones fiables a lo largo del tiempo.

Obtener más información y consultar recursos

En el Summit presentamos innovaciones para que la IA empresarial sea fácil de usar, eficiente a la hora de implementar y fiable en su ejecución. Snowflake Intelligence convierte los datos estructurados y no estructurados en información práctica, mientras que Cortex Agents orquesta complejas tareas en varios pasos con los datos. 

Cortex AISQL lleva el procesamiento de datos multimodal a flujos de trabajo SQL conocidos, y AI Observability ofrece sólidas herramientas de supervisión y evaluación para escalar las aplicaciones de IA generativa. Para los flujos de trabajo tradicionales, Snowflake ML facilita y flexibiliza a los clientes la creación y entrega de modelos en producción.

Gracias a estos avances, Snowflake permite a las organizaciones transformar sus datos con confianza en acciones inteligentes a escala. 

Comience a utilizar Snowflake para IA con los siguientes recursos:

Declaraciones prospectivas

Este artículo contiene declaraciones prospectivas, incluidas las declaraciones relativas a nuestras futuras ofertas de productos, que no implican que nos comprometamos a proporcionar ninguna oferta de producto. Los resultados y las ofertas reales pueden diferir y están sujetos a riesgos e incertidumbres conocidos y desconocidos. Consulta nuestro formulario 10-Q más reciente para obtener más información.

Compartir artículo

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Where Data Does More

  • Prueba gratuita de 30 días
  • No se requiere tarjeta de crédito
  • Cancela en cualquier momento