Presentación de DeepSeek-R1 en vista previa en Snowflake Cortex AI

Tenemos el placer de presentar DeepSeek-R1 en Snowflake Cortex AI. Como describe DeepSeek, este modelo, entrenado mediante aprendizaje reforzado a gran escala (reforcement learning, RL) sin ajuste supervisado (supervised fine-tuning, SFT), puede lograr un rendimiento comparable al de OpenAI-o1 en tareas matemáticas, de código y de razonamiento. Según las comparativas publicadas por DeepSeek, DeepSeek-R1 encabeza la clasificación entre los modelos de código abierto y rivaliza con los modelos de código cerrado más avanzados a nivel mundial. Los clientes ya pueden solicitar una vista previa anticipada de DeepSeek-R1 en Cortex AI.
Como parte de la vista previa privada, nos centraremos en proporcionar acceso en línea con los principios de facilidad, eficiencia y confianza de nuestro producto.
El modelo está disponible en vista previa privada para la inferencia sin servidor tanto por lotes (función SQL) como interactiva (Python y REST API). Para solicitar acceso durante la vista previa, ponte en contacto con tu equipo de ventas. El modelo solo estará disponible en la cuenta solicitada.
El modelo se aloja en EE. UU. dentro de los límites de servicio de Snowflake. No compartimos datos con el proveedor del modelo.
Una vez que el modelo esté disponible de forma general, los clientes podrán gestionar el acceso al modelo a través del control de acceso basado en roles (role-based access control, RBAC). Los administradores de cuentas pueden restringir el acceso seleccionando los modelos aprobados según las políticas de gobernanza.
Snowflake Cortex AI
Snowflake ha lanzado Cortex AI, un conjunto de funciones y servicios integrados que incluye la inferencia de large language models (LLM) totalmente gestionada, el ajuste y la generación aumentada de recuperación (Retrieval Augmented Generation, RAG) para datos estructurados y no estructurados, con el fin de permitir a los clientes analizar rápidamente los datos no estructurados junto con sus datos estructurados y acelerar la creación de aplicaciones de IA. Los clientes pueden acceder a LLM líderes del sector, tanto de código abierto como propios, e integrarlos fácilmente en sus flujos de trabajo y aplicaciones. Snowflake adoptó el ecosistema de código abierto con compatibilidad con varios LLM de Meta, Mistral y Snowflake. Creemos que este acceso abierto y la colaboración allanarán el camino para acelerar la innovación en este espacio.
DeepSeek-R1
Según la publicación de GitHub, DeepSeek aplicó directamente el aprendizaje reforzado (RL) al modelo base sin depender del ajuste supervisado (SFT) como paso preliminar. Este enfoque permitió al modelo explorar la cadena de pensamientos (chain-of-thought, CoT) para resolver problemas complejos, lo que resultó en el desarrollo de DeepSeek-R1-Zero. Se menciona además que el modelo inicial demostró capacidades como la autoverificación, la reflexión y la generación de CoT largas, pero se enfrentó a desafíos como la repetición interminable, la mala legibilidad y la mezcla de idiomas. Para abordar estos problemas, el equipo de DeepSeek describe cómo incorporaron los datos de inicio en frío antes de RL para mejorar el rendimiento del razonamiento.

El equipo implementó un entrenamiento de baja precisión FP8 y una estrategia de equilibrio de carga sin pérdidas auxiliares, lo que dio lugar a un rendimiento puntero con costes de computación de entrenamiento significativamente reducidos.
Uso de DeepSeek-R1 en Cortex AI
Con Snowflake Cortex AI, acceder a los LLM es muy sencillo. No tienes que gestionar integraciones ni claves API. Los controles de gobernanza se pueden implementar de forma coherente en todos los datos y la IA. Puedes acceder a los modelos en una de las regiones admitidas. También puedes acceder desde otras regiones con la inferencia entre regiones habilitada. Puedes activar Cortex Guard para filtrar las respuestas potencialmente inapropiadas o no seguras. Las medidas de protección refuerzan la gobernanza mediante la aplicación de políticas alineadas para filtrar el contenido dañino.
SQL y Python
El modelo se puede integrar en un flujo de datos o en una aplicación de Streamlit en Snowflake para procesar varias filas de una tabla. Para esta integración se puede utilizar la función COMPLETE, accesible tanto en SQL como en Python. En la función COMPLETE de Cortex AI que se utiliza para las aplicaciones de inferencia de LLM, solo tienes que añadir “guardrails: true” para filtrar el contenido dañino. También puedes acceder a los modelos de DeepSeek desde un Snowflake Notebook o desde el entorno de desarrollo integrado (integrated development environment, IDE) que prefieras mediante OAuth para clientes personalizados. Accede a más plantillas y detalles sobre cómo utilizar la función SQL aquí u obtén más información sobre la sintaxis en Python aquí.
SELECT SNOWFLAKE.CORTEX.COMPLETE('deepseek-r1',
[{'content': CONCAT('Summarize this customer feedback in bullet points:<feedback>', content ,'</feedback>')}],
{'guardrails': true}
);
Una vez activado Cortex Guard, las respuestas del modelo de lenguaje asociadas con contenido dañino, como delitos violentos, odio, contenido sexual, autolesiones y otros, se filtrarán automáticamente y el modelo devolverá un mensaje de “Response filtered by Cortex Guard” (Respuesta filtrada por Cortex Guard). Para obtener más información sobre la perspectiva de Snowflake en cuanto a la seguridad de la IA, lee nuestro documento técnico sobre nuestro marco de seguridad de la IA.
REST API
Para que los servicios o aplicaciones que se ejecutan fuera de Snowflake puedan realizar llamadas de inferencia de baja latencia a Cortex AI, la interfaz REST API es la solución. Aquí tienes un ejemplo de cómo funciona:
curl -X POST \
"model": "deepseek-r1",
"messages": [{ "content": "Summarize this customer feedback in bullet points: <feedback>”}],
"top_p": 0,
"temperature": 0.6,
}' \
https://<account_identifier>.snowflakecomputing.com/api/v2/cortex/inference:complete
Próximos pasos
Según DeepSeek, este es el primer modelo de código abierto que demuestra que las capacidades de razonamiento de los LLM se pueden incentivar exclusivamente a través de RL, sin necesidad de SFT. Cortex AI proporciona una integración sencilla a través de funciones SQL y REST API. Además, Cortex Guard permite a los clientes implementar los controles de seguridad necesarios. El equipo de Snowflake AI Research planea mejorar DeepSeek-R1 para reducir aún más los costes de inferencia. Los clientes pueden lograr rentabilidad con DeepSeek-R1 y acelerar la entrega de aplicaciones de IA generativa. Este avance allana el camino para futuros avances en esta área.
Nota: este artículo contiene declaraciones prospectivas, también sobre nuestras futuras ofertas de productos, que no implican que nos comprometamos a proporcionar ninguna oferta de producto. Los resultados y las ofertas reales pueden diferir y están sujetos a riesgos e incertidumbres conocidos y desconocidos. Consulta nuestro formulario 10-Q más reciente para obtener más información.