제품 및 기술

Snowflake, Cortex AI에서 DeepSeek-R1 프리뷰 지원

Snowflake가 Cortex AI에서 DeepSeek-R1 모델을 지원하게 되었습니다. DeepSeek의 설명과 같이 이 모델은 감독된 파인 튜닝(SFT) 없이 대규모 강화학습(RL)을 통해 학습되었으며 수학, 코드 및 추론 작업 전반에서 OpenAI-o1과 유사한 성능을 발휘할 수 있습니다. DeepSeek가 발표한 벤치마킹에 따르면, DeepSeek-R1은 오픈 소스 모델 중에서 최고의 성능을 자랑하며 전 세계에서 가장 발전된 폐쇄 소스 모델들과 경쟁하고 있습니다. 그리고 Snowflake 고객들은 이제 Cortex AI에서 DeepSeek-R1의 프리뷰를 요청할 수 있습니다.  

Snowflake는 비공개 프리뷰(PrPr)의 일환으로 당사의 제품 원칙인 사용 편의성, 효율성 및 신뢰성을 바탕으로 액세스 제공에 집중할 것입니다.

  • 이 모델은 배치(SQL 함수) 및 인터랙티브(Python 및 REST API)에 대한 서버리스 추론을 비공개 프리뷰로 제공합니다. 프리뷰 기간 동안 액세스 요청은 담당 영업 팀에 문의하시면 됩니다. 이 모델은 요청한 계정에서만 이용 가능합니다.

  • 이 모델은 미국 내 Snowflake 서비스 범위 내에서 호스팅되며 Snowflake는 모델 공급자와 데이터를 공유하지 않습니다. 

  • 동 모델이 일반 제공(GA)에 들어가면 고객은 역할 기반 액세스 제어(RBAC)를 통해 모델에 대한 액세스를 관리할 수 있습니다. 계정 관리자는 거버넌스 정책에 따라 승인된 모델을 선택하여 액세스를 제한할 수 있습니다.

Snowflake Cortex AI

Snowflake Cortex AI는 완전 관리형 LLM 추론, 미세 조정 및 RAG(정보 검색 증강 생성)를 포함한 통합 기능 및 서비스 모음입니다. 이를 통해 고객은 정형 및 비정형 데이터를 신속하게 분석하고, AI 애플리케이션 개발을 가속화할 수 있습니다. 고객은 업계 최고의 오픈 소스 및 독점 LLM에 액세스가 가능하며 해당 모델들을 워크플로우 및 애플리케이션에 쉽게 통합할 수 있습니다. Snowflake는 Meta, Mistral 그리고 Snowflake의 여러 LLM에 대한 지원을 통해 오픈 소스 생태계를 적극 활용하고 있습니다. Snowflake는 이러한 개방형 액세스와 협업이 이 분야의 혁신을 가속화하는 밑거름이 될 것이라고 믿습니다.  

DeepSeek-R1

DeepSeek의 GitHub 게시물에 따르면 DeepSeek는 초기 단계부터 감독된 파인 튜닝(SFT)에 의존하지 않고 기본 모델에 강화학습(RL)을 직접 적용했습니다. 이 접근 방식을 통해 모델은 복잡한 문제를 해결하기 위해 스스로 답을 찾는 추론하는 사고체계 (CoT)를 탐색했으며 그 결과 DeepSeek-R1-Zero가 개발되었습니다. 또한 초기 모델은 자체 검증, 반성 및 긴 CoT 생성과 같은 능력을 보여줬지만, 끝없는 반복, 낮은 가독성, 언어 혼합과 같은 문제에 직면했다고 언급하고 있습니다. 이어, 이러한 문제를 해결하기 위해, RL 전에 콜드 스타트(Cold Start) 데이터를 통합하는 방법으로 어떻게 추론 성능을 개선했는지 설명하고 있습니다.

Deepseek accuracy benchmarks
DeepSeek benchmark results

DeepSeek 팀은 낮은 정밀도의 FP8 훈련과 보조 손실 없는 부하 분산 전략을 구현하여, 훈련에 필요한 계산 자원 비용을 크게 절감하면서 최첨단의 성능을 달성했습니다.

Cortex AI에서 DeepSeek-R1 사용하기

Snowflake Cortex AI를 사용하면 대규모 언어 모델(LLM)에 쉽게 액세스할 수 있습니다. 통합이나 API 키를 관리할 필요도 없으며 거버넌스 컨트롤을 데이터 및 AI 전반에 걸쳐 일관되게 구현할 수 있습니다. 모델에 대한 액세스는 지원되는 리전 중 하나에서 가능합니다. 또한 리전 간 추론을 활성화하면 다른 리전에서도 액세스가 가능합니다. 잠재적으로 부적절하거나 안전하지 않은 응답을 필터링하는 Cortex Guard도 활성화할 수 있습니다. Guardrails는 유해 콘텐츠 필터링에 중점을 둔 정책을 시행함으로써 거버넌스를 강화합니다. 

SQL 및 Python

이 모델은 데이터 파이프라인이나 Streamlit in Snowflake 앱에 통합되어 테이블의 여러 행을 처리할 수 있습니다. SQL과 Python 모두 액세스할 수 있는 Complete 함수가 이 통합에 사용될 수 있습니다. LLM 추론 애플리케이션에 사용되는 Cortex AI의 Complete 함수 내에서 'guardrails: true'를 추가하면 유해한 콘텐츠를 필터링할 수 있습니다. DeepSeek 모델에 대한 액세스는 Snowflake Notebook이나 사용자 지정 클라이언트를 위한 OAuth를 사용하여 선호하는 IDE를 통해서도 가능합니다. 추가 템플릿과 SQL 함수 사용 방법에 대한 상세 정보는 여기에서, Python 구문에 대한 정보는 여기에서 알아보세요.

SELECT SNOWFLAKE.CORTEX.COMPLETE('deepseek-r1', 
   [{'content': CONCAT('Summarize this customer feedback in bullet points:<feedback>', content ,'</feedback>')}], 
    {'guardrails': true}
);

Cortex Guard를 활성화하면 폭력 범죄, 혐오, 성적 콘텐츠, 자해 등과 관련된 유해 콘텐츠가 포함된 언어 모델 응답이 자동으로 필터링되며 모델은 'Response filtered by Cortex Guard'라는 메시지를 반환합니다.  AI 보안에 대한 Snowflake의 관점을 자세히 알아보시려면 AI 보안 프레임워크 백서를 참조하세요. 

REST API 

Snowflake 외부에서 실행되는 서비스나 애플리케이션이 짧은 지연 시간 안에 Cortex Al에 대한 추론 호출이 가능하려면 REST API 인터페이스를 선택하는 것이 가장 이상적입니다. 그 예시 화면은 다음과 같습니다.

curl -X POST \
    "model": "deepseek-r1",
    "messages": [{ "content": "Summarize this customer feedback in bullet points: <feedback>”}],
    "top_p": 0,
    "temperature": 0.6,
    }' \
https://<account_identifier>.snowflakecomputing.com/api/v2/cortex/inference:complete

다음 단계

DeepSeek에 따르면 이 모델은 SFT 없이 강화 학습(RL)만으로 LLM의 추론 능력을 향상시킬 수 있음을 입증한 첫 번째 오픈소스 모델입니다. Cortex AI는 SQL 함수와 REST API를 통해 손쉽게 통합이 가능하며, 고객은 Cortex Guard를 통해 필수적인 보안 제어를 구현할 수 있습니다. Snowflake AI Research 팀은 DeepSeek-R1을 개선하여 추론 비용을 더욱 줄여나갈 계획입니다. 고객들은 DeepSeek-R1을 통해 비용 대비 성능 효율성을 높이고 생성형 AI 애플리케이션의 배포 속도를 가속화할 수 있습니다. 이러한 혁신은 이 분야에서 더 많은 진전이 이뤄질 수 있도록 길을 열어줄 것입니다.

 

참고: 이 페이지에는 당사의 향후 제품 제공에 대한 미래 전망 진술이 포함되어 있으며, 이는 제품 제공에 대한 보장이 아닙니다. 실제 결과 및 제공 내용은 다를 수 있으며, 알려지거나 알려지지 않은 위험 및 불확실성의 영향을 받을 수 있습니다. 자세한 내용은 최신 10-Q를 참조하세요.

Photo illustration of two women collaborating near a computer and other images representing tech and teamwork
Ebook

Secrets of Gen AI Success

Discover how leaders like Bayer and Siemens Energy use gen AI to increase revenue, improve productivity and better serve customers.
기사 공유하기

새로운 멀티 모달 지원, 향상된 관측성 등으로 엔터프라이즈 AI 구축 가속화

Snowflake는 개발자에게 사용자 지정 AI를 프로덕션화할 수 있는 능력을 제공합니다. 이를 통해 고품질의 신뢰할 수 있는 AI 및 ML 애플리케이션을 더 쉽게 구축할 수 있습니다.

Snowflake에서 Python을 통한 데이터 과학 및 ML의 향상 그 이상

이제 Python용 Snowflake의 공개 미리 보기 및 기타 새로운 기능을 통해 데이터 팀은 더 빠르고 더 나은 방식으로 구축하고, 새로운 방식으로 협업할 수 있습니다. 이에 관한 내용을 더 읽어 보세요.

이제 OpenAI GPT-5.2도 Snowflake Cortex AI에서

OpenAI GPT-5.2가 이제 Snowflake Cortex AI에서 제공되며, LLM 기능과 REST API를 통해 최신 모델에 안전하게 접근할 수 있습니다.

이제 Claude Opus 4.5도 Snowflake Cortex AI에서

Claude Opus 4.5가 이제 Snowflake Cortex AI에서 제공되며, LLM 기능과 REST API를 통해 Anthropic의 최신 모델에 안전하게 접근할 수 있습니다.

Anthropic Claude Sonnet 4.5 출시---Snowflake Cortex AI에서도 제공

Anthropic의 Sonnet 4.5 모델이 Snowflake Cortex AI에서 공개 미리보기로 제공됩니다. Cortex AISQL, REST API를 통해 안전하게 사용할 수 있으며, 곧 Snowflake Intelligence 및 Cortex Agents에서도 사용할 수 있습니다.

데이터 에이전트의 통합 및 확장을 지원하는 Snowflake MCP 서버

Snowflake의 MCP 서버 지원을 통해 AI 에이전트 통합을 간소화하고 통합된 오케스트레이션으로 Cortex Search 및 Cortex Analyst에 안전하게 액세스할 수 있는 방법을 알아보세요.

Snowflake, 올 상반기부터 한국 및 멕시코에서도 Azure 지원

Snowflake는 2025년 H1 중으로 Microsoft Azure Mexico 및 Microsoft Azure Seoul의 새로운 배포를 통해 데이터 클라우드 인프라를 확장할 계획입니다. 블로그에서 자세한 내용을 확인하세요.

Snowflake Cortex AI의 AI 옵저버빌리티 및 평가 기능 활용을 통한 엔터프라이즈 AI의 신뢰도 제고

Snowflake Cortex AI는 내장형 옵저버빌리티, 평가 및 성능 모니터링 기능을 통해 신뢰성 높고 즉시 운용 가능한 AI 앱의 구축을 지원합니다.

비정형 텍스트 분석 규모, 효율적인 배치 LLM 추론으로 확장 실현

Snowflake Cortex AI를 사용하여 효율적인 배치 LLM 추론으로 대규모 비정형 텍스트에서 인사이트를 확보하고 SQL로 대규모 텍스트 분석을 간소화합니다.

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Where Data Does More

  • 30일 무료 평가판
  • 신용카드 불필요
  • 언제든지 취소 가능