엔터프라이즈 AI의 민주화: 데이터 기반 혁신을 더욱 가속화하고 간소화하는 Snowflake의 새로운 AI 기능

Snowflake Summit 2025에서는 AI를 쉽고 효율적이며 신뢰할 수 있도록 만드는 혁신적인 기능들이 소개되었습니다. Snowflake의 안전한 보안 경계 내에서 완전하게 관리되는 이러한 기능들을 통해 비즈니스 사용자와 데이터 사이언티스트는 복잡한 도구나 인프라 없이도 정형 및 비정형 데이터를 실행 가능한 인사이트로 전환할 수 있습니다.
테이블 분석, 문서 처리, AI 에이전트 배포 또는 학습 모델에 상관없이 , 이러한 기능은 Snowflake의 보안 플랫폼에 통합되어 통합된 거버넌스를 제공하며, 인프라 관리나 복잡한 도구를 사용할 필요도 없습니다.
이번 Summit에서는 AI 관련 4가지 주요 개선 사항이 소개되었습니다.
데이터 에이전트: Snowflake는 Snowflake Intelligence(PuPr 예정) 및 Snowflake Cortex Agents(GA 예정)를 통해 지능형 기능을 제공합니다. Snowflake Intelligence는 정형 및 비정형 데이터를 신속하고 신뢰할 수 있는 비즈니스 작업으로 전환하며, Cortex Agents는 다단계 태스크를 오케스트레이션하고 Microsoft Teams 또는 사용자 지정 앱에 통합시킵니다.
Cortex AISQL 및 분석: AI를 사용하는 멀티 모달 데이터 처리를 친숙한 SQL에 도입함으로써 Cortex AISQL(PuPr)은 복잡한 AI 워크플로우에 대한 접근성을 높임과 동시에 Snowflake의 포괄적인 비정형 데이터 인사이트 제공 기능을 보완합니다. 여기에는 스키마 인식 테이블 추출 기능이 향상된 Document AI와 새로운 추출 모델인 ‘Arctic-Extract’가 포함됩니다. Arctic-Extract는 문서 추출을 29개 언어로 지원하며, 새로운 함수인 ai_extract(PuPr 예정)를 통해 호출할 수 있습니다.
생성형 AI 산업을 선도하는 모델, 평가, 옵저버빌리티 및 AI 게이트웨이: Snowflake Cortex AI의 AI 옵저버빌리티(GA 예정)는 생성형 AI 앱의 노코드 및 전문가 코드 모니터링을 지원합니다. Snowflake는 또한 OpenAI(Microsoft Azure OpenAI Service를 통해), Anthropic, Meta, Mistral 및 기타 주요 공급업체들의 LLM(대규모 언어 모델)에 대한 접근을 모두 Snowflake의 안전한 보안 경계 내에서 제공합니다. AI 거버넌스 게이트웨이는 강력한 액세스 제어, 세분화된 사용량 추적, 예산 실행(PrPr 예정) 등 고객이 거버넌스 정책을 손쉽게 구현할 수 있는 기능을 제공합니다.
머신러닝(ML): 자율적인 데이터 사이언스 에이전트의 도입 등으로 확장성과 유연성이 향상된 프로덕션용 모델을 구축하고 제공하여 개발 워크플로우 전반에서 생산성을 높입니다.
이러한 새로운 기능들은 개발을 단순화하고, 안정적으로 확장하며, Snowflake의 거버넌스 환경 내에서 신뢰를 유지하기 위한 통합 AI 기반을 구성합니다.
““Luminate는 생성형 AI를 통해 데이터 기반 인사이트를 제공하는 방식을 혁신하고 있습니다. Snowflake의 통합 플랫폼은 개발자들에게 정형 및 비정형 데이터 모두에 대한 확장 가능한 처리 및 검색 기능을 제공하며, 이는 저희 애플리케이션을 구동하는 데이터 에이전트를 구축하고 조율하는 기반이 됩니다. Snowflake의 거버넌스 경계 내에서 Cortex AI를 사용함으로써 개발 시간을 절약하고, 에이전틱 AI로 엔터테인먼트 산업 데이터의 잠재력을 최대한 발휘할 수 있게 되었습니다.” —Glenn Walker, Chief Data Officer, Luminate Data
1. 데이터 에이전트: 에이전트 구축 및 멀티 모달 데이터 대규모 분석
데이터 에이전트는 Snowflake Intelligence를 통해 셀프서비스 인사이트를 지원하여 모든 데이터를 쿼리할 수 있는 자연어 인터페이스를 비즈니스 사용자에게 제공합니다. 사용자는 대시보드나 SQL 없이도 복잡한 질문을 할 수 있고, 단 몇 초 만에 거버넌스가 적용된. 설명 가능한 답변을 얻을 수 있습니다.
Cortex Agents와 Cortex Analyst, Cortex Search 등과 같은 도구는 개발자들이 정형 및 비정형 데이터를 넘나들며 추론을 수행하고, LLM, SQL 및 시맨틱 검색 워크플로우를 오케스트레이션하는 신뢰할 수 있는 프로덕션 지원 AI 애플리케이션을 구축할 수 있습니다.
Model Context Protocol(MCP)은 AI 시스템을 데이터 소스와 연결하기 위한 개방형 표준을 제공합니다. Snowflake에서도 조만간 MCP 서버 지원을 PrPr로 제공할 예정입니다. MCP 서버 지원이 정식 개시되면 개발자는 Snowflake MCP 서버를 통해 Cortex Analyst와 Cortex Search를 도구로 제공할 수 있게 됩니다.

1a. 비즈니스 팀을 위한 셀프서비스 인텔리전스 활용
Snowflake Intelligence는 비즈니스 사용자에게 정형 및 비정형 데이터를 모두 사용할 수 있는 AI 기반 자연어 인터페이스를 제공합니다. 사용자는 SQL이나 대시보드 없이도, 일반 영어 문장으로 복잡한 질문을 하고 단 몇 초만에, 설명 가능하고 거버넌스가 적용된 답변을 얻을 수 있습니다. 이러한 에이전트는 Snowflake의 보안 경계 내에서 실행되며, 역할 기반 액세스, 마스킹 및 감사 제어를 자동으로 적용합니다. 엔터프라이즈 데이터를 종합적으로 추론하고, 다양한 데이터 소스 간의 관계를 파악하며, 테이블, PDF, Jira, Salesforce, Zendesk 등으로부터 종합된 답변을 반환할 수 있습니다.
1b. 데이터 에이전트를 활용하여 모두를 위한 데이터 인사이트 간소화 실현
데이터 에이전트는 비기술 팀이 자연어를 사용하여 인사이트를 추출할 수 있도록 해줍니다. 사용자는 자동 차트 작성, 계보 추적, 설명 기능을 통해 인사이트가 어떻게 생성되는지 확인할 수 있습니다. 개발자는 새로운 사용 사례를 신속하게 배포하고 원하는 앱에 임베딩하여 혁신과 영향력을 가속화할 수 있습니다.
1c. 신뢰할 수 있는 대화형 애플리케이션 구축
Cortex Agents(GA 예정)를 통해 개발자는 정형 데이터와 비정형 데이터 모두를 기반으로 생성형 AI 애플리케이션을 구축할 수 있습니다. 이러한 에이전트는 LLM, SQL 및 시맨틱 검색을 결합한 워크플로우를 오케스트레이션하여 고품질의 설명 가능한 결과를 제공합니다. 이 에이전트들은 Claude 3.7 Sonnet, OpenAI GPT-4.1 및 o4-mini(GA 예정)와 같은 모델을 기반으로 하여, 정확한 결과를 위해 태스크를 계획, 실행, 개선합니다. 내장형 설명 기능과 API 액세스를 통해 Microsoft 팀 및 코파일럿을 신속하게 배포 통합할 수 있으므로 사용자는 협업 도구 내에서 직접 AI를 사용할 수 있습니다.
2. Cortex AISQL 및 분석: 멀티 모달 데이터를 인사이트로 재정의
비정형 데이터는 복잡성으로 인해 여전히 충분히 활용되지 못하고 있습니다. Cortex AI SQL은 팀이 전문 도구 없이 친숙한 SQL 구문을 사용하여 문서, 이미지 및 기타 형식을 분석할 수 있도록 지원함으로써 이 문제를 해결합니다. 이번 Summit에서 새롭게 소개된 기능은 아래와 같습니다.
SQL과 AI의 결합: SQL 내에서.메타데이터 추출, 감성 분류, 검색 임베딩을 모두 수행할 수 있습니다.
비정형 데이터에서 가치 추출: 이제 스키마 인식 테이블 추출(PuPr)을 지원하는 Document AI를 사용하여, 복잡한 PDF에서 최소한의 정리 작업으로 정형 테이블을 추출할 수 있습니다.
자동 시맨틱 모델 생성(PrPr): Snowpark Container Service를 사용하여, 수동 모델 설정을 제거하고 네이티브 차트 시각화를 통해 인사이트를 탐색하며, 브랜드 기반 경험을 구축할 수 있습니다.
2a. Cortex AISQL을 통해 분석가를 AI 개발자로 전환
Cortex AI SQL은 SQL을 엔터프라이즈 AI의 핵심 언어로 재정의합니다. 팀은 네이티브 AI 연산자를 통해 새로운 도구를 학습하거나 데이터를 중복 생성할 필요 없이 텍스트, 오디오, 이미지 및 정형 데이터를 결합한 멀티 모달 워크플로우를 구축할 수 있습니다.
Cortex AI SQL은 최적화된 배치 추론 및 성능 최적화 알고리즘(PrPr)을 통해 기존 파이프라인 보다 30~70% 향상된 성능을 제공하여(내부 벤치마크 결과 기준, 일반적인 사용 방식에 따라 구현) 분석가도 AI 개발자가 될 수 있도록 지원합니다.
사용 사례에는 기록 매칭, 사기 감지, 엔터프라이즈 규모의 시맨틱 조인이 포함되며. 이 모든 것이 SQL로 작성됩니다.
2b. 비정형 데이터에서 가치 추출
Snowflake는 또한 Document AI를 위한 차세대 비전 모델인 arctic-extract(PrPr)를 소개했습니다.
이 모델은 총 29개 언어(일본어, 한국어, 독일어, 프랑스어, 스페인어, 중국어 포함)를 지원하며, 분류 및 정규화를 포함한 향상된 추론 기능을 제공합니다.
검색 측면에서는 Cortex Search에 다음 기능이 추가됩니다.
개체 식별 및 사기 감지와 같은 처리량이 높은 태스크에 유용한 배치 퍼지 검색
메타데이터별 멀티 필드 검색, 스코어링 및 순위 지정을 위한 고급 API(GA로 제공 중)
노코드 검색 관리, 진단 및 관련성 튜닝을 위한 Snowsight의 관리자 UI(GA 예정) 및 품질 평가 스튜디오(PuPr 예정)
팀은 또한 Cortex Search를 지원하기 위해 사용자 지정 벡터 임베딩(PuPr)을 도입하여 Snowflake의 안전한 플랫폼과 독점 모델의 결과물을 결합함으로써 성능과 제어 능력을 향상시킬 수 있습니다.
2c. 자동화된 시맨틱 모델 및 차트 미리 보기로 데이터 인사이트 가속화
자동 시맨틱 모델 생성(PrPr) 기능 덕분에 Cortex Analyst를 위한 시맨틱 모델을 손쉽고 빠르게 생성할 수 있습니다. 스키마 메타데이터, 쿼리 이력 및 대시보드를 분석하여 성능이 뛰어나고 재사용 가능한 모델을 구축함으로써 수 주간 소요되던 수작업을 없애줍니다. 차트 기능(PuPr)은 사용자가 AI 결과와 함께 시각적으로 인사이트를 탐색할 수 있도록 지원합니다.
Snowpark Container Services(AWS 및 Azure에서 GA로 제공 중, Google Cloud Platform에서 곧 출시 예정)는 중앙 집중식 로깅, 거버넌스 및 보안 기능을 통해 Snowflake 내에서 풀스택 앱 및 API를 기본적으로 호스팅할 수 있는 확장 가능한 런타임을 제공합니다.
3. 생성형 AI 옵저버빌리티, 모델 선택 및 확장 가능한 인프라: AI를 자신 있게 배포
Snowflake는 조직이 AI를 안전하고 안정적으로 확장할 수 있도록 지원하기 위해 다음을 제공합니다.
AI 옵저버빌리티: 생성형 AI의 정확도 및 성능을 위한 노코드 평가 도구
모델 액세스: Meta, OpenAI, Anthropic 및 Mistral의 주요 LLM에 대한 액세스 제공
프로비저닝된 처리량: 프로덕션 규모에서 예측 가능한 추론 성능
3a. Cortex AI 내 평가 및 추적
Snowsight의 AI 옵저버빌리티(GA)는 팀이 평가 데이터 세트를 사용하여 정확도와 적용 범위를 측정할 수 있도록 돕습니다. LLM을 판단 도구로 활용하는 스코어링 방식은 Snowflake 내에서 안전하게 실행되는 사실 기반성(groundedness), 유용성 및 유해성을 평가합니다. 에이전트 추적 로그 및 모델 비교와 같은 기능은 디버깅, 프롬프트 개선 및 거버넌스를 간소화합니다.
3b. Snowflake에서 OpenAI, Anthropic 등 다양한 모델에 안전하게 액세스
Snowflake의 모델 생태계는 이제 OpenAI, Anthropic, Meta 및 Mistral을 포함한 업계 최고의 LLM에 대한 액세스를 제공합니다. 여기에는 Azure AI Foundry의 Microsoft Azure OpenAI 서비스를 통한 OpenAI의 GPT-4.1 및 o4-mini와 Anthropic의 Claude Opus 4 및 Claude Sonnet 4와 같은 최신 세대 모델들이 포함됩니다. 이 모델들은 Snowflake의 보안 경계 내에서 실행되므로 데이터가 안전하게 보호되며 학습에 결코 사용되지 않습니다.
고객은 인프라를 관리할 필요 없이, 요약, 분류, 번역, 에이전트 추론 등 각 사용 사례에 가장 적합한 모델을 매칭할 수 있습니다.
Cortex AI는 또한 Google Cloud Platform으로 확장됩니다. Google Cloud Platform의 Snowpark Container Service(GA 예정)를 통해 고객은 데이터 이동을 방지하고 거버넌스를 유지하면서 GCP 리전에서 오픈 소스 모델을 배포할 수 있습니다.
Cortex AI는 또한 Google Cloud Platform으로 확장됩니다. Google Cloud Platform의 Snowpark Container Services(GA 예정)를 통해 고객은 데이터 이동을 방지하고 거버넌스를 유지하면서 GCP 리전에서 오픈 소스 모델을 배포할 수 있습니다.
3c. 엔터프라이즈용 AI를 위한 처리량 프로비저닝 기능
처리량 프로비저닝 기능(AWS 및 Azure에서 GA로 제공)을 통해 팀은 생성형 AI 앱에 대한 전용 추론 역량을 확보할 수 있습니다. 모든 Snowflake 리전에서 REST API를 통해 액세스할 수 있으므로, 공유 서비스의 예측 불가능성 없이 일관된 성능을 지원할 수 있습니다. 이는 인프라 설정에 따른 오버헤드 없이 POC(개념 증명 단계)에서 프로덕션으로 전환하는 데 이상적입니다.
3d. AI 거버넌스 게이트웨이: 생성형 AI를 위한 엔터프라이즈 제어
AI 거버넌스 게이트웨이는 고객이 Snowflake의 보안 경계 내에서 SQL(또는 REST API)을 통해 업계 최고의 LLM에 바로 액세스할 수 있는 단일 인터페이스를 제공합니다. 포괄적인 역할 기반 액세스 제어(RBAC)를 통해 고객은 강력한 거버넌스 정책을 구현할 수 있습니다. 각 AI 기능에 대한 세분화된 사용량 추적 뷰와 예산 집행 제어 기능(PrPr 예정)이 결합됨에 따라, 고객은 조직 전반에서 생성형 AI의 사용량을 모니터링하고 관리할 수 있습니다. 또한 Cortex Guard로 유해한 콘텐츠를 필터링함으로써 책임감 있는 AI를 구동할 수 있으며, AI 옵저버빌리티를 통해 생성형 AI 앱의 정확성과 성능을 평가할 수 있으며 디버깅과 최적화도 가능합니다. 이는 결국 프로덕션 배포에 대한 신뢰와 투명성을 향상시킵니다. Cortex AI는 AI를 고객의 데이터로 가져오며, AI 거버넌스 게이트웨이를 통해 고객은 생성형 AI 애플리케이션 제공을 가속화할 수 있습니다.
4. Snowflake ML을 통한 프로덕션에서 모델 구축 및 운영 실현
예측형 ML은 사기 감지, 고객 세분화, 추천 엔진과 같은 사용 사례에 있어 여전히 중요한 핵심 요소입니다. 그러나 이러한 모델을 구축하고 배포하려면 관리가 어렵고 유지 관리 비용이 많이 드는 여러 도구를 통합해야 하는 경우가 많습니다.
Snowflake ML을 통해 기업들은 이제 엔드투엔드 워크플로우 전반에 걸쳐 거버넌스가 적용되는 데이터와 긴밀하게 통합된 최신 ML 솔루션을 갖게 되었습니다. 예를 들어, Coinbase 및 Cloudbeds와 같은 고객들은 이를 통해 예측형 인사이트를 이끌어 내고 있고, 캐나다의 대표적인 고객 충성도 프로그램인 Scene+는 Snowflake ML을 사용하는 30개 이상의 모델에서 프로덕션 전환 시간을 60% 이상 단축하고 비용을 35% 이상 절감했습니다.
Snowflake는 올해 Summit에서 확장 가능하고 유연한 ML에 초점을 맞춘 새로운 제품군을 발표함으로써 빠른 혁신 속도를 이어갔으며, 이를 통해 고객은 다음과 같은 이점을 누릴 수 있습니다.
데이터 사이언스 에이전트(PrPr 예정)로 ML 파이프라인 생성을 자동화하여 데이터 사이언티스트의 생산성을 향상함
컨테이너 런타임(GA로 제공)의 분산형 학습 API를 통해 프로덕션 준비 모델을 더 빠르게 구축하고 네이티브 실험 추적(PrPr예정)을 통해 학습 작업을 손쉽게 관리할 수 있음
ML Jobs(GA 예정)를 사용하여 원하는 IDE(통합 개발 환경)에서 Snowflake 데이터 기반의 ML 파이프라인을 쉽게 배포하고 조율할 수 있음
Snowflake Feature Store의 확장 가능한 컴퓨팅을 기반으로 지연 시간이 짧은 온라인 예측(PrPr 예정)을 위한 피처를 제공함
이 모든 기능은 내장형 ML 옵저버빌리티와 통합되어 사용자 정의 지표 지원을 바탕으로 간편한 모니터링 및 알람 기능을 제공할 수 있습니다.

4a. 에이전틱 AI를 신뢰할 수 있는 ML에 적용하여 생산성 가속화 실현
Snowflake는 모든 고객이 생성형 AI를 비롯한 최신 업계 선도 기술을 손쉽고 효율적으로 사용할 수 있도록 지원하는 데 전념하고 있습니다. 당사는 데이터 사이언티스트의 역량 강화에 LLM의 최신 혁신을 적용하는 데 아직 활용되지 못한 기회가 있다고 봅니다. 이번 Summit에서 발표한 바와 같이 Snowflake는 간단한 자연어 프롬프트에서 완전히 실행 가능한 ML 파이프라인을 자율적으로 반복하고 조정하며 생성하는 데이터 사이언스 에이전트(AWS에서 PrPr 예정)를 활용하여 예측형 ML의 생산성을 극대화하기 위해 에이전틱 AI를 적용하고 있습니다.

Antropic 추론 모델을 기반으로 하는 데이터 사이언스 에이전트는 다단계 계획을 사용하여 문제를 개별 단계로 분해하고, 데이터 준비, 피처 엔지니어링 및 교육을 비롯한 ML 워크플로우의 각 단계에서 가장 성능이 뛰어난 기법을 선택합니다.
팀은 검증된 ML 파이프라인을 빠르게 생성한 후, 도메인 지식을 기반으로 후속 작업을 제공하여 성능과 정확도를 쉽게 반복 개선함으로써 최적화된 다음 버전(next best version)을 만들 수 있습니다. 이를 통해 도출되는 결과물은 프로덕션을 지원하고 완벽하게 작동하는 ML 파이프라인으로서, Snowflake Notebooks on Container Runtime에서 쉽게 실행할 수 있습니다. 데이터 사이언티스트는 지루한 실험 및 디버깅 작업을 자동화함으로써 수작업 시간을 절약하고 더 영향력 있는 이니셔티브에 집중할 수 있습니다.
4b. 모든 IDE에서 Snowflake 데이터 기반의 확장 가능한 ML 파이프라인 구축 및 오케스트레이션
ML 개발을 위해 Snowflake는 Snowflake 데이터 기반의 모델 구축을 훨씬 쉽고 강력하게 만들어 줄 새로운 기능들을 발표했습니다. 이는 네이티브로 통합된 Snowflake Notebooks를 사용하거나, 편리한 푸시다운 메커니즘을 통해 원하는 외부 IDE를 사용하는 방식 모두를 지원합니다. 고객은 이제 Container Runtime의 분산형 ML API(AWS 및 Azure에서 GA로 제공)에 쉽게 액세스하여 모든 IDE에서 데이터 로딩, 모델 훈련 및 하이퍼파라미터 튜닝을 가속화할 수 있습니다.
모델 버전이 학습 실행 중에 반복적으로 개선됨에 따라, 가장 성능이 뛰어난 모델은 API 또는 Snowsight UI로 액세스할 수 있는 네이티브 통합 실험 추적 기능(PrPr 예정)을 통해 신속하게 식별, 공유 및 재현될 수 있습니다.
ML Jobs(AWS 및 Azure에서 GA 예정)는 Snowflake 태스크 또는 Airflow와 같은 외부 도구를 통해 ML 파이프라인을 개발하고 자동화할 수 있도록 원격 ML 코드 실행을 트리거하는 편리한 메커니즘을 제공합니다. 또한 외부 IDE(VS Code, PyCharm, SageMaker Notebooks)에서 작업하는 것을 선호하는 팀은 ML Jobs에 포함된 인터페이스를 통해 함수, 파일 또는 모듈을 Snowflake Container Runtime.으로 디스패치할 수 있습니다.

4c. 어디서든 구축된 ML 모델을 대규모로 배포
모델은 구축되는 위치와 방법에 상관없이 Snowflake Model Registry에 로깅되고, 실시간 또는 배치 예측을 위해 CPU 또는 GPU 컴퓨팅을 사용하여 Snowpark Container Services(AWS 및 Azure에서 GA로 제공)에서 확장 가능한 추론을 위해 제공될수 있습니다. 고객은 또한 지연 시간이 짧은 추론 애플리케이션을 위해 모델을 REST API 엔드포인트에 배포할 수도 있습니다. 여기에는 클라이언트 측 모델을 다운로드하지 않고, 클릭 한 번으로 Hugging Face(PrPr 예정)의 모델을 손쉽게 배포할 수 있게 하는 지원이 포함됩니다. 팀은 Snowflake에서 모델 핸들과 작업을 로깅하고 제공하기만 하면, 이미지 분류부터 문장 유사성, 오브젝트 감지에 이르는 최고 수준의 Hugging Face 훈련 모델에 즉시 액세스할 수 있습니다.

또한 Snowflake Feature Store는 이제 개인화된 추천, 가격 책정, 이상 감지 및 고객 서비스와 같은 사용 사례를 지원하기 위해 배치 방식 외에 저지연 온라인 추론(PrPr 예정)을 위한 피처 제공 기능도 지원합니다.
Snowflake에 추론 결과를 저장하는 모델은 Snowflake의 ML 옵저버빌리티(GA) 기능과 자동으로 통합되어 신뢰할 수 있는 예측을 가능하게 합니다.
자세히 알아보기 및 리소스 확인
이번 Summit에서는 엔터프라이즈 AI를 사용하기 쉽고, 효율적으로 배포하고, 신뢰할 수 있게 실행하도록 만드는 여러 혁신 기술을 소개했습니다. Snowflake Intelligence는 정형 및 비정형 데이터를 실행 가능한 인사이트로 전환하며, Cortex Agents는 데이터 전반에 걸쳐 복잡한 다단계 태스크를 오케스트레이션합니다.
Cortex AISQL은 멀티 모달 데이터 처리를 친숙한 SQL 워크플로우로 가져오고, AI 옵저버빌리티는 생성형 AI 애플리케이션을 확장하기 위한 강력한 모니터링 및 평가 도구를 제공합니다. 기존의 워크플로우를 위해 Snowflake ML은 고객이 프로덕션 환경에서 모델을 더 쉽고 유연하게 구축하고 제공할 수 있도록 지원합니다.
이러한 개선 사항을 통해 Snowflake는 조직이 데이터를 확신을 가지고 지능형 행동으로 자신 있게 대규모로 전환할 수 있도록 지원합니다.
다음 리소스를 활용하여 Snowflake AI를 시작해 보세요.
ML 모델의 프로덕션화: 엔드투엔드 ML 워크플로우를 Snowflake Notebooks(무료 평가판에서 사용 가능)나 원하는 IDE에서 구축해 보세요.
미래 전망 진술
이 페이지에는 당사의 향후 제품 제공에 대한 미래 전망 진술이 포함되어 있으며, 이는 제품 제공에 대한 보장이 아닙니다. 실제 결과 및 제공 내용은 다를 수 있으며, 알려지거나 알려지지 않은 위험 및 불확실성에 영향을 받을 수 있습니다. 자세한 내용은 최신 10-Q를 참조하세요.