엔터프라이즈 AI 수명 주기 통합: Snowflake, AWS 및 NVIDIA 기반 Blackwell 컴퓨팅을 AI 데이터 클라우드에 도입

NVIDIA Blackwell을 활용한 AI 데이터 클라우드 최적화로 독점 IP 보호 및 전체 AI 수명 주기 개발 가속화

기존 엔터프라이즈 AI는 분산된 구조로, 학습, 추론 및 모델 제공을 각각 별도의 환경에서 운영해야 했습니다. 이러한 분리는 신뢰 경계를 넘나드는 복잡한 데이터 이동을 초래하며, 보안 위험과 운영 오버헤드를 증가시키는 원인이 됩니다. Snowflake는 AWS(Amazon Web Services) 및 NVIDIA와 협력하여 Snowflake AI 데이터 클라우드 내에서 AI 수명 주기를 통합해 이러한 과제를 해결하고 있습니다.

NVIDIA RTX PROTM 6000 Blackwell Server Edition GPU는 Amazon EC2 G7e 인스턴스를 통해 일부 AWS 리전에서 곧 Snowflake 플랫폼에 제공될 예정입니다. 이 통합은 고성능 시각 및 생성형 AI 컴퓨팅을 엔터프라이즈 데이터 인접 환경에서 직접 실행할 수 있도록 지원합니다. NVIDIA Blackwell급 컴퓨팅을 Snowflake 아키텍처에 임베딩함으로써, 고객은 높은 처리량이 요구되는 AI 모델, 에이전트 및 애플리케이션을 구축할 수 있으며, 데이터가 위치한 거버넌스 기반 보안 경계 내에서 이를 실행할 수 있습니다. 

AI 수명 주기를 위한 단일 플랫폼

이번 출시를 통해 Snowflake는 단순한 고성능 인스턴스 제공을 넘어, 최신 AI 팀의 다양한 지연 요구와 워크플로우를 지원하는 통합 플랫폼으로 확장하고 운영 처리 속도 향상을 기반으로 총소유비용(TCO)을 절감했습니다.

  • 학습 및 데이터 로드를 위한 Snowflake Container Runtime: 데이터 사이언티스트는 Snowflake Notebooks를 활용해 GPU 기반 컨테이너를 프로비저닝하여 인터랙티브 개발과 Snowflake ML 내 간편한 배포를 수행할 수 있습니다. 이 환경은 NVIDIA cuDF 및 cuML 라이브러리를 활용하여 pandas 및 scikit-learn 워크플로우에서 코드 변경 없이 GPU 가속화를 지원합니다. 또한 확장 가능한 분산 훈련을 지원하여 최소한의 구성으로 Blackwell 클러스터 전반에서 멀티노드 PyTorch 학습 작업을 실행할 수 있습니다. 이러한 고성능 GPU를 효율적으로 활용하기 위해 Snowflake ML DataConnector는 이미지와 PDF와 같은 비정형 데이터를 Snowflake 스테이지에서 직접 병렬로 읽어들여 I/O 병목 없이 최적의 GPU 활용을 지원합니다.

  • 실시간 및 배치 추론을 지원하는 유연한 배포: 밀리초 단위 지연 시간이 요구되는 사용자 대상 애플리케이션의 경우, 모델을 Snowpark Container Services(SPCS)에 배포하여 실시간 추론을 수행할 수 있습니다. 수백만 건의 이력 데이터를 스코어링하는 것과 같은 대규모 데이터 처리의 경우, 이 플랫폼은 NVIDIA Blackwell 아키텍처 지원이 예정된 Snowpark-optimized Warehouse를 활용합니다.

  • 정확도를 연결하는 시맨틱 컨텍스트: 엔터프라이즈급 AI는 범용 모델만으로는 달성할 수 없는 수준의 정밀도를 요구합니다. NVIDIA Blackwell 아키텍처는 Snowflake Intelligence에 필요한 고속 추론 루프를 가속화합니다. 가속 컴퓨팅을 Snowflake 시맨틱 계층에 결합함으로써 엔터프라이즈는 모델이 비즈니스 로직과 데이터에 담긴 특정 ‘의미’를 이해하도록 보장하고, 정확도 격차를 해소하며 프로덕션 의사 결정에 필요한 정밀도 수준을 달성할 수 있습니다.

엔터프라이즈 컴퓨팅의 새로운 기준

NVIDIA RTX PRO 6000 Blackwell GPU는 대규모 언어 모델과 멀티 모달 워크플로우의 고강도 요구 사항을 충족하도록 설계되었습니다. 각 GPU는 96GB의 GDDR7 메모리를 제공하며, 단일 카드에서 700억 개 이상의 파라미터를 가진 모델과 비전-언어 모델(VLM)을 지원하여 GPU 간 통신 지연을 최소화합니다.

FP4를 네이티브로 지원하는 5세대 Tensor Core가 포함되어 이전 세대 대비 최대 5배 높은 추론 처리량을 제공합니다. 이 아키텍처는 AI 배포 환경에서 정확도와 지연 시간을 모두 고려해 컴퓨팅 계층을 최적화합니다.

NVIDIA RTX PRO 6000 Blackwell Server Edition과 새로운 NVIDIA RTX PRO 4500 Blackwell Server Edition GPU는 모두 곧 Snowflake 고객에게 제공될 예정입니다.

사용 사례: 비정형 보험 데이터를 위한 멀티 모달 인텔리전스

대형 보험사는 매년 수백만 건의 보험금 청구를 처리하며, 정형 데이터와 함께 고해상도 사고 사진 및 수기 보고서와 같은 대규모 비정형 데이터를 관리합니다. 이러한 데이터에서 지능형 검색 시스템을 구축하려면, 메모리나 I/O 한계에 도달하지 않으면서 복잡한 파일을 대규모로 수집, 임베딩, 분석할 수 있는 파이프라인이 필요합니다.

  1. 대규모 제로 카피 수집: 하루 100,000건의 사고 보고서를 처리하는 경우, 기존 시스템에서는 대규모 I/O 병목이 발생합니다. Snowflake ML은 사용자 정의 함수 내 사용자 정의 코드를 기반으로 DataConnector 또는 Snowpark 동적 파일 액세스를 사용함으로써 Snowflake 스테이지에서 파일을 직접 병렬로 스트리밍하고 분석할 수 있도록 지원합니다. 이 파이프라인은 RTX PRO Blackwell 6000의 96GB GDDR7 메모리를 활용해 고해상도 이미지의 대규모 배치를 인메모리로 처리합니다. 디스크로 스필링하지 않고 GPU에서 직접 리사이징과 정규화를 수행함으로써, Snowflake는 데이터 변환 단계가 컴퓨팅 성능에 맞춰 처리 속도를 유지하도록 지원합니다.

  2. 멀티 모달 학습 간소화: 보험금 청구를 ‘이해’하려면 모델은 시각적 손상 정보와 텍스트를 통합된 벡터 공간으로 매핑해야 합니다. 데이터 사이언티스트는 Snowflake Notebooks를 활용해 데이터 상에서 직접 CLIP과 같은 사용자 지정 임베딩 모델을 위한 분산 PyTorch 학습 작업을 실행할 수 있습니다. Snowflake는 클러스터 관리 복잡성을 추상화하며, 기반이 되는 Blackwell 아키텍처는 학습 속도를 가속합니다. 이 조합을 통해 팀은 수백만 건의 청구 데이터  쌍을 수일이 아닌 수시간 내에 학습할 수 있으며, 생성된 모델 아티팩트는 확장 가능한 추론을 위해 Snowflake Model Registry에서 자동으로 버전 관리됩니다.

  3. 사기 방지를 위한 통합 배포: 학습이 완료된 모델은 사기 감지 파이프라인의 핵심으로 작동합니다. 원클릭 배포를 통해 데이터 사이언티스트는 Snowflake ML API를 사용하여 모델을 Snowpark Container Services에 배포해 실시간 추론을 수행하거나 Snowpark 기반 가상 웨어하우스에 배포해 배치 처리를 수행할 수 있습니다. 이러한 유연성을 통해 동일한 Blackwell 하드웨어로 수천 건의 과거 보험금 청구에 대한 고대역폭 분석과 신규 이미지 업로드에 대한 저지연 평가를 모두 수행할 수 있으며, 동시에 Snowflake Horizon이 제공하는 거버넌스와 데이터 계보 추적을 유지할 수 있습니다.

사용 사례: 퀀트 금융 포트폴리오 최적화 가속

리서치 팀은 Snowflake Notebooks와 NVIDIA Blackwell의 FP4 정밀도를 활용하여 수십 년간 축적된 비정형 대안 데이터(오디오, 이미지)를 기반으로 트레이딩 전략을 고속으로 백테스트할 수 있습니다. 이를 통해 거버넌스가 적용된 데이터 환경에서 거래 신호를 빠르게 생성할 수 있으며, 속도 측면에서 차별화된 경쟁력을 확보합니다. 기존의 느린 처리 방식에서 벗어나 기업은 이제 준실시간에 가까운 속도로 복잡한 포트폴리오 최적화를 수행할 수 있으며 이전 대비 최대 80배 빠른 속도를 달성합니다. 이러한 통합 접근 방식은 민감 정보를 단일 플랫폼 내에서 안전하게 보호하고 거버넌스를 유지하면서 트레이더가 더 빠르게 데이터 기반 의사 결정을 내릴 수 있도록 지원합니다. 아키텍처를 확인하세요.

시작하기

지금 NVIDIA Blackwell GPU를 Snowflake에 통합하여 고처리량 AI 사용 사례를 구현하세요. NVIDIA RTX PRO 6000 Blackwell GPU는 Amazon EC2 G7e 인스턴스를 통해 일부 AWS 리전에서 사용 가능하며, NVIDIA RTX PRO 4500 Blackwell GPU 기반 인스턴스도 곧 제공될 예정입니다. 배포 설명서와 Quickstart 가이드는 곧 공개됩니다. 자세한 내용은 다음 리소스를 확인하세요. 

 

미래 전망 진술

본 자료에는 향후 제품 제공 등에 대한 미래 전망 진술이 포함되어 있으나, 이는 어떠한 제품 제공에 대해서도 실제 제공을 보장하는 것은 아닙니다. 실제 결과와 제공 내용은 상이할 수 있으며, 이는 알려진 및 알려지지 않은 위험과 불확실성의 영향을 받을 수 있습니다. 보다 자세한 내용은 최신 10-Q를 참조하세요.

글로벌 연구

2026 생성형 AI와 에이전트의 ROI

에이전트를 통해 초기 도입 기업들은 생성형 AI의 성과를 기반으로 확장을 이어가고 있습니다.
기사 공유하기

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Where Data Does More

  • 30일 무료 평가판
  • 신용카드 불필요
  • 언제든지 취소 가능