Snowflake Cortex로 실현하는 신속하고 간편하며 안전한 LLM 앱 개발
생성형 AI(Gen AI)와 대규모 언어 모델(LLM)은 글로벌 규모의 업무 수행 방식을 혁신하고 있습니다. 이에 발맞춰 Snowflake는 플랫폼의 사용 편의성, 보안, 거버넌스의 활용을 지원하는 혁신적인 제품군을 선보이게 되었습니다. 이를 활용하면 LLM을 분석 프로세스에 몇 초 만에 통합할 수 있습니다. 또한, 개발자는 Snowflake의 보안 경계 내에서 생성형 AI 기반 앱을 몇 분 안에 생성하거나 엔터프라이즈 데이터에 대한 파운데이션 모델 미세 조정과 같은 강력한 워크플로우를 실행할 수 있습니다. 이러한 발전을 통해 개발자와 분석가는 기술 수준과 관계없이 안전하게 관리되는 엔터프라이즈 데이터에 생성형 AI를 적용할 수 있습니다.
Snowflake를 통해 엔터프라이즈 데이터에서 생성형 AI를 손쉽고 안전하게 활용하는 데 사용할 수 있는 모든 기능을 살펴보도록 하겠습니다.
Snowflake 고객은 다음 두 가지 기초 구성 요소에 액세스하여 기존 데이터에 생성형 AI를 안전하게 적용할 수 있습니다.
Snowflake Cortex: Snowflake Cortex(PrPr)는 조직이 신속하게 데이터를 분석하고 AI 애플리케이션을 구축할 수 있도록 업계 최고의 AI 모델, LLM, 벡터 검색 기능에 대한 액세스를 제공하는 지능적인 완전 관리형 서비스입니다. 기업이 자사 데이터를 이해하는 LLM 앱을 빠르게 구축할 수 있도록 Snowflake Cortex는 지속 성장 중인 서버리스 함수 세트에 대한 액세스를 제공합니다. 이를 통해 Meta AI의 Llama 2 모델과 같은 업계 최고의 생성형 LLM을 비롯하여, 분석 속도를 높이는 작업 특화 모델, 고급 벡터 검색 기능에 대한 추론을 수행할 수 있습니다.
Snowflake Cortex의 성능은 개발자에 국한되지 않습니다. 완전한 사용자 인터페이스를 갖춘 Snowflake Cortex는 LLM 경험을 실현하는 기반 서비스이기도 합니다. 이에는 Document AI(PrPr), Snowflake Copilot(PrPr), Universal Search(PrPr)가 포함됩니다.
Snowpark Container Services: 새롭게 추가된 Snowpark 런타임(일부 AWS 리전에서 PuPr로 제공 예정)을 통해 개발자는 GPU 인스턴스가 포함된 안전한 Snowflake 관리형 인프라를 사용하여 오픈 소스 LLM 미세 조정과 같은 작업에 컨테이너화된 사용자 정의 워크로드와 모델을 손쉽게 배포, 관리 및 확장할 수 있습니다. 모두 Snowflake 계정 내에서 이루어집니다. 자세한 정보와 최신 소식을 확인하세요.
이 두 가지 구성 요소를 통해 개발자는 Snowflake의 관리 경계 외부로 데이터를 이동하지 않고도 LLM 앱을 구축할 수 있는 능력을 무제한으로 확보할 수 있습니다.
신속한 AI 활용
Snowflake는 엔터프라이즈 데이터 및 AI에 대한 액세스를 민주화하고, 소수의 전문가에 그치지 않고 활용 영역을 확대하기 위해 사용자 정의 통합 또는 프론트엔드 개발 없이 모든 사용자가 최신 LLM의 이점을 누릴 수 있도록 혁신적인 기능을 제공하고 있습니다. 이에는 Snowflake Copilot과 같은 완전한 UI 기반 경험뿐만 아니라, Snowflake Cortex를 통해 제공되는 특수 및 범용 모델을 사용하여 비용 효율적으로 분석 속도를 높이는 LLM 기반 SQL 및 Python 함수에 대한 액세스가 포함됩니다. 여기를 클릭하여 자세히 알아보세요.
데이터를 통한 신속한 LLM 앱 구축
이제 개발자는 통합이나 수동 LLM 배포, GPU 기반 인프라 관리 작업 없이도 비즈니스와 데이터에 함축된 미묘한 의미와 표현 등을 학습하는 LLM 앱을 몇 분 내에 구축할 수 있습니다. 개발자는 다음을 통해 Snowflake 내에서 기본적으로 검색 증강 생성(Retrieval Augmented Generation, RAG)을 사용하여 자체 데이터로 사용자 정의된 LLM 애플리케이션을 구축할 수 있습니다.
Snowflake Cortex 함수: 완전 관리형 서비스인 Snowflake Cortex를 사용하면 복잡한 인프라를 관리할 필요 없이 LLM 앱 개발에 필요한 기본 구성 요소에 액세스할 수 있습니다.
이에는 업계 최고의 오픈 소스 LLM과 고성능 독점 LLM을 활용하여 프롬프트 엔지니어링을 손쉽게 구현하고 광범위한 사용 사례를 지원할 수 있도록 돕는 범용 함수 세트가 포함되어 있습니다. 초기 모델에 포함된 내용은 다음과 같습니다.
- Complete(PrPr) - 사용자는 프롬프트를 전달하고 사용하고자 하는 LLM을 선택할 수 있습니다. PrPr에서 선택할 수 있는 Llama 2의 모델 크기는 7B, 13B, 70B의 세 종류입니다.
- Text2SQL(PrPr) - Snowflake Copilot 환경을 지원하는 동일한 Snowflake LLM을 사용하여 자연어를 SQL로 변환합니다.
이들 함수에는 벡터 임베딩과 시맨틱 검색 기능도 포함됩니다. 따라서 사용자는 데이터를 활용하여 모델의 응답을 컨텍스트화하고 사용자 정의 앱을 몇 분 만에 생성할 수 있습니다. 상세 내용은 다음과 같습니다.
- Embed Text(PrPr 예정) - 이 기능은 사용자가 선택한 임베딩 모델을 사용하여 지정된 텍스트 입력을 벡터 임베딩으로 변환합니다.
- Vector Distance(PrPr 예정) - cosine similarity - vector_cosine_distance(), L2 norm - vector_l2_distance(), inner product - vector_inner_product()의 세 가지 함수 중에서 선택하여 벡터 간의 거리를 계산할 수 있습니다.
- Native Vector Data Type(PrPr 예정) - 이들 함수를 데이터에 대해 실행할 수 있도록 Snowflake에서 기본적으로 지원되는 데이터 유형에 벡터가 추가되었습니다.
Streamlit in Snowflake(PuPr): Streamlit을 사용하면 팀은 프론트엔드 경험 없이도 단 몇 줄의 Python 코드로 인터페이스를 개발할 수 있어 LLM 앱을 더욱 신속하게 생성할 수 있습니다. 단 한 번의 클릭으로 앱을 생성하고 Snowflake의 기존 역할 기반 액세스 제어를 활용하는 고유한 URL을 통해 조직 전체에 안전하게 배포 및 공유할 수 있습니다. 여기에서 자세히 알아보세요.
Snowpark Container Services: 사용자 정의 UI 배포, 오픈 소스 LLM 미세 조정 등이 가능
LLM 애플리케이션을 추가로 사용자 정의할 경우, Snowpark Container Services(일부 AWS 리전에서 PuPr 예정)를 사용하면 개발 내용을 거의 제한 없이 Snowflake에서 구축하고 배포할 수 있습니다. 개발자는 이러한 추가 Snowpark 런타임 옵션을 통해 구성 가능한 하드웨어 옵션(예: NVIDIA GPU)이 포함된 안전한 Snowflake 관리 인프라를 사용하여 작업, 서비스, 서비스 함수 등 컨테이너화된 워크로드를 손쉽게 배포, 관리 및 확장할 수 있습니다.
Snowflake의 관리 및 보호 범위 외부로 데이터를 이동하지 않고도 LLM 앱에 적용할 수 있는 가장 일반적인 사항 중 일부를 아래에 소개합니다.
- 오픈 소스 LLM 및 벡터 데이터베이스 배포 및 세부 조정: GPU 기반 인프라를 Snowpark Model Registry와 연결하면 오픈 소스 LLM의 배포, 미세 조정 및 관리뿐만 아니라, Snowflake의 단순성을 활용하여 계정의 보안 경계 내에서 Weaviate와 같은 오픈 소스 벡터 데이터베이스 실행 작업을 손쉽게 수행할 수 있습니다.
- 상용 앱, LLM 및 벡터 데이터베이스 사용: Snowflake Native Apps와의 PrPr 통합에 따라 Snowpark Container Services를 사용하여 Snowflake 계정에서 정교한 앱을 완전히 실행할 수 있습니다. 이러한 앱에는 AI21 Labs 또는 Reka.ai의 상용 LLM, Hex와 같은 주요 노트북 서비스, Weights & Biases의 고급 LLMOps 도구, Pinecone과 같은 벡터 데이터베이스 등이 있습니다. Snowflake의 애플리케이션 개발에 대한 최신 발표 내용은 여기에서 확인하세요.
- LLM 앱을 위한 사용자 정의 사용자 인터페이스(UI) 개발: Snowpark Container Services는 LLM 애플리케이션을 구축하는 엔터프라이즈 개발자에게 최적의 유연성을 제공합니다. ReactJS와 같은 프레임워크로 사용자 정의 프론트엔드를 생성하려면 Snowflake에서 사용할 수 있도록 코드와 함께 컨테이너 이미지를 배포하기만 하면 됩니다.
시작에 필요한 리소스
Snowflake는 모든 사용자가 LLM과 AI를 사용하여 엔터프라이즈 데이터에서 신속하고 안전하게 가치를 얻을 수 있도록 지원합니다. Snowflake Cortex, Streamlit, Snowpark Container Services가 제공하는 필수 구성 요소를 활용하면 Snowflake의 관리 및 보안 경계 외부로 데이터를 이동할 필요가 없으며, AI를 즉시 사용하거나 사용자 정의 LLM 앱을 몇 분 만에 구축할 수 있는 유연성을 확보할 수 있습니다. 시작하는 데 도움이 되는 자세한 정보는 아래 내용을 참조하세요.
- Streamlit in Snowflake로 앱 구축하기
- Snowpark Container Services에 대한 상세 정보 및 PuPr 관련 최신 정보 확인하기
- 미리 보기에 액세스하려면 담당 영업 팀에 문의하세요.
참고: 이 내용은 2023. 11. 01에 게시된 컨텐츠(Fast, Easy and Secure LLM App Development With Snowflake Cortex)에서 번역되었습니다.