엔터프라이즈를 위한 생성형 AI와 대규모 언어 모델(LLM)의 잠재력은 엄청납니다.   

우리는 이전에 이들의 기회에 대해 이야기한 바 있으며, Summit 2023에서는 고객이 자신의 독점 데이터에 안전한 단일 플랫폼에서 제공되는 생성형 AI와 LLM을 직접 적용할 수 있도록 지원하는 다양한 기능을 발표했습니다. 

Snowflake의 단일 플랫폼은 이전부터 고객이 데이터 사일로를 허물고 데이터에 더욱 다양한 발전 사항을 적용할 수 있도록 뒷받침해 왔습니다. 여기에는 Snowflake에서 Snowpark 컨테이너 서비스를 통해 선도적인 LLM을 실행하고 미세 조정(fine-tune)하는 기능, 내장된 LLM으로 데이터를 더 스마트하게 활용하는 기능, LLM 기반 경험으로 생산성을 높이는 기능 등이 포함됩니다. 이번 발표에 대해 자세히 알아보려면 계속 읽어보세요.

데이터에 LLM 도입

이번 Summit에서는 개발자가 구성 가능한(configurable) 하드웨어 옵션(예: NVIDIA GPU를 통한 가속 컴퓨팅)이 있는 안전한 Snowflake 관리형 인프라를 통해 컨테이너화된 데이터 앱을 손쉽게 등록 및 배포할 수 있도록 해주는 Snowpark 컨테이너 서비스(비공개 미리 보기 제공 중)를 발표했습니다. 이렇게 개선된 유연성은 Snowflake 데이터로 직접 가져올 수 있는 AI/ML 및 앱 워크로드의 범위를 크게 확장합니다.

당사는 고객이 선도적인 LLM을 더 쉽고 안전하게 활용할 수 있도록 Snowpark 컨테이너 서비스를 Snowflake 네이티브 앱의 일부로 사용할 수 있게 했습니다. 고객은 Snowflake 마켓플레이스를 통해 선도적인 LLM에 직접 액세스하고 이를 설치하여 Snowflake 계정에서 완전히 실행할 수 있습니다. 우리는 우선 AI21 Labs, Reka, NVIDIA(NVIDIA AI 엔터프라이즈 소프트웨어 플랫폼의 일부인 NeMo 프레임워크)와 같은 상용 LLM부터 제공합니다. 

이러한 공급자의 경우, LLM 가중치(weight)나 기타 독점 IP가 앱 소비자에게 노출되지 않습니다. 앱이 최종 소비자의 Snowpark 컨테이너 서비스를 통해 Snowflake 계정에서 배포 및 실행되는 경우에도 최종 소비자가 Snowflake 네이티브 앱의 로직과 데이터에 액세스할 수는 없기 때문입니다. 또한 LLM이 최종 소비자의 계정 내에서 실행되므로 미세 조정 등, LLM과의 상호 작용에 사용되는 관리형 엔터프라이즈 데이터가 제공자에게 다시 노출될 일도 없습니다. 서로에게 윈윈인 셈입니다. 실제로 어떻게 작동하는지 살펴보려면 데모를 확인해 보세요.  

Streamlit으로 LLM에 생명력 불어넣기

Streamlit은 항상 Python으로 구축된 대화형 애플리케이션으로서 데이터와 AI/ML 모델에 쉽고 재미있게 생명력을 불어넣는 방식이 되겠다는 비전을 품어 왔습니다. LLM의 경우에도 마찬가지입니다. Streamlit은 실제로 LLM 기반 앱의 UI 구축 표준으로 빠르게 자리 잡았습니다. 커뮤니티 클라우드에서는 이미 7,000개 이상의 LLM 기반 Streamlit 앱이 생성되었으며, 그 수는 매일 증가하고 있습니다. 그리고 GitHub에만 190,000개 이상(증가 중)의 Streamlit 코드 스니펫이 존재하며, 이 코드 스니펫은 모두 GPT4 등의 LLM과 상호 작용하는 데 도움이 됩니다. 이는 즉 분석가, 데이터 과학자뿐만 아니라 학생도 신속하게 분석하고, 새로운 앱을 프로토타이핑하고, 자동 생성된 Streamlit 조각(fragment)을 다른 앱에 통합할 수 있다는 것입니다.

Snowflake의 Streamlit(곧 공개 미리 보기 제공 예정) 통합에 따라 Snowflake 고객은 Streamlit을 사용하여 Snowflake에서 LLM 기반 앱과 경험을 위한 강력한 UI를 완전히 개발 및 배포할 수 있게 되었습니다. 이 모든 것이 Snowflake 플랫폼에서 실행되므로 팀은 기존 Snowflake 거버넌스를 통해 앱을 손쉽게 공유하고, 운영 부담 없이 앱을 빠르게 배포할 수 있습니다. 

네이티브 LLM으로 데이터를 더욱 스마트하게 활용

이 밖에도 Snowflake는 고객이 생산성을 높이고 데이터에서 새로운 통찰력을 창출할 수 있도록 플랫폼에 직접 LLM을 구축하고 있습니다. 고객이 특히 어려움을 겪는 분야 중 하나는 문서와 같은 비정형 데이터에서 가치를 파악하고 창출하는 것입니다. Snowflake는 문서 AI(비공개 미리 보기 제공 중)와 함께 선도적인 LLM을 제공하여 고객이 문서에서 정보를 빠르고 쉽게 추출하는 데 도움을 줍니다. 이가 실제로 어떻게 작동하는지 살펴보려면 여기를 참고하세요.

문서 AI는 Snowflake 플랫폼에 기본적으로 통합되어 있는 특수 목적의 멀티모달(multimodal) LLM을 활용합니다. 고객은 문서에서 인보이스 금액이나 계약 조건과 같은 콘텐츠를 쉽고 안전하게 추출하고, 결과를 시각 인터페이스와 자연어로 미세 조정할 수 있습니다. 이 모든 것이 Snowflake의 단일 플랫폼에 포함되어 있으므로, 데이터 엔지니어와 개발자는 스트림 및 작업이 있는 파이프라인이나 애플리케이션에서 프로그래밍을 통해 내장 또는 미세 조정된 모델을 호출하여 추론(inference)을 수행할 수도 있습니다. 

LLM 기반 경험으로 생산성 향상

이 산업 분야 전반에서 목격되었듯, LLM은 수동 코딩의 필요성을 줄이거나 검색 용이성(discoverability)을 개선하므로 사용자 생산성을 높이는 강력한 방법이 될 수 있습니다. 이번 Summit에서는 Snowflake 고객에게 LLM 기반 경험을 제공할, 개발 중인 여러 가지 개선 사항이 소개되었습니다. 여기에는 고객이 Snowflake 마켓플레이스에서 비즈니스 질문을 기반으로 데이터와 앱을 검색하는 데 도움이 되는 대화형 검색 경험, 사용자가 더 쉽게 데이터를 쿼리하고 Snowsight에서 새로운 통찰력을 발견하도록 하는 대화형 텍스트-코드 변환 기능 등이 포함됩니다. Snowflake는 코더 외에도 누구나 데이터에서 가치를 발견하고 이끌어낼 수 있도록 이 영역에서 계속 확장해 나갈 예정입니다.

다음 단계:

생성형 AI는 소프트웨어와 기업 전반에 걸쳐 근본적인 변화를 일으키고 있으나, 그 여정은 이제 막 시작되었을 뿐입니다. Snowflake를 통해 어떻게 엔터프라이즈에 LLM의 강력한 기능을 도입할 수 있는지 자세히 알아보려면 개발자 사이트를 계속 확인하세요. 


자세히 알아보기: Snowflake가 어떻게 생성형 AI와 LLM에 대한 데이터 중심 플랫폼을 구축하고 있는지 자세히 알아보세요. 이 블로그를 읽어보세요.

참고: 이 내용은 2023. 6. 28에 게시된 컨텐츠(Bring Gen AI & LLMs to Your Data)에서 번역되었습니다.