Demokratisierung von Unternehmens-KI: Snowflakes neue KI-Funktionen beschleunigen und vereinfachen datengestützte Innovationen

Auf dem Snowflake Summit 2025 haben wir Innovationen vorgestellt, die KI einfach, effizient und zuverlässig machen. Diese Funktionen werden vollständig in der sicheren Umgebung von Snowflake verwaltet und ermöglichen es geschäftlichen Benutzer:innen und Data Scientists, strukturierte und unstrukturierte Daten in verwertbare Einblicke zu verwandeln, und zwar ohne komplexe Tools oder Infrastrukturen.
Unabhängig davon, ob Kunden Tabellen analysieren, Dokumente verarbeiten, AI Agents oder Trainingsmodelle einsetzen – all diese Funktionen sind in die sichere Plattform von Snowflake mit einheitlicher Governance integriert, wodurch Infrastrukturmanagement oder komplexe Tools überflüssig werden.
Auf dem Summit haben wir vier wichtige KI-Fortschritte vorgestellt:
Data Agents: Wir bieten intelligente Funktionen mit Snowflake Intelligence (demnächst in Public Preview) und Snowflake Cortex Agents (demnächst allgemein verfügbar). Snowflake Intelligence verwandelt strukturierte und unstrukturierte Daten in schnelle, vertrauenswürdige geschäftliche Maßnahmen, während Cortex Agents mehrstufige Tasks orchestriert und sich in Microsoft Teams oder benutzerdefinierte Apps integrieren lässt.
Cortex AISQL und Analytics: Durch die Integration von multimodaler Datenverarbeitung mittels KI in vertrautes SQL macht Cortex AISQL (in Public Preview) komplexe KI-Workflows zugänglich und ergänzt Snowflakes umfassendes Angebot an Erkenntnissen aus unstrukturierten Daten. Dazu gehören erweiterte Document AI mit Schema-Aware Table Extractions und ein neues Extraktionsmodell „Arctic-Extract“. Dieses unterstützt die Extraktion aus Dokumenten in 29 Sprachen, die über unsere neue Funktion ai_extract aufgerufen werden können (demnächst in Public Preview).
Branchenführende Modelle, Bewertung, Beobachtbarkeit und AI Gateway für generativer KI: AI Observability in Snowflake Cortex AI (demnächst allgemein verfügbar) ermöglicht No-Code- und Pro-Code-Überwachung von GenAI-Apps. Snowflake bietet auch Zugriff auf LLMs von OpenAI über Microsoft Azure OpenAI Service, Anthropic, Meta, Mistral und andere führende Anbieter – alles in der sicheren Umgebung von Snowflake. Das AI Governance Gateway bietet Funktionen, mit denen Kunden ganz einfach Governance-Richtlinien implementieren können, darunter robuste Zugriffskontrolle, detaillierte Nutzungsverfolgung und Budgetdurchsetzung (demnächst in Private Preview).
Maschinelles Lernen (ML): Entwicklung und Bereitstellung produktionsbereiter Modelle mit verbesserter Skalierbarkeit und Flexibilität, einschließlich der Einführung des autonomen Data Science Agent zur Steigerung der Produktivität über Entwicklungsworkflows hinweg.
Gemeinsam bilden diese Markteinführungen eine einheitliche KI-Grundlage, die die Entwicklung vereinfacht, zuverlässig skaliert und das Vertrauen in die kontrollierte Snowflake-Umgebung bewahrt.
„Bei Luminate revolutionieren wir die Bereitstellung datenbasierter Erkenntnisse durch generative KI. Die einheitliche Plattform von Snowflake bietet unseren Entwickler:innen skalierbare Verarbeitung und Abfrage strukturierter und unstrukturierter Daten – die Grundlage für die Entwicklung und Orchestrierung von Data Agents für unsere Anwendungen. Der Einsatz von Cortex AI innerhalb der Governance-Grenzen von Snowflake spart uns Entwicklungszeit und ermöglicht es uns, das volle Potenzial von Daten der Unterhaltungsindustrie mit Agentic AI auszuschöpfen.“
Glenn Walker
1. Data Agents: Agents entwickeln und multimodale Daten in großem Umfang analysieren
Data Agents ermöglichen Self-Service-Einblicke mit Snowflake Intelligence und bieten geschäftlichen Benutzer:innen ein Natural Language Interface, um all ihre Daten abzufragen. Benutzer:innen können komplexe Fragen stellen und in Sekundenschnelle kontrollierte, erklärbare Antworten ohne Dashboards oder SQL erhalten.
Cortex Agents und Tools wie Cortex Analyst und Cortex Search ermöglichen es Entwickler:innen, vertrauenswürdige, produktionsbereite KI-Anwendungen zu entwickeln, die über strukturierte und unstrukturierte Daten hinweg funktionieren und Workflows mit LLMs, SQL und semantischer Suche orchestrieren.
Das Model Context Protocol (MCP) bietet einen offenen Standard für die Verbindung von KI-Systemen mit Datenquellen. Wir freuen uns, bekannt geben zu können, dass MCP-Server-Unterstützung auf Snowflake verfügbar sein wird (demnächst in Private Preview). Beim Launch können Entwickler:innen Cortex Analyst und Cortex Search als Tools mit dem Snowflake MCP-Server nutzen.

1a. Self-Service-Intelligence für Geschäftsteams ermöglichen
Snowflake Intelligence bietet geschäftlichen Benutzer:innen ein KI-gestütztes Natural Language Interface, mit dem sie sowohl mit strukturierten als auch mit unstrukturierten Daten interagieren können. Benutzer:innen können komplexe Fragen in einfachem Englisch stellen und erhalten in Sekundenschnelle erklärbare, kontrollierte Antworten – ganz ohne SQL oder Dashboards. Diese Agenten werden innerhalb der Sicherheitsumgebung von Snowflake ausgeführt und setzen automatisch rollenbasierte Zugriffs-, Maskierungs- und Auditkontrollen durch. Sie können über Unternehmensdaten hinweg argumentieren, Beziehungen zwischen verschiedenen Datenquellen erkennen und synthetisierte Antworten aus Tabellen, PDFs, Jira, Salesforce, Zendesk und mehr zurückgeben.
1b. Dateneinblicke für alle vereinfachen mit Data Agents
Mit Data Agents können Teams ohne technische Kenntnisse Einblicke unter Verwendung natürlicher Sprache gewinnen. Benutzer:innen können sehen, wie mithilfe von automatischen Diagrammen, Lineage Traceability und Erklärbarkeit Einblicke generiert werden. Entwickler:innen können neue Anwendungsfälle schnell bereitstellen und Analytics in jede App ihrer Wahl einbetten und so Innovation und Wirkung beschleunigen.
1c. Zuverlässige dialogorientierte Anwendungen entwickeln
Mit Cortex Agents (demnächst allgemein verfügbar) können Entwickler:innen GenAI-Anwendungen entwickeln, die sowohl strukturierte als auch unstrukturierte Daten berücksichtigen. Diese Agenten ermöglichen hochwertige, erklärbare Ergebnisse, indem sie Workflows orchestrieren, die LLMs, SQL und semantische Suche kombinieren. Diese Agents basieren auf Modellen wie Claude 3.7 Sonnet, OpenAI GPT-4.1 und o4-mini (demnächst allgemein verfügbar) und planen Aufgaben, führen diese aus und optimieren sie, um genaue Ergebnisse zu erzielen. Integrierte Erklärbarkeit und API-Zugriff ermöglichen eine schnelle Bereitstellung und Integration mit Microsoft Teams und Copilot, sodass Benutzer:innen direkt in ihren Collaboration-Tools mit KI interagieren können.
2. Cortex AISQL und Analytics: mit Snowflake multimodale Daten in Erkenntnisse verwandeln
Unstrukturierte Daten werden aufgrund ihrer Komplexität nicht ausreichend genutzt. Cortex AISQL löst dieses Problem, indem Teams Dokumente, Bilder und andere Formate mithilfe der vertrauten SQL-Syntax und ohne spezielle Tools analysieren können. Auf dem Summit haben wir Folgendes vorgestellt:
SQL trifft auf KI: Metadaten extrahieren, Stimmung klassifizieren oder Einbettungen suchen – alles in SQL.
Wertschöpfung aus unstrukturierten Daten: Nutzen Sie Document AI, jetzt unterstützt es die schemabasierte Tabellenextraktion (in Public Preview), um strukturierte Tabellen aus komplexen PDFs mit minimaler Bereinigung zu extrahieren.
Automatische semantische Modellgenerierung (Private Preview): Verzichten Sie auf manuelle Modelleinrichtung, untersuchen Sie Erkenntnisse mit nativer Diagrammvisualisierung und erstellen Sie Markenerlebnisse mit Snowpark Container Services.
2a. Mit Cortex AISQL werden Analyst:innen zu KI-Entwickler:innen
Cortex AISQL erfindet SQL als zentrale Sprache für Unternehmens-KI neu Mit nativen KI-Operatoren können Teams multimodale Workflows entwickeln, die Text, Audio, Bilder und strukturierte Daten kombinieren, ohne neue Tools zu implementieren oder Daten zu duplizieren.
Die Lösung bietet 30-70 % Performance-Verbesserungen gegenüber herkömmlichen Pipelines (basierend auf internen Benchmark-Ergebnissen, implementiert pro normaler Nutzung), unterstützt durch optimierte Batch-Inferenz und einen Performance-Optimierungsalgorithmus (Private Preview), sodass Analyst:innen zu KI-Entwickler:innen werden können.
Anwendungsfälle umfassen Datensatzabgleich, Betrugserkennung und semantische Joins im Unternehmensmaßstab, die alle in SQL geschrieben sind.
2b. Wert aus unstrukturierten Daten schöpfen
Wir haben außerdem unser Next-Generation-Vision-Modell für Document AI namens „arctic-extract“ (Private Preview) vorgestellt. Es unterstützt nun insgesamt 29 Sprachen (darunter Japanisch, Koreanisch, Deutsch, Französisch, Spanisch und Chinesisch) und bietet erweiterte Funktionen mit logischem Denken wie Classification und Normalization.
Auf der Abrufseite fügt Cortex Search hinzu:
Batch Fuzzy Search für Aufgaben mit hohem Durchsatz wie Entitätenauflösung und Betrugserkennung
Advanced APIs (allgemein verfügbar) für Multifield-Suche, Bewertung und Ranking nach Metadaten
Admin-UI in Snowsight (allgemein verfügbar) und Quality Evaluation Studio (demnächst in Public Preview) für No-Code-Suchmanagement, Diagnose und Relevanzanpassung
Teams können außerdem benutzerdefinierte Vektoreinbettungen (Public Preview) für Cortex Search nutzen, um die sichere Plattform von Snowflake mit proprietären Modellausgaben zu kombinieren und so für mehr Performance und Kontrolle zu sorgen.
2c. Dateneinblicke beschleunigen mit automatisierten semantischen Modellen und Charts-Preview
Dank der Automatic Semantic Model Generation (Private Preview) kann Cortex Analyst einfacher und schneller semantische Modelle erstellen. Durch die Analyse von Schema-Metadaten, Abfragehistorie und Dashboards werden leistungsstarke, wiederverwendbare Modelle erstellt, wodurch Wochen der manuellen Arbeit entfallen. Mit den Charts (in Public Preview) können Nutzende Einblicke visuell neben KI-Ergebnissen untersuchen.
Snowpark Container Services (allgemein verfügbar auf AWS und Azure, demnächst auf Google Cloud Platform) bietet eine skalierbare Laufzeit für das native Hosting von Full-Stack-Apps und APIs in Snowflake mit zentraler Protokollierung, Governance und Sicherheit.
3. Beobachtbarkeit, Modellauswahl und skalierbare Infrastruktur für generative KI: KI zuverlässig einsetzen
Damit Unternehmen KI sicher und zuverlässig skalieren können, bietet Snowflake:
AI Observability: No-Code-Bewertungstools für GenAI-Genauigkeit und -Performance
Modellzugriff: Top-LLMs von Meta, OpenAI, Anthropic und Mistral
Provisioned Throughput: Vorhersehbare Inferenzperformance im Produktionsmaßstab
3a. Evaluierung und Tracing in Cortex AI
AI Observability (allgemein verfügbar) in Snowsight hilft Teams bei der Messung von Genauigkeit und Abdeckung mithilfe von Bewertungsdatasets. LLM-as-a-Judge-Scoring bewertet Fundiertheit, Hilfsbereitschaft und Schädlichkeit – sicher in Snowflake ausgeführt. Features wie Agent Trace Logs und Modellvergleiche vereinfachen das Debugging, Prompt-Verfeinerung und Governance.
3b. Zugriff auf OpenAI, Anthropic und weitere Modelle – sicher auf Snowflake
Das Modell-Ökosystem von Snowflake umfasst nun den Zugriff auf branchenführende LLMs von OpenAI, Anthropic, Meta und Mistral – darunter Modelle der neuesten Generation wie OpenAIs GPT-4.1 und o4-mini über Microsoft Azure OpenAI Service in der Azure AI Foundry sowie Anthropics Claude Opus 4 und Claude Sonnet 4. Diese Modelle laufen innerhalb der Sicherheitsgrenzen von Snowflake, sodass die Daten geschützt bleiben und nie für das Training verwendet werden.
Kunden können das beste Modell für jeden Anwendungsfall, Zusammenfassung, Klassifizierung, Übersetzung, agentisches Denken und mehr abstimmen, ohne Verwaltung der Infrastruktur.
Cortex AI wird auch auf Google Cloud Platform erweitert. Mit Snowpark Container Services auf der Google Cloud Platform (demnächst allgemein verfügbar) können Kunden Open-Source-Modelle in GCP-Regionen bereitstellen, um Datenbewegungen zu vermeiden und Governance aufrechtzuerhalten.
Cortex AI wird auch auf Google Cloud Platform erweitert. Mit Snowpark Container Services auf Google Cloud Platform (demnächst allgemein verfügbar) können Kunden Open-Source-Modelle in GCP-Regionen bereitstellen und so Datenbewegungen vermeiden und die Governance wahren.
3c. Provisioned Throughput für unternehmenstaugliche KI
Provisioned Throughput (allgemein verfügbar auf AWS und Azure) gibt Teams dedizierte Inferenzkapazitäten für GenAI-Apps. Die über die REST API in allen Snowflake-Regionen verfügbare Lösung ermöglicht eine konsistente Performance ohne Unvorhersehbarkeit gemeinsam genutzter Dienste. Es ist ideal für den Übergang von POC in die Produktion, ohne den Aufwand für die Einrichtung der Infrastruktur.
3d. AI Governance Gateway: Unternehmenskontrolle für GenAI
Das AI Governance Gateway bietet eine einzige Oberfläche, mit der Kunden über SQL (oder REST APIs) direkt in der sicheren Umgebung von Snowflake auf branchenführende LLMs zugreifen können. Durch umfassende rollenbasierte Zugriffskontrolle (Role-Based Access Control, RBAC) können Kunden robuste Governance-Richtlinien implementieren. In Kombination mit Budget Enforcement Controls (demnächst in Private Preview) können Kunden die Nutzung generativer KI im gesamten Unternehmen überwachen und verwalten. Kunden können mit Cortex Guard verantwortungsvolle KI einsetzen, um schädliche Inhalte zu filtern. Mit AI Observability hingegen können Kunden ihre GenAI-Apps auf Genauigkeit und Performance bewerten, debuggen und optimieren. Das sorgt für mehr Vertrauen und Transparenz bei Produktionsbereitstellungen. Cortex AI bringt KI zu Ihren Daten und mit AI Governance Gateway können Kunden die Bereitstellung von GenAI-Anwendungen beschleunigen.
4. Modelle, die in der Produktion mit Snowflake ML entwickelt und operationalisiert werden
Prädiktives ML ist nach wie vor ein entscheidender Eckpfeiler für Anwendungsfälle wie Betrugserkennung, Kundensegmentierung und Empfehlungs-Engines. Für den Aufbau und die Bereitstellung solcher Modelle sind jedoch oft mehrere separate Tools erforderlich, die sich nur schwer kontrollieren und kostspielig verwalten lassen.
Mit Snowflake ML verfügen Unternehmen nun über eine moderne ML-Lösung, die über End-to-End-Workflows hinweg eng mit kontrollierten Daten integriert ist. Kunden wie Coinbase und Cloudbeds ermöglichen prädiktive Erkenntnisse. Scene+, ein großes Kundentreueprogramm in Kanada, verkürzt die Produktionszeit um über 60 % und senkt die Kosten um über 35 % für mehr als 30 Modelle, die Snowflake ML verwenden.
Auf dem Summit haben wir unser rasantes Innovationstempo mit einer Reihe neuer Ankündigungen fortgesetzt, die sich auf skalierbares, flexibles ML konzentrieren.
Steigerung der Produktivität von Data Scientists durch Automatisierung der Generierung von ML-Pipelines mit Data Science Agent (demnächst in Private Preview)
Schneller Erstellung produktionsbereiter Modelle mit verteilten Trainings-APIs in Container Runtime (allgemein verfügbar) und Trainingsjobs einfach mit nativem Experiment-Tracking verwalten (demnächst in Private Preview)
Bequeme Bereitstellung und Orchestrierung von ML-Pipelines über Snowflake-Daten, Betrieb von jeder beliebigen IDE mit ML Jobs (demnächst allgemein verfügbar)
Bereitstellung von Features für Online-Prognosen mit niedriger Latenz (demnächst in Private Preview) auf skalierbaren Rechenressourcen vom Snowflake Feature Store
All dies ist mit integrierter ML Observability für eine einfache Überwachung und Warnung dank Unterstützung für benutzerdefinierte Kennzahlen.

4a. Agentic AI in bewährtes ML einbringen, um die Produktivität zu steigern.
Wir bei Snowflake legen großen Wert darauf, dass alle unsere Kunden einfach und effizient die neuesten branchenführenden Technologien nutzen können, einschließlich GenAI. Wir sehen eine ungenutzte Chance, die neuesten Innovationen von LLMs anzuwenden, um Data Scientists zu befähigen. Auf dem Summit haben wir angekündigt, dass wir Agentic AI mit einem Data Science Agent (demnächst in Private Preview in AWS) anwenden, der eine vollständig ausführbare ML-Pipeline aus einfachen Natural Language Prompts autonom iteriert, anpasst und generiert, um die Produktivität in prädiktiver ML zu steigern.

Data Science Agent nutzt mehrere Planungsschritte, um ein Problem in verschiedene Schritte aufzuteilen, und wählt für jede Phase des ML-Workflows die beste Technik aus, einschließlich Datenaufbereitung, Feature Engineering und Training.
Nach der schnellen Generierung einer verifizierten ML-Pipeline können Teams auf der Grundlage ihres Fachwissens Follow-ups durchführen, um die Performance und Genauigkeit leicht zu iterieren und so die nächstbeste Version zu erhalten. Das Ergebnis ist eine produktionsbereite, voll funktionsfähige ML-Pipeline, die problemlos von Snowflake Notebooks on Container Runtime ausgeführt werden kann. Durch die Automatisierung der langwierigen Experimentier- und Debugging-Arbeit können Data Scientists Stunden manueller Arbeit sparen und sich auf wirkungsvollere Initiativen konzentrieren.
4b. Skalierbare ML-Pipelines auf Snowflake-Daten erstellen und orchestrieren, ausgehend von einer beliebigen IDE
Für die ML-Entwicklung haben wir eine Reihe neuer Funktionen angekündigt, die das Erstellen von Modellen auf Snowflake-Daten einfacher und leistungsstärker machen – entweder von nativ integrierten Snowflake Notebooks oder einer beliebigen externen IDE mit praktischen Pushdown-Mechanismen. Kunden können nun ganz einfach auf Distributed ML APIs in Container Runtime (allgemein verfügbar auf AWS und Azure) zugreifen, um das Laden von Daten, Modelltraining und Hyperparameteranpassung von jeder IDE aus zu beschleunigen.
Da Modellversionen während Trainingsläufen iteriert werden, kann das leistungsstärkste Modell schnell identifiziert, geteilt und aus nativ integriertem Experiment-Tracking (demnächst in Private Preview) reproduziert werden, das über APIs oder die Snowsight-Benutzeroberfläche zugänglich ist.
Um die Entwicklung und Automatisierung von ML-Pipelines zu erleichtern, die über Snowflake Tasks oder externe Tools wie Airflow orchestriert werden, bietet ML Jobs (demnächst allgemein verfügbar auf AWS und Azure) einen komfortablen Mechanismus zur Remote-Auslösung von ML-Codeausführung. Darüber hinaus ermöglichen die in ML Jobs enthaltenen Schnittstellen auch Teams, die bevorzugt in einer externen IDE (VS Code, PyCharm, SageMaker Notebooks) arbeiten, Funktionen, Dateien oder Module bis hinunter zur Container Runtime von Snowflake zu versenden.

4c. ML-Modelle bereitstellen, egal wo sie erstellt wurden, mit beliebiger Skalierbarkeit
Unabhängig davon, wo oder wie ein Modell erstellt wird, kann es in der Snowflake Model Registry protokolliert und bereitgestellt werden zur skalierbaren Inferenz auf Snowpark Container Services (allgemein verfügbar auf AWS und Azure) mithilfe von CPU- oder GPU-Rechenressourcen für Echtzeit- oder Batch-Prognosen. Kunden können Modelle auch in einem REST-API-Endpunkt bereitstellen für Inferenzanwendungen mit niedriger Latenz. Dazu gehört auch die Unterstützung für die einfache Bereitstellung von Modellen von Hugging Face (demnächst in Private Preview) mit einem Klick, ohne ein clientseitiges Modell herunterladen zu müssen. Indem Teams nur auf den Modell-Handle und Task für die Protokollierung und Bereitstellung in Snowflake weisen, können sie sofort auf die erstklassig trainierten Hugging Face-Modelle zugreifen, die von der Bildklassifizierung bis hin zur Satzähnlichkeit und Objekterkennung reichen.

Wir haben außerdem angekündigt, dass der Snowflake Feature Store ab sofort zusätzlich zu Batches auch Funktionen für Online-Inferenzen mit niedriger Latenz (demnächst in Private Preview) unterstützt, um Anwendungsfälle wie personalisierte Empfehlungen, Preisgestaltung, Anomalieerkennung und Kundenservice zu unterstützen.
Modelle, die Inferenzen in Snowflake speichern, werden automatisch mit Snowflakes ML Observability (allgemein verfügbar) integriert, um im Laufe der Zeit zuverlässige Prognosen zu ermöglichen.
Weitere Informationen und Ressourcen
Auf dem Summit haben wir Innovationen vorgestellt, um dafür zu sorgen, dass Unternehmens-KI benutzerfreundlich, effizient bereitzustellen und zuverlässig auszuführen ist. Snowflake Intelligence verwandelt strukturierte und unstrukturierte Daten in verwertbare Einblicke, während Cortex Agents komplexe, mehrstufige Aufgaben datenübergreifend orchestrieren.
Cortex AISQL integriert multimodale Datenverarbeitung in vertraute SQL-Workflows und AI Observability bietet robuste Monitoring- und Bewertungstools zur Skalierung von GenAI-Anwendungen. Bei herkömmlichen Workflows macht Snowflake ML die Entwicklung und Bereitstellung von Modellen in der Produktion für Kunden einfacher und flexibler.
Dank dieser Fortschritte können Unternehmen mit Snowflake ihre Daten zuverlässig in intelligente, skalierbare Maßnahmen verwandeln.
Sehen Sie sich die folgende Ressource zur Nutzung von Snowflake für KI an:
ML-Modelle in die Produktion bringen: Erstellen Sie einen End-to-End-ML-Workflow über Snowflake Notebooks (enthalten in der kostenlosen Testversion) oder einer beliebigen IDE
Zukunftsgerichtete Aussagen
Dieser Artikel enthält zukunftsgerichtete Aussagen, unter anderem über künftige Produktangebote. Diese Aussagen stellen keine Garantie dar, dass diese Angebote wirklich bereitgestellt werden. Die tatsächlichen Ergebnisse und Angebote können abweichen und unterliegen bekannten und unbekannten Risiken und Unsicherheiten. Weitere Informationen finden Sie in unserem jüngsten 10-Q-Formular.