Hinter den Kulissen: So entsteht vertrauenswürdige KI für Go-to-Market-Teams

Wenn Sie ein Meeting mit der Geschäftsführung vorbereiten, steht viel auf dem Spiel. Jede Verkäuferin und jeder Verkäufer muss das Geschäft des Kunden verstehen, über aktuelle Ziele und Projekte informiert sein und alle jüngsten Kontaktpunkte im Detail kennen. Genauigkeit ist dabei entscheidend. Klingt nach stundenlanger Vorbereitung, oder? Es sei denn, Sie können sich auf KI stützen – und KI vertrauen –, um einen präzisen Überblick über Produkt-, CRM- und Vertriebsdaten sowie interne Wissensquellen zu erhalten.
Mit Snowflake Intelligence in der Public Preview machen wir genau das möglich. Im vergangenen Jahr haben wir ein generatives KI-Tool entwickelt – den GTM AI Assistant – speziell für unsere Go-to-Market-Teams. Er wurde entwickelt, um mehr zu leisten als nur Informationen bereitzustellen: Er interpretiert strukturierte und unstrukturierte Daten, versteht Geschäftskontexte und liefert vertrauenswürdige, umsetzbare Einblicke in Gesprächsgeschwindigkeit.
Das ist kein weiteres internes KI-Projekt. Es ist ein Enterprise-System, das unsere Vertriebs-, Betriebs- und Führungsteams entlang der gesamten Sales Journey unterstützt – und die benötigten Informationen standardisiert und demokratisiert, damit sie effizienter und effektiver arbeiten können. Die Ergebnisse müssen präzise sein. Und jede Designentscheidung zählt.
Hier ist, was wir dabei gelernt haben:
Lektion 1: Schmerzpunkte wirklich verstehen
Wir begannen den Prozess damit, die Workflows der Verkäufer zu analysieren und Reibungspunkte zu identifizieren. Ein Beispiel: die Vorbereitung auf Kundengespräche. Heute bedeutet das meist: mehrere Tabs öffnen. Verkäufer wechseln zwischen Dashboards, Salesforce, internen Dokumenten, Supportsystemen und Websuchen – und setzen die Informationen manuell zusammen.
Wir erkannten, dass diese Erfahrung mit KI dialogfähig werden kann – und nutzten Snowflake Intelligence, um das möglich zu machen. Der GTM AI Assistant ermöglicht es Verkäufer:innen, auf die gesamte Vertriebsdaten- und Wissensbasis zuzugreifen – und reduziert so die Zeit für Suche, Verifizierung und Synthese drastisch. So bleibt mehr Zeit für echte Verkaufsaktivitäten, die zu messbaren Geschäftsergebnissen führen.
Beispielsweise kann ein Verkäufer fragen:
- „Welche Schulung ist für diesen Anwendungsfall am relevantesten?“
- „Welche Funktionen hat mein Kunde zuletzt eingeführt – und welchen Mehrwert bieten sie?“
- „Fassen Sie bitte den Snowflake-Verbrauch der letzten 30 Tage zusammen.“
- „Welche Bereiche erfordern bei Customer ABC besondere Aufmerksamkeit?“
- „Welche ähnlichen Anwendungsfälle wären erwähnenswert?“
Und der Verkäufer erhält eine prägnante, kontextbezogene Antwort mit Informationen wie:
- Unternehmensübersicht: Ein kurzes Profil aus vertrauenswürdigen öffentlichen Quellen
- Snowflake-Footprint: Vertragsbedingungen, Workloads, Account-Team, Nutzungstrends und Prognosen
- Verbrauchseinblicke: 12-Monats-Performance mit Schlüsselmustern und Auffälligkeiten
- Anwendungsfalleinführung: Aktive und neu entstehende Anwendungsfälle, verknüpft mit Snowflake-Funktionen und Branchen-Benchmarks
- Support-Engagement: Zusammenfassung aktueller Tickets, Stimmungslage und offener Eskalationen
- Enablement und Best Practices: Kuratierte Schulungen, Produktleitfäden, Talk-Tracks und Fallstudien, zugeschnitten auf Branche, Persona und Reifegrad
Das ist mehr als nur Abruf – das ist echtes Reasoning. Der Assistent greift auf verschiedene Ressourcen zu, versteht den Kontext und hebt die wirklich relevanten Informationen hervor. Das Ergebnis: weniger Vorbereitung, mehr Wirkung in jedem Gespräch und mehr Zeit für die eigentlichen Go-to-Market-Aufgaben.
Lektion 2: Der richtige Inhalt schlägt alle Inhalte
Wir mussten sorgfältig überlegen, wie wir den GTM AI Assistant gestalten. Bei der Vielzahl an Informationen in Snowflake war klar: Nicht alles führt zu verlässlichen, präzisen Ergebnissen.
Eine unserer ersten Entscheidungen beim Design war daher, nicht alles zu indexieren. Nur weil KI auf jedes Deck, jede E-Mail oder jeden Slack-Kanal zugreifen kann, heißt das nicht, dass sie es tun sollte.
Die Qualität der Antworten eines LLM ist nur so gut wie der Kontext, den man ihm gibt. In Unternehmen ist dieser Kontext oft unstrukturiert, redundant, veraltet oder widersprüchlich. Die Indexierung tausender Dokumente über Dutzende Systeme hinweg mag vollständig wirken, führt aber häufig zu Verwirrung statt Klarheit.
Also wählten wir einen anderen Ansatz.
Anstatt jeden Workspace oder Chat zu durchsuchen, haben wir für den GTM AI Assistant eine kuratierte Sammlung vertrauenswürdiger, aktueller Inhalte zusammengestellt. Dazu gehören:
- Offizielle Vertriebsschulungen
- Zertifizierte Produkt- und Lösungsdecks
- Relevante Slack-Kanäle (mit Signal-Rausch-Schwelle)
- Enablement-Materialien unserer Produkt- und Marketingteams
Das Ergebnis? Wenn ein Verkäufer fragt: „Wie positioniere ich Snowpark am besten für einen Data Engineer?“, greift der Assistent nicht auf veraltete Skripte zurück, sondern zieht geprüfte, aktuelle Materialien heran.
Durch die Fokussierung auf hochwertige Inhalte erhöhen wir das Signal deutlich – und reduzieren Halluzinationen. Eine Lektion, die sich immer wieder bestätigt: Bei KI gilt nicht: mehr Kontext ist besser – sondern: besserer Kontext ist besser.
Lektion 3: Strukturierte Daten sind anders
Je nach Art der Frage kann „Genauigkeit“ ganz unterschiedlich bewertet werden. Bei offenen Fragen kann es mehrere korrekte Antworten geben – mit unterschiedlicher Formulierung, Länge oder Struktur.
Denken wir an eine typische Frage: „Wie hoch war der Q1-Verbrauchsumsatz meines Kunden?“
Hier ist Präzision nicht verhandelbar. Die Antwort muss auf den Cent genau stimmen – es gibt nur eine richtige Zahl.
Genau hier stoßen viele LLMs an ihre Grenzen. Sie sind probabilistisch und darauf ausgelegt, das nächste Wort vorherzusagen – was bei strukturierten Daten, die Präzision erfordern, zu Ungenauigkeiten führen kann. Im Gegensatz zu deterministischen Abfragen liefert ein LLM zudem nicht immer dieselbe Antwort, was Konsistenz ebenso wichtig wie Genauigkeit macht.
Deshalb ist hier der Anspruch besonders hoch. Und genau an diesem Punkt müssen sich Governance und Präzision mit generativer KI verbinden.
Diese Herausforderung zwang uns, Wege zu finden, die Flexibilität von LLMs mit der Präzision strukturierter Daten zu vereinen. Wir haben sie anhand von drei zentralen Designprinzipien gelöst:
1. Aufbau einer einheitlichen semantischen Datengrundlage
Bevor KI strukturierte Fragen beantworten kann, müssen wir uns auf die Bedeutung der Antworten verständigen.
Begriffe wie „Geschäftsjahr“ oder „aktive Kund:innen“ können von Unternehmen zu Unternehmen variieren. Ist diese Uneinheitlichkeit vorhanden, verstärkt ein LLM sie.
Wir haben daher eine gemeinsame semantische Ebene geschaffen: klare Definitionen zentraler Kennzahlen, Entitäten und Logiken in Vertrieb, Marketing und Support. Diese Definitionen werden auf Warehouse-Ebene in Snowflake Semantic Views modelliert und dokumentiert – für Menschen ebenso wie für KI-Systeme.
2. Verifiziertes Abfrage-Repository
Wir pflegen eine kuratierte Bibliothek geprüfter SQL-Abfragen für häufige Fragen. Wenn ein Verkäufer fragt: „Wie ist die aktuelle Auslastung meiner Kund:innen?“, erstellt der Assistent keine neue Abfrage, sondern greift auf eine bekannte, getestete zu. Bei einer verifizierten Abfrage erscheint ein Schildsymbol mit Häkchen. Der Hinweis lautet: „Diese Antwort basiert auf einer verifizierten Abfrage.“ Dieses kleine Signal stärkt das Vertrauen der Benutzer:innen und zeigt klar den Unterschied zwischen experimentellen und geprüften Ergebnissen.
3. Kontinuierliche Tests und Bewertungen
Unser Team überwacht Qualität und Konsistenz fortlaufend und führt automatisierte Tests mit freigegebenen Prompts durch. Wenn Probleme auftreten, erweitern wir das verifizierte Abfrage-Set, verbessern LLM-Anweisungen oder ergänzen Metadaten. Zudem prüfen wir die reale Leistung mithilfe von Stichproben, manueller Überprüfung und Bewertungen durch LLMs, um sicherzustellen, dass der Assistent die Nutzerbedürfnisse erfüllt.
Der Blick nach vorn
Wir sind überzeugt, dass KI künftig immer stärker Go-to-Market-Workflows unterstützen wird – vorausgesetzt, sie basiert auf solider Governance und Präzision. Unser Ziel ist es, Reibungen zu beseitigen, Wiederholungen zu automatisieren und Erkenntnisse in jedem Workflow von Snowflake nahtlos fließen zu lassen. Schon heute hilft unser GTM AI Assistant Snowflake-Teams, Kundenkonten im Blick zu behalten, schnell Einblicke zu gewinnen und in Sekunden auf die richtigen Ressourcen zuzugreifen. Wir beantworten bereits über 5.000 Anfragen pro Woche und sparen unseren Teams hunderte Stunden – und wir stehen erst am Anfang.
Unser Weg führt weiter: Wir behandeln Daten als Premium-Produkt. Vertrauen muss direkt in die Antworten eingebettet sein. Und Systeme müssen wissen, wann sie raten dürfen – und wann nicht.


