Snowflake Intelligence ist hier

Wichtige Unternehmenseinblicke – für alle Mitarbeitenden nur einen Klick entfernt.

Was ist RAG (Retrieval-Augmented Generation)? Ein umfassender Leitfaden

Mit Snowflake Cortex AI erstellen Sie im Handumdrehen professionelle RAG-Apps.

  • Übersicht
  • Was ist RAG?
  • Was sind die Vorteile von RAG?
  • Wo kommen RAG-Techniken zum Einsatz?
  • Wie funktioniert RAG?
  • RAG und Snowflake
  • Kunden
  • RAG-Ressourcen

Übersicht

RAG ist ein beliebtes Framework, bei dem ein Large Language Model (LLM) auf eine bestimmte Wissensdatenbank zugreift, um eine Antwort zu generieren. Da es nicht notwendig ist, das grundlegende Modell neu zu trainieren, können Entwickler:innen LLMs in einem bestimmten Kontext schnell und kostengünstig einsetzen. RAG-Apps eignen sich für Kundenservice, Vertrieb, Marketing, Wissensdatenbanken und mehr. 

Mit Snowflake Cortex AI können Sie LLM-Apps entwickeln und bereitstellen, die innerhalb weniger Minuten die Besonderheiten Ihres Unternehmens und Ihrer Daten lernen. Außerdem liefert Snowflake branchenführende LLMs, Vektorsuche und Streamlit-Funktionen zum Entwickeln von Apps in einem vollständig verwalteten Service, sodass Sie ganz einfach produktionsreife RAG-Apps entwickeln können.

Was ist RAG oder Retrieval-Augmented Generation?

RAG (Retrieval-Augmented Generation) ist eine Methode, die die Ausgabe eines grundlegenden Modells (Large Language Model oder LLMs) verbessert, indem sie auf eine externe Wissensdatenbank außerhalb der ursprünglichen Trainingsdaten verweist. 

LLMs, die anhand umfangreicher Datasets mit Milliarden von Parametern trainiert wurden, eignen sich hervorragend für Aufgaben wie die Beantwortung von Fragen, Übersetzungen und Satzvervollständigung. RAG baut diese Möglichkeiten weiter aus, indem es dem Modell erlaubt, auf bestimmte Domänen oder das interne Wissen einer Organisation zuzugreifen, ohne dass ein erneutes Training erforderlich wäre. Dieser Ansatz verringert nicht nur die Kosten, sondern verbessert auch die Genauigkeit, Relevanz und Nützlichkeit der Ergebnisse von LLM-Apps in verschiedenen Kontexten.

Was sind die Vorteile von Retrieval-Augmented Generation?

1. RAG beseitigt die Grenzen der alleinigen Verwendung von LLMs

LLMs arbeiten mit statischen Trainingsdaten, die möglicherweise nicht die aktuellsten oder organisationsspezifischen Informationen enthalten. Fehlt eine Anleitung zu maßgeblichen Quellen, können LLMs falsche oder widersprüchliche Antworten geben. Das kann vor allem dann der Fall sein, wenn die verwendete Terminologie widersprüchlich ist. Bei Unsicherheiten könnten LLMs „halluzinieren“ oder Antworten erfinden. RAG entschärft diese Probleme, indem es einen kontrollierten Zugang zu aktuellen, verlässlichen Quellen bereitstellt, was zu genaueren und zuverlässigeren Antworten führt.

2. RAG liefert hochwertigere Ergebnisse, die einer bestimmten Quelle zugeordnet werden können.

LLMs sind nur dann nützlich, wenn sie durchweg zuverlässige, fundierte Antworten liefern. Dank RAG lassen sich Antworten auf bestimmte Referenzen zurückverfolgen und Quellennachweise einfügen, was die Transparenz und Vertrauenswürdigkeit der generierten Inhalte erhöht.

3. RAG garantiert aktuelle Antworten auf kostengünstige Weise

In dynamischen Branchen sind Informationen schnell veraltet. Mit RAG können vortrainierte Modelle ohne teure Feinabstimmung auf aktuelle Informationen zugreifen. Dank dieses Ansatzes können LLMs Echtzeitdaten aus verschiedenen Quellen wie Nachrichten-Feeds, sozialen Medien, Finanzberichten und IoT-Sensoren einbeziehen und so für Relevanz und Korrektheit sorgen.

4. Mit RAG erhalten App-Entwickler:innen mehr Kontrolle

Durch RAG gewinnen Entwickler:innen mehr Flexibilität, um maßgeschneiderte, zweckgebundene Lösungen zu entwickeln. Mit einem Sicherheits-Framework rund um RAG können Entwickler:innen den kontrollierten Zugriff auf sensible Informationen zulassen und sicherstellen, dass zugangsbeschränkte Daten nur bei der Formulierung von Antworten für autorisierte Personen verwendet werden.

Wo werden die Techniken von Retrieval-Augmented Generation eingesetzt?

Mit dem rasanten Fortschritt der GenAI ist RAG zu einem integralen Bestandteil vieler KI-gestützter Systeme geworden, vor allem bei Chatbot- und Wissensmanagement-Anwendungen.

1. Zugriff der Mitarbeitenden auf interne Wissensdatenbanken, wie z. B. Personal-, Produkt- oder Serviceinformationen:

RAG-Anwendungen verbessern den Zugang der Mitarbeitenden zu geschützten Informationen in bereichsspezifischen Wissensdatenbanken, wie z. B. Firmen-Intranets oder internen Dokumentationssystemen. Anhand dieser Modelle können Mitarbeitende konkrete Fragen in natürlicher Sprache stellen (z. B. „Wie lautet die Richtlinie für Elternzeit in unserem Unternehmen?“ oder „Wie beantrage ich Abwesenheiten?“) und erhalten Antworten aus der internen Wissensdatenbank der Organisation. RAG sorgt für genauere, kontextbezogene Antworten und kann personalisierte Informationen auf der Grundlage der Berechtigungsstufe und der Rolle des Anfragenden im Unternehmen bereitstellen.

2. Market oder Business Intelligence:

Durch die Nutzung von Marktdaten und internen Berichten, die laufend aktualisiert werden, verbessert die RAG die Qualität und Aktualität von Business-Intelligence-Aktivitäten. Organisationen können so datengestützte Entscheidungen treffen, neue Trends erkennen und sich einen Wettbewerbsvorteil verschaffen. RAG kann Informationen aus verschiedenen Quellen zusammenführen und damit umfassende Erkenntnisse liefern, die bei herkömmlichen Analysemethoden möglicherweise übersehen werden.

3. Intelligenter Kundensupport:

Mit LLM-gestützten Chatbots für den Kundenservice, die mit RAG erweitert wurden, können Sie eine Vielzahl von Tasks bewältigen, z. B. Produktsupport, Problemlösung und Schadensbearbeitung. RAG liefert Echtzeit-Zugriff auf korrekte, geprüfte Inhalte, wie z. B. aktuelle Produktinformationen, Bestellstatus und individuelle Kundendaten. Chatbots können so in hohem Maße kontextbezogene und personalisierte Antworten geben, was die Kundenzufriedenheit erhöht und den Workload für menschliche Supportmitarbeitende reduziert.

4. Self-Service-Zugang zu Informationen für Kund:innen:

Öffentliche, RAG-fähige Chatbots liefern rund um die Uhr Informationen zu Marketing, Vertrieb, Produkten oder Dienstleistungen. Diese Systeme können schnell umfangreiche Wissensdatenbanken durchsuchen, um den Nutzenden jederzeit relevante, aktuelle Informationen zu liefern. So wird nicht nur die Kundenerfahrung verbessert, sondern auch die Anzahl der einfachen Anfragen reduziert, die von den Mitarbeitenden bearbeitet werden müssen. Dadurch können sich die Mitarbeitenden auf komplexere Probleme konzentrieren.

Wie funktioniert RAG und was brauchen Teams, um ein RAG-Framework bereitzustellen?

Client-/App-Benutzeroberfläche

Die Endnutzenden interagieren mit der Wissensdatenbank, in der Regel über eine Chat-Schnittstelle oder ein Frage-Antwort-System.

Kontext-Repository

Relevante Datenquellen werden aggregiert, verwaltet und kontinuierlich aktualisiert, um ein aktuelles Wissens-Repository bereitzustellen. Dazu gehören Vorverarbeitungsschritte wie Chunking und Einbettung (Embedding) des Textes.

Suche

Ein Vektorspeicher verwaltet die numerische Darstellung (Einbettungen) der Wissensdatenbank. Mithilfe der semantischen Suche können Sie die relevantesten Informationen basierend auf der Suchanfrage des Nutzenden abrufen.

LLM-Inferenz

Das System bettet die Frage des Nutzenden ein und ruft den relevanten Kontext aus dem Vektorspeicher ab. Dieser Kontext dient dann als Prompt für ein LLM, das auf der Grundlage der Frage und der abgerufenen Informationen eine kontextbezogene Antwort formuliert. 

Um wirklich eine unternehmenstaugliche RAG zu entwickeln, müssen Organisationen zusätzliche Komponenten berücksichtigen:

  • Embedding-Modelle: Diese Modelle wandeln Text in Vektordarstellungen sowohl für die Wissensdatenbank als auch für Nutzerabfragen um.

  • Daten-Pipeline: Sorgt für die kontinuierliche Aktualisierung und Pflege der Wissensdatenbank.

  • Bewertung und Überwachung: Tools zur Bewertung der Qualität der Antworten und der Performance des Systems.

RAG-Apps und Snowflake

Von RAG zu umfangreichen LLM-Apps in wenigen Minuten – mit Snowflake Cortex AI

  • Umfangreiche KI- und Datenfunktionen: Drei wichtige Funktionen machen die Entwicklung und Bereitstellung einer End-to-End-KI-Anwendung mit RAG ohne Integrationen, Infrastrukturmanagement oder Datenverschiebung möglich: Snowflake Cortex AI, Streamlit in Snowflake und Snowpark.
  • Cortex Search für die hybride Suche: Cortex Search ist ein Schlüsselfeature von Snowflake Cortex AI, das durch die Kombination von semantischer und stichwortartiger Suche fortschrittliche Abfragemöglichkeiten liefert. Als Teil der Snowflake Cortex AI-Plattform automatisiert die Lösung die Erstellung von Einbettungen und liefert hochwertige, effiziente Datenabfragen, ohne dass eine komplexe Infrastrukturverwaltung erforderlich ist.
  • Schnelle Entwicklung einer RAG-Benutzeroberfläche in Streamlit: Dank Streamlit in Snowflake können Sie mit sofort einsatzbereiten Chat-Elementen schnell Benutzeroberflächen erstellen und freigeben – und das alles in Python.
  • Kontext-Repository mit Snowpark: Das Wissens-Repository kann mithilfe von Snowflake-Stagingbereichen einfach aktualisiert und verwaltet werden. Sobald die Dokumente geladen wurden, kann die gesamte Datenaufbereitung, einschließlich der Erstellung von Chunks (kleinere, kontextreiche Textblöcke), mit Snowpark erfolgen. Vor allem beim Chunking können Teams LangChain nahtlos als Teil einer Snowpark User-Defined Function verwenden
  • Cortex Search für die hybride Suche: Mit Cortex Search erhalten Sie eine schnelle hybride Suche (Vektor- und Stichwortsuche), ohne sich um die Einbettung, die Pflege der Infrastruktur, die Abstimmung der Parameter für die Suchqualität oder die laufende Aktualisierung des Index kümmern zu müssen. 
  • Sichere LLM-InferenzSnowflake Cortex vervollständigt den Workflow mit serverlosen Funktionen für die Einbettung und Textvervollständigung (mit Mistral AI, Llama, Gemma, Arctic oder anderen in Snowflake verfügbaren LLMs).

So nutzen Snowflake-Kunden RAG

Erfahren Sie, wie Snowflake-Kunden in der Praxis durch den Einsatz von RAG-Apps den Zeitaufwand reduzieren, die Produktivität steigern und nachhaltig Kosten senken.