Webinar am 22. Januar

Snowflake & SAP: Unlock the Power of Your Data to Unleash Enterprise Ready AI

Was ist Gradient Boosting?

Gradient Boosting ist eine Technik des maschinellen Lernens (ML) für Regressions- und Klassifizierungsaufgaben, die die Prognosegenauigkeit und Geschwindigkeit von ML-Modellen verbessert. 

  • Übersicht
  • Über Gradient Boosting
  • Weitere Boosting-Modelle
  • Vorteile von Gradient-Boosting-Entscheidungsbäumen
  • Gradient Boosting in der Praxis
  • Ressourcen

Übersicht

Gradient Boosting ist ein Algorithmus für maschinelles Lernen (ML), der für Regressions- und Klassifizierungsaufgaben verwendet wird. Gradient Boosting ist mittlerweile aufgrund seiner Fähigkeit, komplexe Datenbeziehungen zu verarbeiten und vor Überanpassung zu schützen, sehr beliebt. Mit dieser Technik verbessern Data Scientists die Vorhersagegenauigkeit und Geschwindigkeit ihrer ML-Modelle. In diesem Artikel erklären wir, wie Gradient Boosting funktioniert, welche Vorteile es bietet und wo es in der Praxis angewendet wird.

Über Gradient Boosting

Gradient Boosting ist eine sogenannte Ensemble-ML-Technik, die eine Sammlung schwacher Modelle zu einem einzigen, genaueren und effizienteren Prognosemodell kombiniert. Bei diesen schwachen Modellen handelt es sich in der Regel um Entscheidungsbäume, weshalb die Algorithmen gemeinhin als Gradient Boosted Decision Trees (GBDTs) bezeichnet werden. Gradient-Boosting-Algorithmen arbeiten iterativ, indem sie nacheinander neue Modelle hinzufügen, wobei jede neue Iteration darauf abzielt, die Fehler der vorherigen Modelle zu beheben. Die endgültige Prognose des Aggregats ist die Summe der individuellen Prognosen aller Modelle. Gradient Boosting kombiniert den Algorithmus des Gradientenabstiegs und die Boosting-Methode, wobei der Name eine Anspielung auf jede Komponente enthält.

Dieser Trainingsprozess nutzt einen Strength-in-Numbers-Ansatz, mit dem Data Scientists beliebige differenzierbare Verlustfunktionen optimieren können. Mit Gradient Boosting lassen sich komplexe Regressions- und Klassifikationsprobleme lösen. Bei der Regression stellt das Endergebnis den Durchschnitt aller schwachen Lerner dar. Bei der Arbeit mit Klassifizierungsproblemen kann das Endergebnis des Modells als die Klasse mit der Mehrheit der Stimmen der Modelle mit schwachen Lernern berechnet werden.

Boosting im Vergleich zu Bagging

Boosting und Bagging sind die beiden wichtigsten Arten des Ensemble-Lernens. Methoden des Ensemble-Lernens zeichnen sich durch ihren kollektiven Ansatz aus, bei dem eine Gruppe von Basis-Lernern zusammengeführt wird, um genauere Prognosen zu erstellen, als es jede der Komponenten für sich allein könnte. Bei Boosting-Methoden werden die Modelle sequenziell (nacheinander) trainiert, wobei jedes neue Modell versucht, die Fehler der vorherigen Modelle zu korrigieren. Bagging-Techniken trainieren die Basis-Lerner gleichzeitig.

Anwendungsfälle

Gradient Boosting liefert ein gutes Gleichgewicht zwischen Genauigkeit, Effizienz und Skalierbarkeit, das in großem Umfang für die folgenden Aufgaben angewendet werden kann: 

  • Klassifizierung: Vorhersage von Kategorien oder Klassen (e.g. Spam-Erkennung, Betrugserkennung)
  • Regression: Vorhersage numerischer Werte (e.g. Aktienkursprognose, Umsatzprognose). 
  • Einstufung: Einstufung von Objekten auf der Grundlage ihrer Relevanz oder Wichtigkeit (e.g. Suchergebnisse, Empfehlungen).

 

Weitere Boosting-Modelle

Weitere Boosting-Techniken, wie AdaBoost und XGBoost, sind ebenfalls beliebte Ensemble-Lernmethoden. So funktionieren sie.

XGBoost

XGBoost ist eine beschleunigte Version des Gradient Boosting, die für optimale Rechengeschwindigkeit und Skalierbarkeit entwickelt wurde. Damit paralleles Lernen während des Modelltrainings möglich ist, nutzt XGBoost mehrere Kerne der CPU.

AdaBoost

AdaBoost, oder adaptives Boosting, passt eine Reihe schwacher Lerner an die Daten an. Diese schwachen Lerner sind in der Regel sogenannte Entscheidungsstümpfe, d. h. ein Entscheidungsbaum mit einem einzigen Split und zwei Endknoten. Diese Technik arbeitet rekursiv, identifiziert falsch klassifizierte Datenpunkte und passt sie automatisch an, um Trainingsfehler zu reduzieren. AdaBoost wiederholt diesen Prozess, bis der stärkste Prädiktor erzeugt wurde.

Die Vorteile von Gradient Boosting Decision Trees (GBDT)

GBDTs gehören zu den beliebtesten Implementierungen von Gradient Boosting. Dieser Ansatz, der in den meisten Anwendungsfällen von Gradient Boosting zum Einsatz kommt, hat spezifische Vorteile gegenüber anderen Modellierungstechniken.

Benutzerfreundliche Implementierung

Gradient Boosting Decision Trees sind relativ einfach zu implementieren. Viele von ihnen unterstützen den Umgang mit kategorischen Features, erfordern keine Vorverarbeitung der Daten und optimieren den Umgang mit fehlenden Daten.

Abbau von Bias

Beim ML ist Bias ein systematischer Fehler, der zu ungenauen oder unfairen Prognosen der Modelle führen kann. Boosting-Algorithmen, einschließlich Gradient Boosting, integrieren nacheinander mehrere schwache Lerner in ein größeres Prognosemodell. Diese Technik kann sehr effektiv sein, um Bias zu reduzieren, da iterative Verbesserungen mit jedem zusätzlichen schwachen Lerner vorgenommen werden. 

Genauere Prognosen

Durch Boosting können Entscheidungsbäume sequentiell lernen, indem neue Bäume angepasst werden, um die Fehler der bereits in das größere Modell integrierten Bäume zu kompensieren. Dank dieser Synthese werden genauere Prognosen erstellt, als jedes der schwächeren Lernmodelle für sich allein erreichen könnte. Entscheidungsbäume können zudem sowohl numerische als auch kategorische Datentypen verarbeiten, was sie zu einer leistungsstarken Option für viele Probleme macht. 

Schnelleres Training auf großen Datasets

Bei Boosting-Methoden werden diejenigen Features bevorzugt, die die Prognosegenauigkeit des Modells während des Trainings erhöhen. Durch diese Selektivität wird die Anzahl der Datenattribute reduziert und es entstehen recheneffiziente Modelle, die problemlos große Datasets verarbeiten können. Moderne Implementierungen (wie XGBoost) können zudem rechenintensive Teile des Trainings (z. B. die Featuresuche) parallelisieren, um das Modelltraining weiter zu beschleunigen.

Gradient Boosting in der Praxis

Gradient-Boosting-Modelle werden in einer Vielzahl von prädiktiven Modellierungs- und ML-Aufgaben eingesetzt. Diese Algorithmen zeichnen sich durch eine hohe Performance bei der Lösung von Problemen aus und spielen in vielen realen Anwendungen eine wichtige Rolle.

Prädiktive Modellierung bei Finanzdienstleistungen

Gradient-Boosting-Modelle werden häufig im Bereich der Finanzdienstleistungen eingesetzt. Sie spielen eine wichtige Rolle bei der Unterstützung von Investitionen und der Erstellung von Prognosen. Beispiele hierfür sind Portfoliooptimierung und die Prognose von Aktienkursen, Kreditrisiken und anderen Finanzergebnissen auf der Grundlage historischer Daten und Finanzindikatoren. 

Analytik im Gesundheitswesen

Gesundheitsdienstleister nutzen Gradient-Boosting-Algorithmen zur Unterstützung klinischer Entscheidungen, z. B. bei der Diagnose von Krankheiten. Gradient Boosting verbessert auch die Prognosegenauigkeit und versetzt Gesundheitsdienstleister in die Lage, das Risiko zu stratifizieren und Patienten:innen gezielt anzusprechen, die zum Beispiel von einer bestimmten Intervention profitieren könnten.

Stimmungsanalyse

Gradient Boosting eignet sich für viele Aufgaben im Bereich Natural Language Processing, darunter auch für die Stimmungsanalyse. Diese Algorithmen können schnell große Mengen an Textdaten aus sozialen Medien, Online-Rezensionen, Blogs, Umfragen und Kunden-E-Mails verarbeiten und analysieren und so Marken helfen, das Feedback ihrer Kund:innen zu verstehen.

Entwicklung leistungsstarker ML-Modelle mit Snowflake

Snowflake für KI stellt eine leistungsstarke Grundlage für die Entwicklung und Bereitstellung von maschinellem Lernen mit Unterstützung für Gradient Boosting und mehr dar. Mit Snowflake ML können Sie schnell Features erstellen, Modelle trainieren und diese in der Produktion verwalten.