Entdecken Sie einen einfachen, aber leistungsstarken, preisgekrönten Algorithmus für maschinelles Lernen
In diesem Artikel lernen wir etwas über Gradient Boosting, einen Algorithmus für maschinelles Lernen, der die Grundlage für beliebte Frameworks wie XGBoost und LightGBM legt, die preisgekrönte Lösungen für mehrere Wettbewerbe für maschinelles Lernen sind.
Dies ist ein großartiger Artikel für alle, die über die Verwendung von Ensembles beim maschinellen Lernen nachdenken, oder eine großartige Auffrischung für jemanden, der bereits ein Profi ist, aber einfach eine Pause von Punktanpassungen und Punktvorhersagen einlegen und einen Blick unter die Haube werfen möchte!
Wir behandeln die Grundlagen des Ensemble-Lernens und erklären anhand eines Schritt-für-Schritt-Beispiels, wie der Gradient Boosting-Algorithmus Vorhersagen trifft. Wir werden auch den Zusammenhang zwischen Gefälleabstieg und Gefälleanhebung untersuchen und herausfinden, ob es einen Zusammenhang gibt. Fangen wir an!
Beim Ensemble-Lernen handelt es sich um den Prozess des Trainierens und Kombinierens mehrerer Modelle, oft schwacher Lernender, um einen starken Lernenden mit einer höheren Vorhersagekraft zu schaffen. Es gibt zwei Möglichkeiten, dies zu tun absacken Und steigernd.