XGBoost (eXtreme Gradient Boosting) ist eine optimierte, verteilte Gradient Boosting-Bibliothek, die auf Effizienz, Flexibilität und Portabilität ausgelegt ist. Sie implementiert Machine-Learning-Algorithmen im Rahmen des Gradient Boosting. XGBoost bietet paralleles Tree Boosting (auch bekannt als GBDT, GBM) und kann viele Data-Science-Probleme schnell und präzise lösen.
Gradient Boosting ist eine leistungsstarke Machine-Learning-Technik, die in einer Vielzahl von Vorhersageaufgaben weit verbreitet ist. XGBoost wurde entwickelt, um einige der Einschränkungen bestehender Gradient-Boosting-Algorithmen zu beheben, wie z. B. langsame Geschwindigkeit, schlechte Skalierbarkeit und mangelnde Flexibilität. XGBoost verbessert die Leistung von Gradient-Boosting-Algorithmen durch die Einführung der folgenden Optimierungen erheblich:
XGBoost wird häufig in verschiedenen Machine-Learning-Aufgaben eingesetzt, darunter:
XGBoost hat in vielen Machine-Learning-Wettbewerben, wie z. B. Kaggle-Wettbewerben, hervorragende Ergebnisse erzielt. Es ist zu einem der bevorzugten Algorithmen für Data Scientists und Machine-Learning-Ingenieure geworden.