. 1 3 4 5 6 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z А Б В Г Д Е З И К Л М Н О П Р С Т У Х Ц Ч

XGBoost

Программа XGBoost (Extreme Gradient Boosting) представляет собой библиотеку для реализации алгоритмов градиентного бустинга, которая широко используется для построения моделей машинного обучения и решения задач классификации, регрессии, ранжирования и кластеризации.
XGBoost основан на идее построения ансамблей моделей, где каждая следующая модель дорабатывает ошибки предыдущей, что позволяет улучшить качество прогнозов. Основная идея работы алгоритма заключается в том, что модель строится последовательно путем добавления новых моделей, каждая из которых исправляет ошибки предыдущих моделей.
XGBoost использует градиентный спуск для минимизации функции потерь и построения модели, учитывая градиент функции потерь. Алгоритм также стремится к уменьшению шума и переобучения за счет регуляризации.
Для обучения модели XGBoost требуется задать определенные гиперпараметры, такие как глубина деревьев, шаг градиентного спуска, коэффициент регуляризации и др. Подбор оптимальных значений гиперпараметров позволяет достичь лучшего качества модели.
Таким образом, программа XGBoost предоставляет эффективный и мощный инструмент для реализации алгоритмов градиентного бустинга и является широко используемым инструментом в области машинного обучения и анализа данных.

XGBoost изначально начинался как исследовательский проект Чэн Тяньци как часть группы Distributed (Deep) Machine Learning Community (DMLC). Изначально она начиналась как консольная программа, которую можно было настроить с помощью конфигурационного файла libsvm. XGBoost стал широко известен в кругах участников соревнований по машинному обучению после его использования в решении победителя конкурса Higgs Machine Learning Challenge. Вскоре после этого были созданы пакеты для Python и R, и теперь XGBoost имеет реализации пакетов для Lisp, Java, Scala, Julia, Ruby, Perl и других языков. Это позволило привлечь к библиотеке больше разработчиков и способствовало ее популярности среди сообщества Kaggle, где она использовалась для проведения большого количества соревнований.

Вскоре XGBoost был интегрирован с рядом других пакетов, что упростило его использование в соответствующих сообществах. Сейчас он интегрирован в scikit-learn для пользователей Python и в пакет caret для пользователей R. Он также может быть интегрирован в такие фреймворки Data Flow, как Apache Spark, Apache Hadoop и Apache Flink с помощью абстрактного Rabit и XGBoost4J. XGBoost также доступен на OpenCL для ПЛИС. Эффективная, масштабируемая реализация XGBoost была опубликована Чэн Тяньци и Карлосом Густрином.

Хотя модель XGBoost часто достигает более высокой точности, чем одно дерево решений, она жертвует присущей деревьям решений интерпретируемостью. Например, проследить путь, по которому дерево решений принимает решение, тривиально и самообъяснимо, но проследить пути сотен или тысяч деревьев гораздо сложнее. Для достижения производительности и интерпретируемости некоторые методы сжатия моделей позволяют преобразовать XGBoost в одно “перерожденное” дерево решений, которое аппроксимирует ту же функцию принятия решений.

В последнее время эта библиотека приобрела большую популярность и привлекла внимание как выбор многих команд-победителей соревнований по машинному обучению.

Обсуждение закрыто.