XGBoost. Le renforcement du gradient extrême pour les applications minières

Note :   (3,3 sur 5)

XGBoost. Le renforcement du gradient extrême pour les applications minières (Nonita Sharma)

Avis des lecteurs

Il n'y a actuellement aucun avis de lecteur. La note est basée sur 3 votes.

Titre original :

XGBoost. The Extreme Gradient Boosting for Mining Applications

Contenu du livre :

Rapport technique de l'année 2017 dans la matière Informatique - Internet, nouvelles technologies, grade : 8, langue : English, abstract : Le tree boosting s'est avéré empiriquement être une approche très efficace et polyvalente pour la modélisation guidée par les données. L'argument principal est que le tree boosting peut déterminer de manière adaptative les voisinages locaux du modèle, prenant ainsi en compte le compromis biais-variance lors de l'ajustement du modèle.

Récemment, une méthode de renforcement des arbres connue sous le nom de XGBoost a gagné en popularité en offrant une plus grande précision. XGBoost introduit en outre certaines améliorations qui lui permettent de traiter le compromis biais-variance avec encore plus de soin. Dans ce travail de recherche, nous proposons de démontrer l'utilisation d'une procédure adaptative, à savoir Learned Loss (LL), pour mettre à jour la fonction de perte au fur et à mesure de la progression du boosting.

La précision de l'algorithme proposé, c'est-à-dire XGBoost avec la fonction d'amplification Learned Loss, est évaluée à l'aide de la méthode test/entraînement, de la validation croisée K-fold et de la méthode de validation croisée stratifiée, et comparée aux algorithmes de pointe, à savoir XGBoost, AdaBoost, AdaBoost-NN, la régression linéaire (LR), le réseau neuronal (NN), l'arbre de décision (DT), la machine à vecteur de support (SVM), les algorithmes bagging-DT, bagging-NN et Random Forest. Les paramètres évalués sont la précision, l'erreur de type 1 et l'erreur de type 2 (en pourcentage).

Cette étude utilise au total dix ans de données historiques, de janvier 2007 à août 2017, de deux indices boursiers, CNX Nifty et S&P BSE Sensex, qui sont très volumineux. En outre, dans ce travail de recherche, nous étudierons comment XGBoost diffère des techniques d'ensemble plus traditionnelles. En outre, nous discuterons des techniques de régularisation que ces méthodes offrent et de l'effet qu'elles ont sur les modèles.

En outre, nous tenterons de répondre à la question de savoir pourquoi XGBoost semble remporter autant de compétitions. Pour ce faire, nous fournirons quelques arguments expliquant pourquoi le tree boosting, et en particulier XGBoost, semble être une approche si efficace et polyvalente.

Autres informations sur le livre :

ISBN :9783668660618
Auteur :
Éditeur :
Reliure :Broché

Achat:

Actuellement disponible, en stock.

Je l'achète!

Autres livres de l'auteur :

XGBoost. Le renforcement du gradient extrême pour les applications minières - XGBoost. The Extreme...
Rapport technique de l'année 2017 dans la matière...
XGBoost. Le renforcement du gradient extrême pour les applications minières - XGBoost. The Extreme Gradient Boosting for Mining Applications
Systèmes cyber-physiques : Un guide complet - Cyber-Physical Systems: A Comprehensive...
Cyber-Physical Systems : A Comprehensive Guide explore la...
Systèmes cyber-physiques : Un guide complet - Cyber-Physical Systems: A Comprehensive Guide

Les œuvres de l'auteur ont été publiées par les éditeurs suivants :

© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)