Note :

Il n'y a actuellement aucun avis de lecteur. La note est basée sur 6 votes.
Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient
⬤ .
Chapitre 1 : Hyperparamètres.
Objectif du chapitre : Présenter ce que sont les hyperparamètres, comment ils peuvent affecter l'apprentissage du modèle. Il donne également une idée de la façon dont les hyperparamètres affectent les algorithmes généraux d'apprentissage automatique, et quelle valeur doit être choisie en fonction de l'ensemble de données d'apprentissage. Sous-thèmes1. Introduction aux hyperparamètres. 2. Pourquoi avons-nous besoin de régler les hyperparamètres3. Algorithmes spécifiques et leurs hyperparamètres4. Aide-mémoire pour déterminer l'hyperparamètre de certains algorithmes spécifiques.
Chapitre 2 : Réglage des hyperparamètres par la force bruteBut du chapitre : Comprendre les méthodes classiques de réglage des hyperparamètres couramment utilisées et les implémenter à partir de zéro, ainsi qu'utiliser la bibliothèque Scikit-Learn pour ce faire. Sous-sujets : 1. Réglage des hyperparamètres2. Méthodes exhaustives de réglage des hyperparamètres3. Recherche en grille4. Recherche aléatoire5. Évaluation des modèles lors de l'ajustement des hyperparamètres.
Chapitre 3 : Optimisation distribuée des hyperparamètresBut du chapitre : Traiter des ensembles de données plus importants et un grand nombre d'hyperparamètres avec des espaces de recherche continus en utilisant des algorithmes distribués et des méthodes d'optimisation distribuées des hyperparamètres, à l'aide de la bibliothèque Dask. Sous-sujets : 1. Pourquoi avons-nous besoin d'un réglage distribué ? 2. Cadres de données Dask3. Recherche incrémentaleCV.
Chapitre 4 : Optimisation globale séquentielle basée sur un modèle et ses méthodes hiérarchiques Objectif du chapitre : chapitre théorique détaillé sur les méthodes SMBO, qui utilisent des techniques bayésiennes pour optimiser les hyperparamètres. Elles apprennent de leur itération précédente, contrairement à la recherche par grille ou à la recherche aléatoire. Sous-sujets : 1. Optimisation globale basée sur un modèle séquentiel2. Approche par processus gaussien3. Estimateur de Parzen arborescent (TPE)
Chapitre 5 : Utilisation d'HyperOptObjectif du chapitre : un chapitre centré sur la bibliothèque hyperopt qui implémente l'algorithme TPE discuté dans le dernier chapitre. L'objectif est d'utiliser l'algorithme TPE pour optimiser un hyperparamètre et de faire comprendre au lecteur en quoi il est meilleur que d'autres méthodes. MongoDB sera utilisé pour paralléliser les évaluations. Discuter de Hyperopt Scikit-Learn et Hyperas avec des exemples. 1. Définition d'une fonction objective. 2. Création d'un espace de recherche. 3. Exécution d'HyperOpt. 4. Utilisation de MongoDB Trials pour effectuer des évaluations parallèles. 5. HyperOpt SkLearn6. Hyperas.
Chapitre 6 : Hyperparameter Generating Condition Generative Adversarial NeuralNetworks (HG-cGANs) et ainsi de suite. Objectif du chapitre : il s'agit d'une hypothèse sur la façon dont, en fonction de certaines propriétés de l'ensemble de données, on peut entraîner des réseaux neuronaux sur des métadonnées et générer des hyperparamètres pour de nouveaux ensembles de données. Il résume également la manière dont ces nouvelles méthodes de réglage des hyperparamètres peuvent aider l'IA à se développer davantage. Sous-sujets : 1. Générer des métadonnées2. Entraînement des HG-cGAN3. L'IA et le réglage des hyperparamètres.