Note :
Il n'y a actuellement aucun avis de lecteur. La note est basée sur 2 votes.
Approximate Bayesian Inference
Extrêmement populaires pour l'inférence statistique, les méthodes bayésiennes le sont également de plus en plus pour l'apprentissage automatique et les problèmes d'intelligence artificielle. Les estimateurs bayésiens sont souvent mis en œuvre par des méthodes de Monte Carlo, telles que l'algorithme de Metropolis-Hastings de l'échantillonneur de Gibbs.
Ces algorithmes ciblent la distribution postérieure exacte. Cependant, de nombreux modèles statistiques modernes sont tout simplement trop complexes pour utiliser de telles méthodologies. Dans l'apprentissage automatique, le volume des données utilisées dans la pratique rend les méthodes de Monte Carlo trop lentes pour être utiles.
D'autre part, ces applications ne nécessitent souvent pas une connaissance exacte du postérieur. Ceci a motivé le développement d'une nouvelle génération d'algorithmes qui sont suffisamment rapides pour traiter d'énormes ensembles de données mais qui ciblent souvent une approximation du postérieur.
Ce livre rassemble 18 articles de recherche rédigés par des spécialistes de l'inférence bayésienne approximative et fournit une vue d'ensemble des avancées récentes dans ces algorithmes. Cela inclut les méthodes basées sur l'optimisation (telles que les approximations variationnelles) et les méthodes basées sur la simulation (telles que les algorithmes ABC ou Monte Carlo).
Les aspects théoriques de l'inférence bayésienne approximative sont couverts, en particulier les bornes PAC-Bayes et l'analyse des regrets. Des applications pour des problèmes de calcul difficiles en astrophysique, en finance, en analyse de données médicales et en vision par ordinateur sont également présentées.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)