Multi-Armed Bandits - Theory and Applications to Online Learning in Networks
Les problèmes de bandits à bras multiples concernent la prise de décision séquentielle optimale et l'apprentissage dans des environnements inconnus. Depuis le premier problème de bandit posé par Thompson en 1933 pour l'application des essais cliniques, les problèmes de bandit ont bénéficié d'une attention durable de la part de nombreuses communautés de recherche et ont trouvé un large éventail d'applications dans divers domaines.
Ce livre couvre les résultats classiques et les développements récents sur les problèmes de bandits bayésiens et fréquentistes. Nous commençons au chapitre 1 par un bref aperçu de l'histoire des problèmes de bandits, en opposant les deux écoles d'approches - bayésienne et fréquentiste - et en soulignant les résultats fondamentaux et les applications clés. Les chapitres 2 et 4 couvrent respectivement les modèles canoniques de bandits bayésiens et fréquentistes.
Dans les chapitres 3 et 5, nous discutons des principales variantes des modèles de bandits canoniques qui conduisent à de nouvelles directions, apportent de nouvelles techniques et élargissent les applications de ce problème classique. Au chapitre 6, nous présentons plusieurs exemples d'application représentatifs dans les réseaux de communication et les systèmes socio-économiques, afin de mettre en lumière les liens entre les formulations bayésienne et fréquentiste des problèmes de bandits et la manière dont les résultats structurels relatifs à l'une peuvent être exploités pour obtenir des solutions dans le cadre de l'autre.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)