Note :
Ce livre est une introduction accessible à la théorie de l'information, en particulier pour ceux qui ont une formation en mathématiques et en probabilités. Il couvre les sujets essentiels, fournit des explications mathématiques rigoureuses et inclut des séries de problèmes avec des solutions pour l'auto-apprentissage. Cependant, certains lecteurs l'ont trouvé désuet et trop technique, et il pourrait ne pas convenir aux nouveaux venus ou à ceux qui recherchent des connexions interdisciplinaires.
Avantages:⬤ Couverture complète des sujets essentiels de la théorie de l'information.
⬤ Convient à l'auto-apprentissage avec des ensembles de problèmes et des solutions détaillées.
⬤ Exposé mathématique clair et rigoureux.
⬤ Évite les vulgarisations inutiles et se concentre sur le sujet.
⬤ Accessible à ceux qui ont une compréhension de base des probabilités et du calcul.
⬤ Contient des théories et des concepts dépassés datant principalement des années 50 et 60.
⬤ Peut être trop technique pour les novices.
⬤ Peut être trop technique pour les novices ou ceux qui recherchent un éclairage interdisciplinaire.
⬤ Les figures et les tableaux, très denses, peuvent être difficiles à lire.
⬤ Le formatage et la présentation sont en retard sur les normes modernes.
(basé sur 16 avis de lecteurs)
Information Theory
Développée par Claude Shannon et Norbert Wiener à la fin des années 1940, la théorie de l'information, ou théorie statistique de la communication, traite des fondements théoriques d'un large éventail de dispositifs de communication : radio, télévision, radar, ordinateurs, télégraphie, etc. Ce livre est une excellente introduction aux mathématiques qui sous-tendent la théorie.
Conçu pour les étudiants de premier cycle et les étudiants en première année d'études supérieures, le livre traite de trois domaines principaux : l'analyse des modèles de canaux et la preuve des théorèmes de codage (chapitres 3, 7 et 8)
l'étude de systèmes de codage spécifiques (chapitres 2, 4 et 5)
et l'étude des propriétés statistiques des sources d'information (chapitre 6). Parmi les sujets abordés, on trouve le codage sans bruit, le canal discret sans mémoire, les codes correcteurs d'effort, les sources d'information, les canaux avec mémoire et les canaux continus.
L'auteur s'est efforcé de réduire au minimum les conditions préalables. Cependant, les étudiants doivent avoir une connaissance de la théorie des probabilités de base. Un peu de théorie des mesures et des espaces de Hilbert est également utile pour les deux dernières sections du chapitre 8, qui traitent des canaux continus dans le temps. Une annexe résume le contexte des espaces de Hilbert et les résultats de la théorie des processus stochastiques nécessaires pour ces sections. L'appendice n'est pas autonome mais servira à mettre en évidence certains équipements spécifiques nécessaires à l'analyse des canaux continus dans le temps.
En plus des notes historiques à la fin de chaque chapitre indiquant l'origine de certains résultats, l'auteur a également inclus 60 problèmes avec des solutions détaillées, ce qui rend le livre particulièrement utile pour une étude indépendante.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)