Common Information, Noise Stability, and Their Extensions
L'information commune mesure la quantité de variables correspondantes dans deux sources d'information ou plus. Elle est omniprésente dans la théorie de l'information et les domaines connexes tels que l'informatique théorique et les probabilités discrètes.
Cependant, comme il existe de multiples notions d'information commune, il manque une compréhension unifiée des interconnexions profondes entre elles. Dans cette monographie, les auteurs comblent cette lacune en s'appuyant sur un petit ensemble de techniques mathématiques applicables à des problèmes apparemment disparates. La première partie présente au lecteur les tâches opérationnelles et les propriétés associées aux deux principales mesures de l'information commune, à savoir celles de Wyner et de Gács-Körner-Witsenhausen (GKW).
Dans les deux parties suivantes, les auteurs approfondissent chacune de ces mesures. Dans la partie II, ils examinent les extensions de l'information commune de Wyner du point de vue de la simulation de sources distribuées, y compris l'information commune de Rényi.
Dans la troisième partie, l'information commune de GKW est mise en lumière. Après avoir posé les bases, les auteurs passent sans transition à la discussion de leurs liens avec diverses conjectures en théorie de l'information et en probabilités discrètes.
Cette monographie fournit aux étudiants et aux chercheurs en théorie de l'information une ressource complète pour comprendre l'information commune et ouvre la voie à la création d'un ensemble unifié de techniques applicables à un large éventail de problèmes.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)