An Introduction to Neural Data Compression
L'objectif de la compression des données est de réduire le nombre de bits nécessaires pour représenter des informations utiles. La compression neuronale, ou savante, est l'application des réseaux neuronaux et des techniques d'apprentissage automatique connexes à cette tâche.
Cette monographie vise à servir de point d'entrée aux chercheurs en apprentissage automatique intéressés par la compression en passant en revue les conditions préalables et les méthodes représentatives de la compression neuronale. La compression neuronale est l'application des réseaux neuronaux et d'autres méthodes d'apprentissage automatique à la compression des données. Les progrès récents de l'apprentissage automatique statistique ont ouvert de nouvelles possibilités pour la compression des données, permettant aux algorithmes de compression d'être appris de bout en bout à partir des données en utilisant de puissants modèles génératifs tels que les flux de normalisation, les autoencodeurs variationnels, les modèles probabilistes de diffusion et les réseaux adversaires génératifs.
Cette monographie présente ce domaine de recherche à un public plus large de spécialistes de l'apprentissage automatique en passant en revue le contexte nécessaire en théorie de l'information (par exemple, le codage entropique, la théorie du taux de distorsion) et en vision par ordinateur (par exemple, l'évaluation de la qualité de l'image, les mesures perceptuelles), et en fournissant un guide raisonné des idées et des méthodes essentielles dans la littérature jusqu'à présent. Au lieu de passer en revue la vaste littérature, les concepts et méthodes essentiels de la compression neuronale sont couverts, en gardant à l'esprit le lecteur qui est versé dans l'apprentissage automatique mais pas nécessairement dans la compression de données.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)