Note :
Il n'y a actuellement aucun avis de lecteur. La note est basée sur 3 votes.
Data Orchestration in Deep Learning Accelerators
Cette conférence de synthèse se concentre sur les techniques d'orchestration efficace des données au sein des accélérateurs DNN. La fin de la loi de Moore, associée à la croissance croissante de l'apprentissage profond et d'autres applications d'intelligence artificielle, a conduit à l'émergence d'accélérateurs de réseaux neuronaux profonds (DNN) personnalisés pour une inférence économe en énergie sur les appareils périphériques.
Les réseaux neuronaux profonds modernes comportent des millions d'hyperparamètres et impliquent des milliards de calculs, ce qui nécessite d'importants mouvements de données entre la mémoire et les moteurs de traitement sur puce. Il est bien connu que le coût du mouvement des données dépasse aujourd'hui le coût du calcul proprement dit ; par conséquent, les accélérateurs de DNN nécessitent une orchestration minutieuse des données entre les éléments de calcul, de réseau et de mémoire sur puce afin de minimiser le nombre d'accès à la DRAM externe. Le livre couvre les flux de données DNN, la réutilisation des données, les hiérarchies de tampons, les réseaux sur puce et l'exploration automatisée de l'espace de conception.
Il conclut sur les défis de l'orchestration des données avec les DNN compressés et épars et sur les tendances futures. Le public cible est constitué d'étudiants, d'ingénieurs et de chercheurs intéressés par la conception d'accélérateurs à haute performance et à faible consommation d'énergie pour l'inférence DNN.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)