Note :
Ce livre propose une introduction complète au calcul à haute performance (HPC), en mettant l'accent sur les concepts fondamentaux, l'optimisation des performances et les techniques pratiques pour la programmation sérielle et parallèle. Bien qu'il soit généralement bien accueilli, son organisation, sa complexité, le choix des langages de programmation et l'absence de couverture des techniques de programmation modernes et des langages tels que Python suscitent des inquiétudes.
Avantages:⬤ Offre une compréhension fondamentale des concepts HPC et des stratégies d'optimisation des performances.
⬤ Inclut des discussions intéressantes sur des sujets tels que le ccNUMA et la gestion de la mémoire.
⬤ Contient des exercices utiles à la fin de chaque chapitre pour l'auto-apprentissage.
⬤ Bien écrit, il constitue une bonne introduction pour les débutants.
⬤ Des exemples pertinents et des applications discutées pour la programmation de supercalculateurs.
⬤ Matériel actualisé par rapport à d'autres textes.
⬤ Suppose de solides connaissances en informatique, ce qui peut le rendre moins accessible aux débutants.
⬤ L'organisation est incohérente ; les lecteurs peuvent avoir besoin de naviguer dans le livre pour trouver des sujets spécifiques.
⬤ Utilise principalement FORTRAN pour les exemples de code, ce que certains lecteurs trouvent regrettable.
⬤ La couverture des langages de programmation modernes tels que Python est insuffisante.
⬤ Quelques plaintes concernant la qualité de l'impression et les problèmes liés aux formats numériques.
(basé sur 16 avis de lecteurs)
Introduction to High Performance Computing for Scientists and Engineers
Rédigé par des experts en calcul de haute performance (HPC), Introduction au calcul de haute performance pour les scientifiques et les ingénieurs fournit une solide introduction à l'architecture actuelle des ordinateurs, aux modèles de programmation parallèle dominants et aux stratégies d'optimisation utiles pour le calcul de haute performance scientifique. En travaillant dans un centre de calcul scientifique, les auteurs ont acquis une perspective unique sur les exigences et les attitudes des utilisateurs et des fabricants d'ordinateurs parallèles.
Le texte présente d'abord l'architecture des microprocesseurs modernes à mémoire cache et examine leurs limites de performance inhérentes, avant de décrire les stratégies générales d'optimisation du code série sur les architectures à mémoire cache. Il couvre ensuite les architectures d'ordinateurs parallèles à mémoire partagée et distribuée et les topologies de réseau les plus pertinentes. Après avoir abordé l'informatique parallèle d'un point de vue théorique, les auteurs montrent comment éviter ou améliorer les problèmes de performance typiques liés à OpenMP. Ils présentent ensuite des techniques d'optimisation de l'accès non uniforme à la mémoire cache (ccNUMA), examinent la programmation parallèle à mémoire distribuée avec l'interface de transmission de messages (MPI) et expliquent comment écrire un code MPI efficace. Le dernier chapitre est consacré à la programmation hybride avec MPI et OpenMP.
Les utilisateurs d'ordinateurs à haute performance n'ont souvent aucune idée des facteurs qui limitent le temps nécessaire à la résolution d'un problème et ne savent pas s'il est judicieux de penser à l'optimisation. Ce livre facilite une compréhension intuitive des limites de performance sans s'appuyer sur de lourdes connaissances en informatique. Il prépare également les lecteurs à l'étude d'ouvrages plus avancés.
Lire la récente récompense des auteurs : Informatics Europe Curriculum Best Practices Award for Parallelism and Concurrency (Prix des meilleures pratiques pour le parallélisme et la simultanéité).
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)