Note :
Ce livre est un guide complet du calcul haute performance (HPC) et de la programmation parallèle, salué pour l'importance qu'il accorde à l'optimisation des performances et à la couverture approfondie des concepts de base. Il est considéré comme une ressource précieuse pour les débutants et les programmeurs expérimentés, malgré certaines critiques concernant son organisation, son écriture jargonneuse et les limites spécifiques de son contenu.
Avantages:⬤ Une couverture approfondie des concepts de base du HPC, y compris la gestion de la mémoire et l'optimisation des performances en série.
⬤ Offre une discussion unique sur le ccNUMA, qui est souvent négligé dans d'autres textes.
⬤ Contient des exemples pratiques et des questions pour l'auto-apprentissage.
⬤ Bien structuré pour les techniques d'optimisation applicables au code.
⬤ Le matériel est pertinent et à jour dans le contexte du matériel moderne.
⬤ Introduction claire aux techniques de programmation parallèle comme OpenMP et MPI.
⬤ Style d'écriture dense avec un jargon excessif qui peut dérouter les lecteurs qui n'ont pas certaines connaissances de base.
⬤ Problèmes d'organisation obligeant les lecteurs à naviguer dans le livre pour trouver des sujets spécifiques.
⬤ Couverture limitée des langages de programmation plus contemporains comme Python.
⬤ Certains exemples sont principalement en FORTRAN, ce qui peut ne pas convenir à tout le monde.
⬤ Des problèmes de qualité d'impression, notamment des textes pixellisés, nuisent à l'expérience de lecture.
(basé sur 16 avis de lecteurs)
Introduction to High Performance Computing for Scientists and Engineers
Rédigé par des experts en calcul de haute performance (HPC), Introduction to High Performance Computing for Scientists and Engineers (Introduction au calcul de haute performance pour les scientifiques et les ingénieurs) fournit une solide introduction à l'architecture actuelle des ordinateurs, aux modèles de programmation parallèle dominants et aux stratégies d'optimisation utiles pour le calcul de haute performance scientifique. En travaillant dans un centre de calcul scientifique, les auteurs ont acquis une perspective unique sur les exigences et les attitudes des utilisateurs et des fabricants d'ordinateurs parallèles.
Le texte présente d'abord l'architecture des microprocesseurs modernes à mémoire cache et examine leurs limites de performance inhérentes, avant de décrire les stratégies générales d'optimisation du code série sur les architectures à mémoire cache. Il couvre ensuite les architectures d'ordinateurs parallèles à mémoire partagée et distribuée et les topologies de réseau les plus pertinentes. Après avoir abordé l'informatique parallèle d'un point de vue théorique, les auteurs montrent comment éviter ou améliorer les problèmes de performance typiques liés à OpenMP. Ils présentent ensuite des techniques d'optimisation de l'accès non uniforme à la mémoire cache (ccNUMA), examinent la programmation parallèle à mémoire distribuée avec l'interface de transmission de messages (MPI) et expliquent comment écrire un code MPI efficace. Le dernier chapitre est consacré à la programmation hybride avec MPI et OpenMP.
Les utilisateurs d'ordinateurs à haute performance n'ont souvent aucune idée des facteurs qui limitent le temps nécessaire à la résolution d'un problème et ne savent pas s'il est judicieux de penser à l'optimisation. Ce livre facilite une compréhension intuitive des limites de performance sans s'appuyer sur de lourdes connaissances en informatique. Il prépare également les lecteurs à l'étude d'ouvrages plus avancés.
Découvrez la récente récompense des auteurs : Informatics Europe Curriculum Best Practices Award for Parallelism and Concurrency (Prix des meilleures pratiques pour le parallélisme et la simultanéité).
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)