next up previous
Next: About this document Up: Résumés de Organisation et Previous: Résumé: L'architecture PowerPC

Résumé #9: Les machines parallèles

À lire: pp. 604 à 607 3/3, 612 1/2 à 615 1/2, 618 1/2 à 619 1/2, 620 9/10 à 621 2/3, 630 1/2 à 632 1/2, 633 1/2 à 636 2/3.

9.1 Introduction

- Malgré l'augmentation importante de la puissance et des performances des processeurs, de nombreuses applications ne peuvent toujours pas être traitées en un temps raisonnable sur un ordinateur traditionnel, e.g., simulation de phénomènes physiques (prédiction météorologique, physique nucléaire) ou biologiques (analyse de protéines), traitement d'images, analyse du langage parlé, etc. Pour ces applications, des superordinateurs ou des machines parallèles doivent être utilisés.

- Désavantage des superordinateurs classiques: Très coûteux (pcq. leur mise en oeuvre utilise une technologie hautement sophistiquée, e.g., circuits hautement optimisés, réfrigération, etc.) et pas vraiment d'usage général.

- Solution alternative pour obtenir des machines plus performantes: Machines avec plusieurs processeurs travaillant en parallèle = Machines parallèles.

- Principe de base des machines parallèles =

Obtenir une grande puissance de calcul par l'utilisation d'un grand nombre de processeurs standards de faible coût.

- Classification de Flynn pour les machines parallèles: Classe les machines selon le parallélisme du flux des données et des instructions:

9.2 Machines SIMDs

- Très courantes parmi les premières machines parallèles mais de moins en moins usité de nos jours.

- Ce sont, typiquement, des machines qui manipulent des tableaux (matrices) de données, conduisant à du ``parallélisme de données''.

- Exemple: Soit A, B et C des tableaux 16 tex2html_wrap_inline566 16 de nombres points-flottants:

Soit une machine SIMD avec 256 processeurs. Si l'on répartit les (256) éléments de A et B entre les divers processeurs, alors le temps requis pour l'addition matricielle suivante est simplement le temps requis pour une (1) addition point-flottante:

- Motivations initiales pour de telles machines:

- Désavantage majeur: Excellent pour des programmes manipulant des tableaux uniformes de données, mais, autrement, très difficile à programmer et à utiliser efficacement (les instructions conditionnelles peuvent conduire un grand nombre de processeurs à rester inactifs).

9.3 Machines MIMDs

- Idée de base = Obtenir une machine parallèle puissante en interconnectant plusieurs processeurs ordinaires.

- Deux grandes classes:

9.4 Programmation des machines MIMDs

- Problème très difficile: Demande d'organiser la division du travail entre les processeurs, de répartir les données entre les divers modules de mémoire, de planifier la communication des informations entre les processeurs, d'assurer leur synchronisation, etc. Probablement une raison importante pour laquelle les machines parallèles sont encore assez peu utilisées.

9.5 Machines MIMDs avec bus

- Bus:

- Multiprocesseur avec mémoire partagée via bus:

- Les machines parallèles construites au cours des 10 dernières années furent surtout des multiprocesseurs avec bus, pcq. plus faciles à construire.

9.5 Machines MIMDs avec réseau

- Réseau:

- Multiordinateur = Machine MIMD avec réseau: Chaque noeud est composé d'un processeur et de sa mémoire (et du cache associé) et communique avec les autres noeuds via le réseau d'interconnexion.

- Machines parallèles plus récentes et à venir:


next up previous
Next: About this document Up: Résumés de Organisation et Previous: Résumé: L'architecture PowerPC

Guy Tremblay
Tue Aug 27 14:04:33 EDT 1996