Caractéristiques caractéristiques de l'architecture des ordinateurs modernes. Principaux types d'architecture informatique. Systèmes informatiques à architecture ouverte

INTRODUCTION

Le niveau d'architecture est nécessaire pour tout spécialiste. L'architecture est les principes les plus généraux de la construction informatique qui mettent en œuvre le contrôle logiciel du fonctionnement et de l'interaction des principales unités fonctionnelles. À ce niveau, la connaissance des conceptions de circuits de l’ingénierie radio et de la microélectronique modernes n’est pas requise. Cette dernière va généralement au-delà de l’informatique ; elle n’est requise que par les développeurs d’éléments informatiques physiques.

Le niveau d'architecture est assez profond, il inclura les problématiques de gestion du fonctionnement d'un ordinateur (programmation) en langage de commande machine (assembleur). Cette méthode de contrôle est beaucoup plus complexe que l'écriture de programmes dans des langages de haut niveau et, néanmoins, sans en avoir une idée, il est impossible de comprendre le fonctionnement réel de l'ordinateur.

Enfin, ce chapitre donne un bref aperçu des périphériques externes des ordinateurs modernes - lecteurs, périphériques d'entrée et de sortie - ainsi qu'une description de base des principes de leur fonctionnement et de leurs caractéristiques professionnelles.

L'objet d'étude est la technologie informatique.

Le sujet de l'étude est l'architecture informatique.

Le but du travail est d'étudier l'architecture informatique.

Pour atteindre cet objectif, il est nécessaire de résoudre les tâches suivantes :

· définir le concept d'architecture informatique;

· étudier la littérature pédagogique sur le thème « Architecture informatique » ;

· étudier le développement de la structure interne d'un ordinateur.


1. À PROPOS DU CONCEPT « ARCHITECTURE INFORMATIQUE »

Le mot « architecture » dans son sens originel est utilisé en urbanisme. Étant une structure assez complexe, une ville moderne se compose de quartiers, de places, de rues, de maisons, etc., situés d'une certaine manière.

Afin de naviguer dans la complexité des rues et des places, dans toute ville, il existe un système de noms historiquement établi, ainsi qu'une certaine numérotation des maisons. La présence d'un adressage généralement accepté permet de déterminer sans ambiguïté la position de n'importe quelle structure et, si nécessaire, de la retrouver rapidement. Dans de nombreux cas, le tracé des rues et l’attribution de leurs noms sont aléatoires. En même temps, il arrive que cette activité soit réfléchie et s'inscrit dans la continuité de l'aménagement général de la ville, c'est-à-dire en fait une partie de son architecture. Un exemple classique est le système bien connu de rues (avenues et rues) perpendiculaires entre elles de la ville de New York. En plus d'être purement pratique, l'architecture d'une ville peut également avoir une valeur artistique (qui intéresse généralement davantage les visiteurs). Mais il est peu probable que cet aspect du concept d’« architecture » soit transféré à la technologie informatique.

Par analogie avec l'urbanisme, il est naturel d'appréhender l'architecture d'un ordinateur comme l'ensemble de ses caractéristiques nécessaires à l'utilisateur. Il s'agit tout d'abord des principaux appareils et blocs d'un ordinateur, ainsi que de la structure des connexions entre eux. Si l'on regarde par exemple dans le « Dictionnaire explicatif des systèmes informatiques », on y lira que le terme « architecture informatique » est utilisé pour décrire le principe de fonctionnement, de configuration et d'interconnexion des principaux nœuds logiques d'une « architecture » informatique. ».

Cependant, décrire la structure interne d'un ordinateur n'est pas du tout une fin en soi : d'un point de vue architectural, seules les connexions et principes les plus généraux, inhérents à de nombreuses implémentations spécifiques d'ordinateurs, présentent un intérêt. On parle même souvent de familles d'ordinateurs, c'est-à-dire groupes de modèles compatibles entre eux. Au sein d'une même famille, les principes de base de la conception et du fonctionnement des machines sont les mêmes, bien que les modèles individuels puissent différer considérablement en termes de performances, de coût et d'autres paramètres. Un exemple frappant est les diverses modifications des ordinateurs PDP de DEC (mieux connus de nos utilisateurs pour leurs analogues nationaux - la série DVK), la famille de machines MSX, qui possède le très répandu YAMAHA, ainsi que les ordinateurs personnels compatibles IBM qui ont inondé le monde.

C’est précisément ce qui est commun dans la structure d’un ordinateur que l’on appelle architecture. Il est important de noter que le but d'une telle communauté est, en fin de compte, un désir tout à fait compréhensible : toutes les machines d'une même famille, quels que soient leur appareil spécifique et leur fabricant, devraient pouvoir exécuter le même programme. Cela découle inévitablement de la conclusion selon laquelle d'un point de vue architectural, toutes les informations sur la construction d'un ordinateur ne sont pas importantes, mais seulement celles qui peuvent être utilisées d'une manière ou d'une autre dans la programmation et le travail « utilisateur » avec l'ordinateur. Vous trouverez ci-dessous une liste des principes les plus généraux de la construction informatique liés à l'architecture :

Structure de la mémoire informatique ;

Méthodes d'accès à la mémoire et aux périphériques externes ;

Possibilité de modifier la configuration de l'ordinateur ;

Système de commande ;

Formats de données ;

Organisation des interfaces.

En résumant tout ce qui précède, nous obtenons la définition suivante de l’architecture :

"L'architecture représente les principes les plus généraux de la construction informatique qui mettent en œuvre le contrôle logiciel du fonctionnement et de l'interaction de ses principales unités fonctionnelles."

2. ARCHITECTURE INFORMATIQUE CLASSIQUE II PRINCIPES DE VON NEUMANN

Les bases de la doctrine de l'architecture informatique ont été posées par l'éminent mathématicien américain John von Neumann. Il a participé à la création du premier ordinateur à tube au monde, ENIAC, en 1944, alors que sa conception avait déjà été sélectionnée. Au cours de son travail, lors de nombreuses discussions avec ses collègues G. Goldstein et A. Berks, von Neumann a exprimé l'idée d'un ordinateur fondamentalement nouveau. En 1946, les scientifiques ont exposé leurs principes de construction d’ordinateurs dans l’article désormais classique « Considération préliminaire de la conception logique d’un dispositif informatique électronique ». Un demi-siècle s'est écoulé depuis, mais les dispositions qui y sont proposées restent d'actualité aujourd'hui.

Auparavant, tous les ordinateurs stockaient les nombres traités sous forme décimale. Les auteurs ont démontré de manière convaincante les avantages du système binaire pour la mise en œuvre technique, la commodité et la simplicité d'y effectuer des opérations arithmétiques et logiques. Plus tard, les ordinateurs ont commencé à traiter des types d'informations non numériques - texte, graphique, son et autres, mais le codage des données binaires constitue toujours la base d'information de tout ordinateur moderne.

Une autre idée véritablement révolutionnaire, dont il est difficile de surestimer l’importance, est le principe du « programme stocké » proposé par Neumann. Initialement, le programme était défini en installant des cavaliers sur un panneau de brassage spécial. C'était une tâche très laborieuse : par exemple, il fallait plusieurs jours pour modifier le programme de la machine ENIAC (alors que le calcul lui-même ne pouvait pas durer plus de quelques minutes - les lampes tombaient en panne). Neumann fut le premier à réaliser qu'un programme pouvait également être stocké sous la forme d'une série de zéros et de uns, dans la même mémoire que les nombres qu'il traitait. L'absence de différence fondamentale entre le programme et les données a permis à l'ordinateur de former lui-même un programme en fonction des résultats des calculs.

Von Neumann a non seulement mis en avant les principes fondamentaux de la structure logique d'un ordinateur, mais a également proposé sa structure, qui a été reproduite au cours des deux premières générations d'ordinateurs. Les principaux blocs selon Neumann sont une unité de contrôle (CU) et une unité arithmétique-logique (ALU) (généralement combinées en un processeur central), une mémoire, une mémoire externe, des dispositifs d'entrée et de sortie. La conception d'un tel ordinateur est illustrée à la figure 2.1. Les lignes pleines avec des flèches indiquent la direction des flux d'informations, les lignes pointillées indiquent les signaux de commande du processeur vers d'autres nœuds informatiques

Figure 2.1 - Architecture informatique construite sur les principes de Von Neumann

Le dispositif de contrôle et l'unité arithmétique-logique des ordinateurs modernes sont combinés en une seule unité - le processeur, qui est un convertisseur d'informations provenant de la mémoire et de périphériques externes (cela inclut la récupération des instructions de la mémoire, le codage et le décodage, l'exécution de diverses opérations, y compris l'arithmétique , opérations, coordination du fonctionnement des nœuds informatiques). La mémoire (mémoire) stocke des informations (données) et des programmes. Le périphérique de stockage des ordinateurs modernes est « à plusieurs niveaux » et comprend une mémoire vive (RAM), qui stocke les informations avec lesquelles l'ordinateur travaille directement à un moment donné, et des périphériques de stockage externes (ESD) d'une capacité beaucoup plus grande que la RAM. , mais avec un accès nettement plus lent. La classification des périphériques de mémoire ne s'arrête pas à la RAM et à la VRAM - certaines fonctions sont exécutées à la fois par la SRAM (mémoire à accès super aléatoire), la ROM (mémoire morte) et d'autres sous-types de mémoire informatique.

Dans un ordinateur construit selon le schéma décrit, les instructions sont séquentiellement lues dans la mémoire et exécutées. Le numéro (adresse) de la prochaine cellule mémoire à partir de laquelle la prochaine commande de programme sera extraite est indiqué par un dispositif spécial - un compteur de commandes dans l'unité de contrôle. Sa présence est également l’un des traits caractéristiques de l’architecture en question.

Les principes fondamentaux de l'architecture des dispositifs informatiques développés par von Neumann se sont révélés si fondamentaux qu'ils ont reçu le nom d'« architecture de von Neumann » dans la littérature. La grande majorité des ordinateurs actuels sont des machines de von Neumann. Les seules exceptions sont certains types de systèmes de calcul parallèle, dans lesquels il n'y a pas de compteur de programme, le concept classique de variable n'est pas implémenté et il existe d'autres différences fondamentales significatives par rapport au modèle classique (les exemples incluent les ordinateurs de streaming et de réduction).

Apparemment, un écart significatif par rapport à l'architecture de von Neumann se produira à la suite du développement de l'idée de machines de cinquième génération, dans lesquelles le traitement de l'information n'est pas basé sur des calculs, mais sur des conclusions logiques.

3. AMÉLIORATION ET DÉVELOPPEMENT DE LA STRUCTURE INFORMATIQUE INTERNE

La section précédente décrivait la structure classique d'un ordinateur, correspondant aux ordinateurs de première et deuxième générations. Naturellement, en raison du développement rapide de la technologie de production de matériel informatique, une telle structure ne pouvait que subir certaines modifications progressives.

Comme indiqué ci-dessus, l'émergence de la troisième génération d'ordinateurs est due au passage des transistors aux circuits intégrés. Des progrès significatifs dans la miniaturisation des circuits électroniques ont non seulement contribué à réduire la taille des unités fonctionnelles de base d'un ordinateur, mais ont également créé les conditions préalables à une augmentation significative de la vitesse du processeur. Une contradiction importante est apparue entre la vitesse élevée de traitement de l'information à l'intérieur de la machine et le fonctionnement lent des dispositifs d'entrée-sortie, dont la plupart contiennent des pièces mécaniquement mobiles. Le processeur, qui contrôlait le fonctionnement des périphériques externes, serait obligé de rester inactif pendant une partie importante du temps, en attendant des informations « du monde extérieur », ce qui réduirait considérablement l'efficacité de l'ensemble de l'ordinateur. Pour résoudre ce problème, une tendance est apparue à libérer le processeur central des fonctions d'échange et à les transférer vers des circuits électroniques spéciaux pour contrôler le fonctionnement des appareils externes. De tels circuits portaient différents noms : canaux d'échange, processeurs d'entrée/sortie, processeurs périphériques. Récemment, le terme « contrôleur de périphérique externe » (ou simplement contrôleur) a été de plus en plus utilisé.

La présence de contrôleurs intelligents pour les appareils externes est devenue une caractéristique distinctive importante des machines de troisième et quatrième génération.

Le contrôleur peut être considéré comme un processeur spécialisé qui contrôle le fonctionnement du périphérique externe « qui lui est confié » à l'aide de programmes d'échange spéciaux intégrés. Un tel processeur possède son propre système d'instructions. Par exemple, un contrôleur de lecteur de disquette peut positionner la tête sur la piste de disque souhaitée, lire ou écrire un secteur, formater une piste, etc. Les résultats de chaque opération sont inscrits dans les registres de mémoire interne du contrôleur et peuvent ensuite être lus par le processeur central.

Ainsi, la présence de dispositifs externes intelligents peut modifier considérablement l’idéologie de l’échange. S'il est nécessaire d'effectuer un échange, le processeur central confie une tâche pour sa mise en œuvre au responsable du traitement. D'autres échanges d'informations peuvent avoir lieu sous la direction du responsable du traitement sans la participation du processeur central. Ce dernier a la possibilité de « s’occuper de ses propres affaires », c’est-à-dire poursuivre le programme (si rien ne peut être fait sur cette tâche avant la fin de l'échange, vous pouvez en résoudre une autre à ce moment-là).

Passons maintenant à une discussion de la structure interne d'un ordinateur contenant des contrôleurs intelligents, illustré à la Fig. 3.1. La figure montre que pour la communication entre les nœuds fonctionnels individuels de l'ordinateur, un bus commun est utilisé (souvent appelé backbone). Le pneu se compose de trois parties :

Bus de données par lequel les informations sont transmises ;

Le bus d'adresses, qui détermine où les données sont envoyées ;

Un bus de contrôle qui régule le processus d'échange d'informations.

Il existe des modèles informatiques dans lesquels les bus de données et les adresses sont combinés pour économiser de l'argent. Avec de telles machines, l'adresse est d'abord mise sur le bus, puis après un certain temps les données ; Le but pour lequel le bus est actuellement utilisé est déterminé par les signaux sur le bus de commande.

Le schéma décrit peut être facilement reconstitué avec de nouveaux appareils - cette propriété est appelée ouverture de l'architecture. Pour l'utilisateur, l'architecture ouverte signifie la possibilité de choisir librement la composition des périphériques externes pour votre ordinateur, c'est-à-dire configurez-le en fonction de l'éventail des tâches à résoudre.

En figue. 3.1 en présente une nouvelle par rapport à la Fig. 2.1 type de mémoire - vidéo - RAM (mémoire vidéo). Son apparition est associée au développement d'un périphérique de sortie spécial - un écran. La partie principale de l'écran est un tube cathodique, qui affiche les informations de la même manière que sur un téléviseur (certains modèles d'ordinateurs domestiques bon marché sont simplement connectés à un téléviseur ordinaire). Évidemment, l’écran, ne comportant aucune pièce mécaniquement mobile, est un dispositif d’affichage d’informations « très rapide ». Par conséquent, pour les ordinateurs de troisième et quatrième génération, il fait partie intégrante (bien que l'affichage ait été implémenté pour la première fois sur certains ordinateurs de deuxième génération, par exemple sur MIR-2, un développement national très intéressant à bien des égards).

Figure 3.1 - Architecture du bus informatique


Pour obtenir une image stable sur l’écran du moniteur, elle doit être stockée quelque part. C'est à cela que sert la mémoire vidéo. Tout d'abord, le contenu de la mémoire vidéo est généré par l'ordinateur, puis le contrôleur d'affichage affiche l'image sur l'écran. La quantité de mémoire vidéo dépend largement de la nature de l'information (texte ou graphique) et du nombre de couleurs de l'image. Structurellement, il peut être constitué comme une RAM ordinaire ou contenu directement dans le contrôleur d'affichage (c'est pourquoi il est représenté par une ligne pointillée sur la figure 3.1).

Arrêtons-nous sur une autre caractéristique importante de la structure des ordinateurs modernes. Depuis que le processeur n’est plus au centre de la conception, il est devenu possible de mettre en œuvre des connexions directes entre appareils informatiques. En pratique, ils utilisent le plus souvent le transfert de données depuis des appareils externes vers la RAM et vice versa. Le mode dans lequel un périphérique externe communique directement avec la RAM sans la participation du processeur central est appelé accès direct à la mémoire (DMA). Pour le mettre en œuvre, un contrôleur spécial est requis. Nous soulignons que le mode PDP n'existait pas dans les voitures de première et deuxième génération. Par conséquent, le schéma informatique parfois rencontré, dans lequel les données des périphériques d'entrée entrent directement dans la RAM, ne correspond pas à la réalité : en l'absence de contrôleur DMA, les données sont toujours d'abord reçues dans les registres internes du processeur et ensuite seulement en mémoire.

Lors de la description de la structure du réseau fédérateur, nous avons supposé de manière simpliste que tous les appareils interagissent via un bus commun. D'un point de vue architectural, c'est largement suffisant. Précisons cependant qu'en pratique une telle structure n'est utilisée que pour des ordinateurs dotés d'un petit nombre de périphériques externes. Avec l'augmentation des flux d'informations entre les appareils informatiques, la seule autoroute est surchargée, ce qui ralentit considérablement le fonctionnement de l'ordinateur. Ainsi, un ou plusieurs bus supplémentaires peuvent être introduits dans le calculateur. Par exemple, un bus peut être utilisé pour la communication avec la mémoire, le deuxième pour la communication avec des périphériques externes « rapides » et le troisième avec des périphériques externes « lents ». Notez qu'un bus de données RAM à grande vitesse est requis s'il existe un mode DMA.

Pour conclure notre discussion sur les caractéristiques de la structure interne des ordinateurs modernes, nous soulignons plusieurs tendances caractéristiques de son développement. Premièrement, l'ensemble des périphériques externes est en constante expansion et amélioration, ce qui conduit, comme décrit ci-dessus, à la complication du système de connexions entre les nœuds informatiques. Deuxièmement, les ordinateurs ne sont plus monoprocesseurs. En plus du central, l'ordinateur peut disposer de processeurs spécialisés pour les calculs en virgule flottante (appelés coprocesseurs mathématiques), de processeurs vidéo pour accélérer l'affichage des informations sur l'écran d'affichage, etc. Le développement de méthodes de calcul parallèle donne également vie à des systèmes informatiques de structure assez complexe, dans lesquels une opération est effectuée par plusieurs processeurs à la fois. Troisièmement, le désir émergent de disposer de machines à grande vitesse non seulement pour les calculs, mais aussi pour l'analyse logique de l'information, pourrait également conduire dans les années à venir à une révision sérieuse de l'architecture traditionnelle de von Neumann.

Une autre caractéristique du développement des ordinateurs modernes est l’augmentation toujours plus rapide du rôle des communications inter-ordinateurs. Un nombre croissant d'ordinateurs sont mis en réseau et traitent ensemble les informations existantes.

Ainsi, la structure interne de la technologie informatique a été constamment améliorée et continuera de s'améliorer.

Dans le même temps, à l'heure actuelle, la grande majorité des ordinateurs existants, malgré les différences existantes, sont toujours constitués de composants identiques et sont basés sur les principes généraux de l'architecture de von Neumann.


4. CYCLE DE BASE DE FONCTIONNEMENT DE L'ORDINATEUR

Cette section traite brièvement de la séquence d'actions lors de l'exécution d'une commande sur un ordinateur. On peut affirmer que le cycle de travail est généralement le même pour toutes les machines von Neumann.

Un composant important de l'architecture de von Neumann est le compteur d'adresses d'instruction. Ce registre interne spécial du processeur pointe toujours vers l'emplacement mémoire où l'instruction de programme suivante est stockée. Lors de la mise sous tension ou lorsque le bouton de réinitialisation est enfoncé, l'adresse de départ du programme d'initialisation de tous les périphériques et de démarrage situé dans la ROM est saisie dans le compteur matériel. Le fonctionnement ultérieur de l'ordinateur est déterminé par le programme. Ainsi, toute activité informatique est l’exécution continue de certains programmes, et ces programmes peuvent, à leur tour, charger de nouveaux programmes, etc.

Chaque programme se compose d'instructions machine distinctes. Chaque commande machine est divisée en un certain nombre de composants élémentaires unifiés, généralement appelés cycles d'horloge. Selon la complexité de la commande, elle peut être implémentée en un nombre différent de cycles d'horloge. Par exemple, le transfert d'informations d'un registre interne du processeur à un autre s'effectue en plusieurs cycles d'horloge, mais la multiplication de deux nombres entiers nécessite un ordre de grandeur de cycles d'horloge supplémentaires. Un allongement significatif de la commande se produit si les données en cours de traitement ne se trouvent pas encore à l'intérieur du processeur et doivent être lues depuis la RAM.

Lors de l'exécution de chaque commande, l'ordinateur effectue certaines actions standards :

1) en fonction du contenu du compteur d'adresses de commande, la commande suivante du programme est lue (son code est généralement stocké dans un registre spécial de l'unité de contrôle, appelé registre de commandes) ;

2) le compteur du programme est automatiquement modifié pour qu'il contienne l'adresse de la commande suivante (dans le cas le plus simple, il suffit pour cela d'ajouter une constante à la valeur actuelle du compteur, déterminée par la longueur de la commande) ;

3) l'opération lue dans le registre de commandes est déchiffrée, les données nécessaires sont extraites et les actions requises sont effectuées sur celles-ci.

Ensuite, dans tous les cas, à l'exception de la commande d'arrêt ou de l'apparition d'une interruption, toutes les actions décrites sont répétées cycliquement.

Après avoir récupéré la commande d'arrêt, l'ordinateur arrête de traiter le programme. Pour sortir de cet état, soit une demande de périphériques externes, soit un redémarrage de la machine est requis.

L'algorithme informatique de base considéré vous permet d'exécuter étape par étape un programme linéaire stocké dans la RAM. Si vous devez modifier l'ordre des calculs pour mettre en œuvre un fork ou une boucle, il suffit de saisir l'adresse requise dans le compteur du programme (c'est ainsi qu'un saut conditionnel ou inconditionnel se produit).

Les ordinateurs basés sur les microprocesseurs INTEL 80286 et ultérieurs utilisent le pipeline (parfois appelé prélecture) pour accélérer le cycle d'instruction principal. L'idée est que plusieurs dispositifs internes du processeur fonctionnent en parallèle : l'un lit l'instruction, un autre déchiffre l'opération, le troisième calcule les adresses des opérandes utilisés, etc. En conséquence, à la fin d'une commande, il s'avère le plus souvent que la suivante a déjà été sélectionnée dans la RAM, déchiffrée et préparée pour l'exécution. Notez que si l'ordre naturel d'exécution des instructions dans le programme est violé (par exemple, lors d'un saut inconditionnel), la récupération avant est vaine et le pipeline est effacé. La commande qui suit la transition est plus longue à exécuter, car pour que le convoyeur « fonctionne à pleine capacité », il faut d'abord le remplir. Autrement dit, dans une machine à convoyeur, le temps d'exécution d'un programme peut dépendre non seulement de ses instructions constitutives, mais également de leur position relative.

5. SYSTÈME DE COMMANDE INFORMATIQUE ET MÉTHODES D'ACCÈS AUX DONNÉES

Fais-le. Les tampons d'adresses permettent à terme d'aplanir les irrégularités des requêtes en mémoire et ainsi d'augmenter l'efficacité de son utilisation. La troisième caractéristique structurelle de BESM-6 est la méthode d'utilisation d'une mémoire superopérationnelle et non adressable de petit volume à partir du programme, dont le but est de sauvegarder automatiquement l'accès à la mémoire vive principale...

Processeurs inclus dans les périphériques). Dans un système informatique multi-machines, plusieurs processeurs inclus dans le système informatique n'ont pas de RAM commune, mais chacun a la sienne (locale). Chaque ordinateur d'un système multi-machines a une architecture classique et un tel système est assez largement utilisé. Cependant, l'effet de l'utilisation d'un tel système informatique...

Utilisateur. À l'aide du clavier, ils contrôlent le système informatique et, à l'aide du moniteur, ils en reçoivent des commentaires. Principe de fonctionnement. Le clavier est l'une des fonctionnalités standard d'un ordinateur personnel. Ses fonctions principales ne nécessitent pas la prise en charge de programmes système spéciaux (pilotes). Le logiciel nécessaire pour commencer à travailler avec un ordinateur est déjà disponible dans la puce ROM de...

PRINCIPES DE CONSTRUCTION ET D'ARCHITECTURE INFORMATIQUE.

1.1 Le principe de fonctionnement de l'ordinateur.

ordinateur – un ensemble de dispositifs techniques destinés au traitement automatisé des messages discrets selon l'algorithme requis.

L’idée d’automatiser le processus de traitement des données est ancrée dans le principe de fonctionnement d’un ordinateur. En figue. 1.1 montre un schéma fonctionnel d'un ordinateur abstrait. Il montrera la composition, l'ordre et les principes d'interaction des principales parties fonctionnelles d'un ordinateur.

Fig 1.1 Schéma fonctionnel d'un ordinateur.

Tout ordinateur contient les principaux périphériques suivants :

Logique Arithmétique (ALU);

Les principaux composants du logiciel sont abordés en détail dans d'autres cours et ne sont pas abordés ici. Quelques notes sur le système d'exploitation.

Système opérateur nous appellerons un complexe de logiciels et de matériel et les tableaux d'informations nécessaires qui organisent le processus informatique pour la mise en œuvre des tâches des utilisateurs grâce à une planification optimale de l'utilisation et de la gestion de toutes les ressources informatiques.

Il s'agit de la définition la plus générale et la plus complète d'un système d'exploitation. Il vous permet de présenter l'ordinateur du point de vue de l'utilisateur comme un système virtuel multi-niveaux (Fig. 1.6).

1 – système virtuel utilisateur ;

2 – machine étendue externe ;

3 – machine élargie interne.

a – équipement;

b – fonctions de base du système d'exploitation ;

c – principales fonctions du système d'exploitation ;

d – couche de processus ;

e – langage de contrôle de tâches et langages algorithmiques.

Proposé pour la première fois par Dextra en 1968. dans l'ouvrage «Structure des systèmes multiprogrammes». Basé sur la représentation d'un système informatique dans sous forme de machines virtuelles imbriquées avec compatibilité hiérarchique.

Le niveau le plus bas est une machine physique et est implémenté dans le matériel à l'aide de principes de microprogramme ou de contrôle de circuit. Chaque niveau suivant offre de nouvelles fonctionnalités via le système d'exploitation et les logiciels généraux. Au niveau le plus bas, il existe des moyens pour mettre en œuvre des micro-opérations. Les moyens et fonctions de contrôle à chaque niveau ultérieur sont constitués à partir des moyens et fonctions des niveaux inférieurs par rapport au niveau considéré. Chaque niveau est caractérisé par la durée du contrôle mis en œuvre et une certaine étendue de couverture des fonds gérés. Des niveaux de contrôle plus élevés sont mis en œuvre par les composants du système d'exploitation, qui sont une extension logicielle du dispositif de contrôle et constituent l'interface entre l'utilisateur et l'ordinateur.

En termes de niveau de développement, certains systèmes d'exploitation modernes sont si capables d'automatiser les fonctions des opérateurs qu'ils peuvent à juste titre être classés comme intelligence artificielle.

Application pratique du concept de système virtuel multi-niveaux : simplification et formalisation de la description du processus de fonctionnement de l'avion et de ses principaux composants.

Le mot « architecture » dans son sens originel est utilisé en urbanisme. Étant une structure assez complexe, une ville moderne se compose de quartiers, de places, de rues, de maisons, etc., situés d'une certaine manière.

Afin de naviguer dans la complexité des rues et des places, dans toute ville, il existe un système de noms historiquement établi, ainsi qu'une certaine numérotation des maisons. La présence d'un adressage généralement accepté permet de déterminer sans ambiguïté la position de n'importe quelle structure et, si nécessaire, de la retrouver rapidement. Dans de nombreux cas, le tracé des rues et l’attribution de leurs noms sont aléatoires. En même temps, il arrive que cette activité soit réfléchie et s'inscrit dans la continuité de l'aménagement général de la ville, c'est-à-dire en fait une partie de son architecture. Un exemple classique est le système bien connu de rues (avenues et rues) perpendiculaires entre elles de la ville de New York. En plus d'être purement pratique, l'architecture d'une ville peut également avoir une valeur artistique (qui intéresse généralement davantage les visiteurs). Mais il est peu probable que cet aspect du concept d’« architecture » soit transféré à la technologie informatique.

Par analogie avec l'urbanisme, il est naturel d'appréhender l'architecture d'un ordinateur comme l'ensemble de ses caractéristiques nécessaires à l'utilisateur. Il s'agit tout d'abord des principaux appareils et blocs d'un ordinateur, ainsi que de la structure des connexions entre eux. Si l'on regarde par exemple dans le « Dictionnaire explicatif des systèmes informatiques », on y lira que le terme « architecture informatique » est utilisé pour décrire le principe de fonctionnement, de configuration et d'interconnexion des principaux nœuds logiques d'une « architecture » informatique. ».

Cependant, décrire la structure interne d'un ordinateur n'est pas du tout une fin en soi : d'un point de vue architectural, seules les connexions et principes les plus généraux, inhérents à de nombreuses implémentations spécifiques d'ordinateurs, présentent un intérêt. On parle même souvent de familles d'ordinateurs, c'est-à-dire groupes de modèles compatibles entre eux. Au sein d'une même famille, les principes de base de la conception et du fonctionnement des machines sont les mêmes, bien que les modèles individuels puissent différer considérablement en termes de performances, de coût et d'autres paramètres. Un exemple frappant est les diverses modifications des ordinateurs PDP de DEC (mieux connus de nos utilisateurs pour leurs analogues nationaux - la série DVK), la famille de machines MSX, qui possède le très répandu YAMAHA, ainsi que les ordinateurs personnels compatibles IBM qui ont inondé le monde.

C’est précisément ce qui est commun dans la structure d’un ordinateur que l’on appelle architecture. Il est important de noter que le but d'une telle communauté est, en fin de compte, un désir tout à fait compréhensible : toutes les machines d'une même famille, quels que soient leur appareil spécifique et leur fabricant, devraient pouvoir exécuter le même programme. Cela découle inévitablement de la conclusion selon laquelle d'un point de vue architectural, toutes les informations sur la construction d'un ordinateur ne sont pas importantes, mais seulement celles qui peuvent être utilisées d'une manière ou d'une autre dans la programmation et le travail « utilisateur » avec l'ordinateur. Vous trouverez ci-dessous une liste des principes les plus généraux de la construction informatique liés à l'architecture :

Structure de la mémoire informatique ;

Méthodes d'accès à la mémoire et aux périphériques externes ;

Possibilité de modifier la configuration de l'ordinateur ;

Système de commande ;

Formats de données ;

Organisation des interfaces.

En résumant tout ce qui précède, nous obtenons la définition suivante de l’architecture :

"L'architecture représente les principes les plus généraux de la construction informatique qui mettent en œuvre le contrôle logiciel du fonctionnement et de l'interaction de ses principales unités fonctionnelles."

2. ARCHITECTURE INFORMATIQUE CLASSIQUE II PRINCIPES DE VON NEUMANN

Les bases de la doctrine de l'architecture informatique ont été posées par l'éminent mathématicien américain John von Neumann. Il a participé à la création du premier ordinateur à tube au monde, ENIAC, en 1944, alors que sa conception avait déjà été sélectionnée. Au cours de son travail, lors de nombreuses discussions avec ses collègues G. Goldstein et A. Berks, von Neumann a exprimé l'idée d'un ordinateur fondamentalement nouveau. En 1946, les scientifiques ont exposé leurs principes de construction d’ordinateurs dans l’article désormais classique « Considération préliminaire de la conception logique d’un dispositif informatique électronique ». Un demi-siècle s'est écoulé depuis, mais les dispositions qui y sont proposées restent d'actualité aujourd'hui.

Auparavant, tous les ordinateurs stockaient les nombres traités sous forme décimale. Les auteurs ont démontré de manière convaincante les avantages du système binaire pour la mise en œuvre technique, la commodité et la simplicité d'y effectuer des opérations arithmétiques et logiques. Plus tard, les ordinateurs ont commencé à traiter des types d'informations non numériques - texte, graphique, son et autres, mais le codage des données binaires constitue toujours la base d'information de tout ordinateur moderne.

Une autre idée véritablement révolutionnaire, dont il est difficile de surestimer l’importance, est le principe du « programme stocké » proposé par Neumann. Initialement, le programme était défini en installant des cavaliers sur un panneau de brassage spécial. C'était une tâche très laborieuse : par exemple, il fallait plusieurs jours pour modifier le programme de la machine ENIAC (alors que le calcul lui-même ne pouvait pas durer plus de quelques minutes - les lampes tombaient en panne). Neumann fut le premier à réaliser qu'un programme pouvait également être stocké sous la forme d'une série de zéros et de uns, dans la même mémoire que les nombres qu'il traitait. L'absence de différence fondamentale entre le programme et les données a permis à l'ordinateur de former lui-même un programme en fonction des résultats des calculs.

Von Neumann a non seulement mis en avant les principes fondamentaux de la structure logique d'un ordinateur, mais a également proposé sa structure, qui a été reproduite au cours des deux premières générations d'ordinateurs. Les principaux blocs selon Neumann sont une unité de contrôle (CU) et une unité arithmétique-logique (ALU) (généralement combinées en un processeur central), une mémoire, une mémoire externe, des dispositifs d'entrée et de sortie. La conception d'un tel ordinateur est illustrée à la figure 2.1. Les lignes pleines avec des flèches indiquent la direction des flux d'informations, les lignes pointillées indiquent les signaux de commande du processeur vers d'autres nœuds informatiques

Figure 2.1 - Architecture informatique construite sur les principes de Von Neumann

Le dispositif de contrôle et l'unité arithmétique-logique des ordinateurs modernes sont combinés en une seule unité - le processeur, qui est un convertisseur d'informations provenant de la mémoire et de périphériques externes (cela inclut la récupération des instructions de la mémoire, le codage et le décodage, l'exécution de diverses opérations, y compris l'arithmétique , opérations, coordination du fonctionnement des nœuds informatiques). La mémoire (mémoire) stocke des informations (données) et des programmes. Le périphérique de stockage des ordinateurs modernes est « à plusieurs niveaux » et comprend une mémoire vive (RAM), qui stocke les informations avec lesquelles l'ordinateur travaille directement à un moment donné, et des périphériques de stockage externes (ESD) d'une capacité beaucoup plus grande que la RAM. , mais avec un accès nettement plus lent. La classification des périphériques de mémoire ne s'arrête pas à la RAM et à la VRAM - certaines fonctions sont exécutées à la fois par la SRAM (mémoire à accès super aléatoire), la ROM (mémoire morte) et d'autres sous-types de mémoire informatique.

Dans un ordinateur construit selon le schéma décrit, les instructions sont séquentiellement lues dans la mémoire et exécutées. Le numéro (adresse) de la prochaine cellule mémoire à partir de laquelle la prochaine commande de programme sera extraite est indiqué par un dispositif spécial - un compteur de commandes dans l'unité de contrôle. Sa présence est également l’un des traits caractéristiques de l’architecture en question.

Les principes fondamentaux de l'architecture des dispositifs informatiques développés par von Neumann se sont révélés si fondamentaux qu'ils ont reçu le nom d'« architecture de von Neumann » dans la littérature. La grande majorité des ordinateurs actuels sont des machines de von Neumann. Les seules exceptions sont certains types de systèmes de calcul parallèle, dans lesquels il n'y a pas de compteur de programme, le concept classique de variable n'est pas implémenté et il existe d'autres différences fondamentales significatives par rapport au modèle classique (les exemples incluent les ordinateurs de streaming et de réduction).

Essai

Sujet : ''L'architecture informatique et ses principales caractéristiques''.

Introduction

Les ordinateurs électroniques (ordinateurs), ou, comme on les appelle maintenant plus souvent, les ordinateurs, sont l'une des créations les plus étonnantes de l'homme. Au sens strict, les ordinateurs sont des appareils qui effectuent différents types de calculs ou facilitent ce processus. Les appareils les plus simples servant à des fins similaires sont apparus dans l’Antiquité, il y a plusieurs milliers d’années. À mesure que la civilisation humaine se développait, elle évoluait lentement et s’améliorait continuellement. Cependant, seulement dans Années 40 de notre siècle le début a été posé pour la création d'ordinateurs d'architecture moderne et avec une logique moderne. Ces années peuvent à juste titre être considérées comme l'époque de la naissance des ordinateurs modernes (naturellement électroniques).

Pour qu'un ordinateur soit à la fois un outil efficace et polyvalent, il doit comprendre les structures suivantes : une unité centrale arithmétique-logique (ALU), une unité centrale de contrôle (CU) qui « effectue » les opérations, un périphérique de stockage ou mémoire, et périphériques d'entrée/sortie. .

Von Neumann a noté que ce système doit fonctionner avec des nombres binaires, être un dispositif électronique plutôt que mécanique et effectuer des opérations séquentiellement, les unes après les autres.

Des principes, formé par von Neumann, est devenu généralement accepté et a constitué la base à la fois des grands ordinateurs des premières générations et des mini- et micro-ordinateurs ultérieurs. Et bien qu'il y ait eu récemment une recherche active d'ordinateurs construits sur des principes autres que les principes classiques, la plupart des ordinateurs sont construits selon les principes définis par Neumann.

Architecture et structure informatique

Lorsqu’on considère les appareils informatiques, il est courant de faire la distinction entre leur architecture et structure.

L'architecture des ordinateurs est appelé sa description à un certain niveau général, y compris une description des capacités de programmation utilisateur, des systèmes de commande, des systèmes d'adressage, de l'organisation de la mémoire, etc. L'architecture détermine les principes de fonctionnement, de connexions d'informations et d'interconnexion des principaux nœuds logiques de l'ordinateur : processeur, stockage opérationnel, stockage externe et périphériques. L'architecture commune des différents ordinateurs assure leur compatibilité du point de vue de l'utilisateur.

Structure informatique est un ensemble de ses éléments fonctionnels et des connexions entre eux. Les éléments peuvent être une grande variété de dispositifs - des principaux nœuds logiques d'un ordinateur aux circuits les plus simples. La structure d'un ordinateur est représentée graphiquement sous forme de schémas fonctionnels, à l'aide desquels vous pouvez décrire l'ordinateur à n'importe quel niveau de détail.

Les solutions architecturales les plus courantes sont :

Architecture classique(architecture von Neumann) - une unité arithmétique-logique (ALU), à travers laquelle passe le flux de données, et un dispositif de contrôle (CU), à travers lequel passe le flux de commandes - le programme. Il s'agit d'un ordinateur monoprocesseur. Ce type d'architecture inclut également l'architecture d'un ordinateur personnel avec bus commun. Tous les blocs fonctionnels sont ici interconnectés par un bus commun, également appelé bus système.

Physiquement l'autoroute est une ligne multifilaire avec des prises pour connecter des circuits électroniques. Ensemble de fils autoroutes est divisé en groupes distincts : bus d’adresses, bus de données et bus de contrôle.

P. périphériques ( Imprimante etc.) sont connectés au matériel informatique via des contrôleurs spéciaux - des dispositifs permettant de contrôler les périphériques.

Manette- un dispositif qui connecte des équipements périphériques ou des canaux de communication au processeur central, évitant ainsi au processeur de contrôler directement le fonctionnement de cet équipement.

Architecture multiprocesseur. La présence de plusieurs processeurs dans un ordinateur permet d'organiser en parallèle de nombreux flux de données et de nombreux flux de commandes. Ainsi, plusieurs fragments d'une même tâche peuvent être exécutés en parallèle. La structure d'une telle machine, dotée d'une RAM commune et de plusieurs processeurs, est représentée sur la figure.

Architecture informatique multiprocesseur

Système informatique multi-machines. Ici, plusieurs processeurs inclus dans un système informatique n'ont pas de RAM commune, mais chacun a la sienne (locale). Chaque ordinateur d'un système multi-machines a une architecture classique et un tel système est assez largement utilisé. Cependant, l'effet de l'utilisation d'un tel système informatique ne peut être obtenu qu'en résolvant des problèmes qui ont une structure très particulière : il doit être divisé en autant de sous-tâches faiblement couplées qu'il y a d'ordinateurs dans le système.

L’avantage en termes de rapidité des systèmes informatiques multiprocesseurs et multimachines par rapport à ceux à processeur unique est évident.

Architecture de processeur parallèle. Ici, plusieurs ALU fonctionnent sous le contrôle d'une seule unité de contrôle. Cela signifie que de nombreuses données peuvent être traitées par un seul programme, c'est-à-dire par un seul flux de commandes. Les hautes performances d'une telle architecture ne peuvent être obtenues que sur des tâches dans lesquelles les mêmes opérations de calcul sont effectuées simultanément sur différents ensembles de données du même type. La structure de ces ordinateurs est illustrée sur la figure.

Architecture de processeur parallèle

Les voitures modernes contiennent souvent des éléments de différents types de solutions architecturales. Il existe également des solutions architecturales radicalement différentes de celles évoquées ci-dessus.

Un ordinateur personnel moderne se compose de plusieurs composants structurels principaux :

    unité système;

    moniteur;

    claviers;

    manipulateurs.


Unité système

L'unité système est l'unité la plus importante de l'ordinateur. Toutes les autres unités, appelées périphériques externes ou périphériques, y sont connectées. L'unité système contient les principaux composants électroniques de l'ordinateur. Le PC est construit sur la base de VLSI (circuits intégrés à très grande échelle), et presque tous sont situés à l'intérieur de l'unité système, sur des cartes spéciales (la carte est une plaque en plastique sur laquelle sont fixés et interconnectés les composants électroniques - VLSI, microcircuits, etc.). La carte la plus importante d'un ordinateur est carte mère. Sur ce sont unité centrale de traitement, coprocesseur, mémoire vive – RAM et des connecteurs pour connecter les cartes contrôleurs des appareils externes.

L'unité système contient :

    alimentation - un dispositif qui convertit la tension secteur alternative en tension continue de polarité et d'amplitude différentes, nécessaire pour alimenter la carte système et les périphériques internes. Le bloc d'alimentation contient un ventilateur qui crée des flux d'air en circulation pour refroidir l'unité centrale.

    carte système (carte mère);

    tronc (bus système);

    CPU;

    carte son;

    carte vidéo (carte graphique);

    disques durs;

    lecteurs de disquettes;

    dispositifs de stockage optiques, magnéto-optiques et autres;

    Lecteur de CD-ROM, DVD-ROM ;

Carte mère

La partie principale de tout système informatique est la carte mère avec le processeur principal et ses puces de support. Sur le plan fonctionnel, une carte mère peut être décrite de différentes manières. Parfois, une telle carte contient l'ensemble des circuits de l'ordinateur (carte unique). Contrairement aux ordinateurs monocarte, dans les ordinateurs orientés bus, la carte mère implémente un circuit de configuration minimal ; les fonctions restantes sont implémentées à l'aide de nombreuses cartes supplémentaires. Tous les composants se connectent pneu. La carte mère ne dispose pas d'adaptateur vidéo, de certains types de mémoire ou de moyens de communication avec des périphériques supplémentaires. Ces périphériques (cartes d'extension) sont ajoutés à la carte système en se connectant au bus d'extension, qui fait partie de la carte système.

La première carte mère a été développée par IBM et présentée en août 1981 (PC-1). En 1983, un ordinateur doté d'une carte mère agrandie (PC-2) est apparu. Le maximum que le PC-1 pouvait prendre en charge sans utiliser de cartes d'extension était de 64 Ko de mémoire. Le PC-2 possédait déjà 256 Ko, mais la différence la plus importante résidait dans la programmation des deux cartes. La carte mère PC-1 ne pourrait pas, sans ajustement, prendre en charge les périphériques d'extension les plus puissants, tels qu'un disque dur et des adaptateurs vidéo améliorés.

Une carte mère est un complexe de divers dispositifs qui prennent en charge le fonctionnement du système dans son ensemble. Les attributs obligatoires de la carte mère sont basiques CPU, RAM, BIOS système, contrôleur claviers, connecteurs d'extension.

La carte mère à l’intérieur de l’ordinateur est la principale pièce de montage à laquelle sont fixés les autres composants.

Pendant le fonctionnement normal de la carte mère, ils n'y pensent que lorsque l'ordinateur doit être amélioré. Habituellement, ils souhaitent installer un processeur plus rapide, ce qui conduit au remplacement de la carte mère. Par exemple, vous ne pouvez pas remplacer un ancien Pentium MMX par un Pentium III sans une nouvelle carte mère.

Par l'apparence de la carte mère, vous pouvez déterminer lesquelles sont nécessaires CPU, mémoire et des périphériques supplémentaires insérés dans les ports et prises externes de l'ordinateur.

En fonction de leur taille, les cartes mères peuvent généralement être divisées en trois groupes. Auparavant, toutes les cartes mères mesuraient 8,5/11 pouces. Dans le XT, les dimensions ont augmenté de 1 pouce ; dans l'AT, les dimensions ont augmenté encore plus. On peut souvent parler de cartes « vertes » (carte mère verte). Désormais, seules de telles cartes sont produites. Ces cartes mères vous permettent de mettre en œuvre plusieurs modes de consommation d'énergie économiques (y compris ce qu'on appelle « veille », dans lequel l'alimentation est coupée des composants de l'ordinateur qui ne fonctionnent pas actuellement).

L'Agence américaine de protection de l'environnement (EPA) s'est concentrée sur la réduction de la consommation d'énergie des systèmes informatiques. Les équipements qui répondent à ses exigences (EPA) ne doivent pas consommer plus de 30 W en moyenne (en mode veille), ne pas utiliser de matières toxiques et permettre un recyclage à 100 %. Étant donné que les microprocesseurs modernes utilisent une tension d'alimentation de 3,3 à 4 V et que 5 V sont fournis à la carte, sur le système
Des convertisseurs de tension sont installés sur les cartes.

Fréquence du processeur, du bus système et des bus périphériques

Les performances des différents composants informatiques (processeur, RAM et contrôleurs de périphériques) peuvent varier considérablement. Pour coordonner les performances, des microcircuits spéciaux (chipsets) sont installés sur la carte mère, notamment un contrôleur RAM (appelé pont nord) et un contrôleur de périphériques (pont sud).

Fig. 1. Schéma logique de la carte mère

Le pont nord assure l'échange d'informations entre le processeur et la RAM via le bus système. Le processeur utilise une multiplication de fréquence interne, de sorte que la fréquence du processeur est plusieurs fois supérieure à la fréquence du bus système. Dans les ordinateurs modernes, la fréquence du processeur peut être 10 fois supérieure à la fréquence du bus système (par exemple, la fréquence du processeur est de 1 GHz et la fréquence du bus est de 100 MHz).

Le bus PCI (Peripheral Component Interconnect bus) est connecté au pont nord, qui assure l'échange d'informations avec les contrôleurs de périphériques. La fréquence du contrôleur est inférieure à la fréquence du bus système, par exemple, si la fréquence du bus système est de 100 MHz, la fréquence du bus PCI est généralement trois fois inférieure - 33 MHz. Contrôleurs périphériques ( carte son, carte réseau, contrôleur SCSI, modem interne) sont installés dans les connecteurs d'extension de la carte mère.

À mesure que la résolution du moniteur et la profondeur des couleurs augmentent, les exigences de performances pneus, connexion carte vidéo avec le processeur et la RAM, augmentez. Actuellement pour se connecter cartes vidéo Habituellement, un bus AGP (Accelerated Graphic Port) spécial est utilisé, connecté au pont nord et ayant une fréquence plusieurs fois supérieure à celle du bus PCI.

Le pont sud assure l'échange d'informations entre le pont nord et les ports de connexion des équipements périphériques.

Périphériques de stockage ( disques durs, CD ROM, DVD ROM) sont connectés au Southbridge via le bus UDMA (Ultra Direct Memory Access - connexion directe à la mémoire).

Souris Et modem externe sont connectés au Southbridge à l'aide de ports série, qui transmettent les unes après les autres des impulsions électriques transportant des informations en code machine. Les ports série sont désignés par COM1 et COM2, et
sont implémentés dans le matériel à l'aide de connecteurs à 25 et 9 broches, situés sur le panneau arrière de l'unité centrale.

Imprimante se connecte à un port parallèle, qui offre un taux de transfert d'informations plus élevé que les ports série, car il transmet simultanément 8 impulsions électriques transportant des informations en code machine. Le port parallèle est désigné comme LTP et est implémenté dans le matériel sous la forme d'un connecteur à 25 broches sur le panneau arrière. unité système.

Pour connecter des scanners et des appareils photo numériques, un port USB (Universal Serial Bus) est généralement utilisé. pneu), qui permet une connexion haut débit à l'ordinateur de plusieurs périphériques à la fois. Clavier généralement connecté à l’aide d’un port PS/2.

Caractéristiques de base de la technologie informatique

Les principales caractéristiques de la technologie informatique comprennent ses caractéristiques opérationnelles et techniques, telles que la vitesse, la capacité de mémoire, la précision des calculs, etc.

Performances de l'ordinateur est envisagée sous deux aspects. D'une part, il est caractérisé par le nombre d'opérations élémentaires effectuées par le processeur central par seconde. Par opération élémentaire, on entend toute opération simple telle qu'une addition, un transfert, une comparaison, etc. En revanche, la vitesse d'un ordinateur dépend de manière significative de l'organisation de sa mémoire. Le temps passé à rechercher les informations nécessaires en mémoire affecte considérablement la vitesse de l'ordinateur.

Selon le domaine d'application, les ordinateurs sont produits avec des vitesses allant de plusieurs centaines de milliers à des milliards d'opérations par seconde. Pour résoudre des problèmes complexes, il est possible de combiner plusieurs ordinateurs en un seul complexe informatique avec la vitesse totale requise.

Avec la vitesse, le concept est souvent utilisé performance. Si le premier est déterminé principalement par le système d'éléments utilisé dans l'ordinateur, alors le second est associé à son architecture et aux types de problèmes à résoudre. Même pour un ordinateur, une caractéristique telle que la vitesse n'est pas une valeur constante. A cet égard, ils distinguent : des performances maximales, déterminées par la fréquence d'horloge du processeur sans prendre en compte l'accès à la RAM ; performances nominales, déterminées en tenant compte du temps d'accès à la RAM ; performances du système, déterminées en tenant compte des coûts du système liés à l'organisation du processus informatique ; opérationnel, déterminé en tenant compte de la nature des tâches à résoudre (la composition des opérations ou leur « mélange »).

Capacité, ou volume, de la mémoire déterminé par la quantité maximale d’informations pouvant être stockées dans la mémoire de l’ordinateur. Généralement, la capacité de la mémoire est mesurée en octets. Comme déjà indiqué, la mémoire de l'ordinateur est divisée en interne et externe. La mémoire interne, ou mémoire vive, varie en taille pour différentes classes de machines et est déterminée par le système d'adressage de l'ordinateur. La capacité de la mémoire externe est pratiquement illimitée en raison de la structure en blocs et de la conception des lecteurs amovibles.

Précision du calcul dépend du nombre de chiffres utilisés pour représenter un nombre. Les ordinateurs modernes sont équipés de microprocesseurs 32 ou 64 bits, ce qui est tout à fait suffisant pour garantir une grande précision des calculs dans une grande variété d'applications. Cependant, si cela ne suffit pas, vous pouvez utiliser une grille double ou triple bits.

Système de commande- il s'agit d'une liste de commandes que le processeur de l'ordinateur est capable d'exécuter. Le système de commande détermine quelles opérations spécifiques le processeur peut effectuer, combien d'opérandes doivent être spécifiés dans la commande et quel type (format) la commande doit avoir pour la reconnaître. Le nombre de principaux types de commandes est faible. Avec leur aide, les ordinateurs sont capables d'effectuer des opérations d'addition, de soustraction, de multiplication, de division, de comparaison, d'écriture en mémoire, de transfert de nombres de registre en registre, de conversion d'un système numérique à un autre, etc. Si nécessaire, une modification des commandes est effectuée , en tenant compte des spécificités des calculs. Typiquement, un ordinateur utilise de dizaines à centaines de commandes (en tenant compte de leur modification). Au stade actuel de développement de la technologie informatique, deux approches principales sont utilisées lors de la création d'un système d'instructions de processeur. D'une part, il s'agit de l'approche traditionnelle associée au développement de processeurs avec un jeu complet d'instructions - l'architecture CISC (Complete Instruction Set Computer). D'autre part, il s'agit de l'implémentation dans un ordinateur d'un ensemble réduit d'instructions simples mais fréquemment utilisées, qui permet de simplifier le matériel du processeur et d'augmenter ses performances - l'architecture RISC (Reduced Instruction Set Computer - un ordinateur avec un ensemble réduit d’instructions).

Coût informatique dépend de nombreux facteurs, notamment de la vitesse, de la capacité mémoire, du système de commande, etc. La configuration spécifique de l'ordinateur et, en premier lieu, les périphériques externes inclus dans la machine ont une grande influence sur le coût. Enfin, le coût des logiciels affecte considérablement le coût d’un ordinateur.

Fiabilité informatique- c'est la capacité d'une machine à conserver ses propriétés dans des conditions de fonctionnement données pendant une certaine période de temps. Les indicateurs suivants peuvent servir d'évaluation quantitative de la fiabilité d'un ordinateur contenant des éléments dont la défaillance entraîne la défaillance de l'ensemble de la machine :

Probabilité de fonctionnement sans panne pendant un certain temps dans des conditions de fonctionnement données ;
temps moyen informatique entre les pannes ;
temps moyen pour restaurer une machine, etc.

Pour des structures plus complexes telles qu'un complexe ou un système informatique, la notion de « panne » n'a pas de sens. Dans de tels systèmes, les défaillances d'éléments individuels entraînent une légère diminution de l'efficacité de fonctionnement et non une perte totale des performances dans leur ensemble.

D'autres caractéristiques de la technologie informatique sont également importantes, par exemple : la polyvalence, la compatibilité des logiciels, le poids, les dimensions, la consommation d'énergie, etc. Elles sont prises en compte lors de l'évaluation de domaines spécifiques d'application informatique.

Bibliographie

    Bukchin L.V., Bezrukiy Yu.L. Système de disque des ordinateurs compatibles IBM. - M. : Binom, 1993. - 284 p.

    Lagutenko O.I. Modems. Guide de l'utilisateur. - Saint-Pétersbourg : Lan, 1997. - 364

    L'informatique. Cours de base

    Simonovitch S.V. et autres - Saint-Pétersbourg : Peter Publishing House, 2000.

    Ougrinovitch N.D. Informatique et technologie de l'information. Manuel pour les classes 10-11. Cours avancé. - M. : Laboratoire des Connaissances Fondamentales, 2000.

    A. A. Smirnov Architecture des systèmes informatiques, M. Nauka, 1990

Résumé 1

Introduction 2

Architecture et structure de l'ordinateur 3

Concept d'ordinateur... architecture ordinateur, dont le contenu est assez vaste. Architecture ordinateur - ... caractéristiques ordinateur, définissant son structure : technique et opérationnelle caractéristiques ordinateur ...

  • Architecture ordinateur (9)

    Résumé >> Informatique

    Et les touches de contrôle. Le plus important caractéristiques sensibilité du clavier son touches à appuyer, douceur....). Questions sur le cours « Opérateur ORDINATEUR" Architecture ordinateur; Basique principes de construction ordinateur; Schéma d'un ordinateur construit...

  • Basique caractéristiques ordinateur différentes générations

    Résumé >> Informatique

    Télécommunications et services d'information Tableau - Basique caractéristiques ordinateur différentes générations Génération 1 2 ... modes de fonctionnement ordinateur, planification son des ressources qui ont créé... des opportunités. La logique est devenue plus compliquée architecture ordinateur et leur périphérique...

  • Classification, structure et basique caractéristiques Microprocesseurs PC (2)

    Tâche >> Informatique

    Classification, structure et basique caractéristiques Microprocesseurs PC" ………….3 Atelier... en fonction des résultats son traitement. CPU... ordinateur En cours d'exécution basique cycle... communication, 2005 Smirnov A.D. Architecture systèmes informatiques. – M. : « Sciences »,…

  • La structure d'un ordinateur est l'ensemble de ses éléments fonctionnels et des connexions entre eux. La structure d'un ordinateur est représentée graphiquement sous forme de schémas fonctionnels, à l'aide desquels vous pouvez décrire l'ordinateur à n'importe quel niveau de détail.

    L'architecture d'un ordinateur est sa représentation à un certain niveau général, comprenant une description des capacités de programmation utilisateur, des systèmes de commande, des systèmes d'adressage, de l'organisation de la mémoire, etc. L'architecture détermine les principes de fonctionnement, les connexions d'informations et l'interconnexion des principaux nœuds logiques de l'ordinateur : processeur, mémoire vive (RAM) RAM, OP), stockage externe et périphériques.

    La place la plus importante dans la structuration des systèmes est occupée par les moyens d'interface, appelés interfaces. Une interface est un ensemble de commutateurs, de lignes, de signaux, de circuits électroniques et d'algorithmes (protocoles) conçus pour échanger des informations entre appareils.

    Structures et architectures informatiques Principes de Von Neumann

    L'architecture de la plupart des ordinateurs est basée sur les principes généraux suivants, formulés en 1945 par le scientifique américain J. von Neumann dans un rapport sur l'ordinateur EDVAC.

    Principe de contrôle du programme ; principe d'homogénéité de la mémoire ; principe de ciblage. Plus de 60 ans plus tard, la plupart des ordinateurs ont toujours une « architecture von Neumann », mettant généralement en œuvre les principes de von Neumann sous la forme suivante :

    • La mémoire vive (RAM ou RAM - mémoire vive) est organisée comme un ensemble de mots machine (MS) d'une longueur ou d'une capacité en bits fixe (c'est-à-dire le nombre d'unités binaires ou de bits contenus dans chaque MS). Par exemple, les premiers PC étaient en 8 bits, puis en 16 bits, puis en 32 et 64 bits. À une certaine époque, il y avait même des machines 45 bits (M-20, M-220), 35 bits (Minsk-22, Minsk-32) et autres ;
    • L'OP forme un espace d'adressage unique, les adresses MS augmentent de bas en haut ;
    • l'OP contient à la fois des données et des programmes, et dans la zone de données, un mot correspond généralement à un nombre, et dans la zone de programme - une commande (l'instruction machine est l'élément minimum et indivisible du programme);
    • les commandes sont exécutées dans séquence naturelle(par ordre croissant des adresses dans OP) jusqu'à ce qu'il rencontre équipe de direction(transition conditionnelle/inconditionnelle, ou branche), à ​​la suite de laquelle la séquence naturelle est rompue ;
    • Le CPU peut accéder arbitrairement à n'importe quelle adresse de l'OP pour récupérer et/ou écrire des numéros ou des instructions sur le MS.

    Blocs fonctionnels (unités, appareils)

    Une courte liste des principaux appareils inclus dans les ordinateurs est présentée dans la Fig. 2.1.

    Unité centrale (UC) représente le composant principal de l'ordinateur et comprend à son tour le CPU - unité centrale de traitement (CPU) et la RAM (stockage principal, stockage principal, mémoire vive - RAM).

    Le processeur met directement en œuvre les opérations de traitement de l'information et de contrôle du processus informatique, en récupérant les instructions machine et les données de la mémoire opérationnelle.

    2.1. Structures et architectures informatiques

    Riz. 2.1. Liste des appareils informatiques

    * Ces appareils ne sont pas pris en compte ici. Le lecteur pourra se référer par exemple à.

    mémoire, leur exécution et l'enregistrement des résultats dans l'OP, l'allumage et l'extinction de l'ordinateur. Prenons comme exemple le processeur Intel Pentium (Fig. 2.2). Il est composé des blocs suivants :

    Cœur. Le dispositif exécutif principal, qui comprend une unité arithmétique-logique (ALU, ou Unité Arithmétique et Logique - ALU), des registres, des pipelines. ALU - la partie du processeur qui effectue des opérations arithmétiques et logiques sur les données, fonctionne conformément aux codes d'opération qui lui sont communiqués, qui doivent être effectués sur des variables placées dans des registres. Des performances accrues ont été obtenues grâce à deux pipelines, permettant d'exécuter plusieurs instructions simultanément. Il s'agit de deux pipelines de traitement d'entiers parallèles en 5 étapes qui vous permettent de lire, d'interpréter et d'exécuter deux commandes simultanément. Les instructions entières peuvent être exécutées en un seul cycle d'horloge. Ces pipelines ne sont pas les mêmes : le U-pipe exécute n'importe quelle instruction sur le jeu d'instructions de la famille 86 ; Le V-pipeline exécute uniquement des commandes « simples », c'est-à-dire des commandes entièrement intégrées aux circuits MP et qui ne nécessitent pas de contrôle par microcode lors de leur exécution (ce sont des commandes qui


    Riz. 2.2.

    permettant l'appariement avec d'autres instructions : registre-registre, mémoire-registre, registre-mémoire, transitions, appels, opérations arithmétiques-logiques) ;

    • prédicteur de branchement - un bloc qui « essaie de deviner » la direction du branchement du programme et charge les informations à l'avance dans les blocs de prélecture et de décodage des commandes ;
    • tampon d'adresse de branche (Branch Target Buffer - BT B). Fournit une prédiction de branche dynamique. Il améliore l'exécution des instructions en mémorisant les branches terminées (les 256 dernières branches) et en exécutant de manière proactive la branche la plus probable lorsqu'une instruction de branchement est récupérée. Les méthodes de prédiction statique déterminent si certains types de transitions doivent toujours être effectués ou non. Les méthodes dynamiques examinent le comportement des commandes de transition au cours de la période précédente ;
    • unité à virgule flottante. Effectue un traitement en virgule flottante ;
    • Cache niveau 1. Le processeur dispose de deux banques de mémoire de 8 Ko, une pour les instructions, la seconde pour les données, qui sont plus rapides que la mémoire cache externe plus volumineuse (cache L2).
    • Interface de bus. Envoie un flux de commandes et de données au CPU et transfère les données depuis le CPU.

    Périphériques externes (périphériques) (VU). Les dispositifs de contrôle permettent une interaction avec l'environnement - utilisateurs, objets de contrôle et autres machines.

    Interfaces servent à interfacer les composants centraux de la machine avec ses dispositifs externes.

    Le même type d'unité centrale de traitement et de dispositifs de stockage de données peut être utilisé dans différents types de machines. Il existe des exemples de la façon dont des entreprises qui ont commencé leurs activités par la production de machines de contrôle, améliorant leurs produits, sont passées à la production de systèmes qui, selon la configuration de l'unité de contrôle, peuvent jouer à la fois le rôle de machines universelles et de machines de contrôle ( Machines Hewlett-Packard - HP et Digital Equipment Corporation - DEC).

    Architectures informatiques

    Architecture étoilée. Ici le processeur (CU) - fig. 2.3, UN - connecté directement à l'ordinateur et contrôle leur fonctionnement (premiers modèles de machines). Ce type est également appelé architecture classique (von Neumann) - une unité arithmétique-logique (ALU) à travers laquelle passe le flux de données, et un dispositif de contrôle (CU) à travers lequel passe la commande - le programme. Il s'agit d'un ordinateur monoprocesseur.

    Architecture de Princeton et Harvard. L'architecture de Von Neumann est souvent identifiée à l'architecture de Princeton, caractérisée par l'utilisation de RAM partagée pour stocker des programmes et des données. L'architecture Harvard se caractérise par la séparation physique de la mémoire d'instructions (programmes) et de la mémoire de données. Les éléments de l'architecture Harvard sont souvent utilisés dans les processeurs modernes, où le cache du processeur alloue la mémoire d'instructions (I-cache) et la mémoire de données (D-cache).

    Architecture hiérarchique(Fig. 2.3, b) - Le centre de contrôle est connecté à des processeurs périphériques (processeurs auxiliaires, canaux, processeurs de canal), qui contrôlent à leur tour les contrôleurs auxquels les groupes d'ordinateurs sont connectés (systèmes IBM 360-375, ordinateurs ES) ;

    Structure de base(bus commun - unibas, Fig. 2.3, V) - Le(s) processeur(s) et les unités de mémoire (RAM) interagissent entre eux et avec l'ordinateur (contrôleurs de l'ordinateur) via un canal interne commun à tous les appareils (machines DEC, PC compatibles IBM PC).

    Techniquement, un bus est un ensemble de conducteurs (lignes) reliant divers composants informatiques pour les alimenter et échanger des données. Dans la configuration minimale, le bus dispose de trois types de lignes :

    gestion; adresses ; données.

    Ce type d'architecture inclut également l'architecture d'ordinateur personnel (PC). Bien entendu, la structure réelle du PC (Fig. 2.3, G) diffère des schémas théoriques - ici plusieurs types d'interfaces de bus sont utilisés, qui sont interconnectés par des ponts - des contrôleurs de mémoire (Northbridge, « North Bridge ») et des périphériques (Southbridge, « South Bridge »).


    Riz. 2.3. Principales classes d'architectures informatiques : UN- centralisé ; b- hiérarchique ; V- ligne principale ; G - structure générale d'un ordinateur personnel - Architecture Northbridge/Southbridge

    Voici un exemple de chipset Triton 430 TX :

    • Northbridge - Puce de contrôleur système 82439TX, MTHS. Intègre le contrôle de la mémoire cache, du bus OP et PCI ;
    • Southbridge - 82371AB PCI ISA IDE Xcelerator, PIIX4 est un périphérique multifonction qui implémente la communication PCI-ISA, les fonctions de hub USB et les fonctions de gestion améliorée de l'alimentation. Il implémente Dynamic Power Management Architecture (DPMA) - une architecture de gestion dynamique de l'énergie. Le Direct Memory Access Protocol (Ultra DMA) est également pris en charge, ce qui offre une vitesse de transfert de 33 Mo/s depuis le disque dur.

    Les systèmes modernes comprennent deux types de pneus :

    • bus système, connecter le processeur à l'OP et au cache de niveau 2 ;
    • un tas de bus d'entrée-sortie, connecter le processeur à divers périphériques.

    Le bus système avec architecture DIB (Dual Independent Bus) est physiquement divisé en deux (Fig. 2.3, G):

    • bus primaire (FSB, frontside bus), reliant le processeur à l'OP et l'OP aux périphériques ;
    • bus secondaire (BSB, backside bus) pour la communication avec la mémoire cache.

    L'utilisation de deux bus indépendants améliore les performances en permettant au processeur d'accéder à différents niveaux de mémoire en parallèle. Généralement, les termes « FSB » et « bus système » sont utilisés de manière interchangeable.

    Il convient de garder à l’esprit que la terminologie actuellement utilisée pour décrire les interfaces n’est pas totalement claire et sans ambiguïté. Le bus système est souvent appelé « bus maître », « bus hôte », « bus processeur » ou « bus local ». Pour les bus d'E/S, les termes « bus d'extension », « bus externe » et encore « bus local » sont utilisés.

    Architecture ouverte d'IBM-PC et son développement

    Implémenté pour la première fois sur les machines IBM PC, IBM PC/XT et PC/AT, le concept d'architecture ouverte suppose que les périphériques communiquent avec le CPU (processeur).

    et OP) via des cartes d'extension remplaçables (ou des adaptateurs) contenant l'électronique, le centre de contrôle et les périphériques correspondants - Fig. 2.4. Le développement ou le remplacement de certains appareils externes par d'autres dans de telles conditions s'accompagne d'un simple remplacement de la carte.


    Riz. 2.4. Architecture ouverte IBM PC :

    1 - carte mère (processeur, mémoire, chipset) ; 2 - interface interne (ISA, MCA, SCSI, LPC, AGP, HyperTransport, PCI, PCI-X, etc.) ; 3 - carte d'extension (adaptateur, carte d'interface, contrôleur de périphérique externe) ; 4 - interface de périphérique externe (RS-232, Centronics, USB, Firewire, infrarouge, eSATA, Bluetooth, etc.) ; 5 - périphérique (clavier, moniteur, imprimante, scanner, etc.)

    Cartes mères et leurs variétés. La carte système est également appelée carte mère ou carte mère, parfois fond de panier. Il s'agit du schéma de câblage principal à l'intérieur du PC qui abrite le processeur, la mémoire, les connecteurs d'extension et se connecte directement ou indirectement à chaque partie du PC.

    Les images ci-dessous illustrent les composants de deux cartes typiques :

    • Baby AT (BAT), qui utilise un connecteur Socket 7 pour connecter un processeur, vers 1995 (Fig. 2.5, 2.7, UN);
    • ATX avec connecteur Slot 1 pour connecter un processeur Pentium I, typique des cartes mères, commercialisé depuis fin 1998 (Fig. 2.6, 2.7, b).

    L'architecture ouverte des premiers PC impliquait un minimum de périphériques dont les contrôleurs étaient intégrés à la carte mère (par exemple, un port clavier). Tous les autres, y compris la carte graphique, l'adaptateur d'imprimante, l'adaptateur modem, le disque dur ou le contrôleur de disque dur, étaient des composants supplémentaires connectés via des connecteurs d'extension.

    À la fin des années 1990. Il y a eu une tendance à placer les adaptateurs de périphériques directement sur le système.




    Riz. 2.7. Connecteurs et interfaces situés sur le panneau arrière des boîtiers : UN- Carte Baby AT (illustration schématique), b- ATX (idem); V- vue générale de certains types d'interfaces externes : 1 - connecteur pour connecter le cordon d'alimentation du moniteur (peut être absent sur les boîtiers ATX) ; 2 - connecteur pour connecter un ordinateur à un réseau AC ; 3 - connecteur pour connecter un clavier PS/2 (mini-DIN, 6 broches) ; 4 - connecteur pour connecter un clavier DIN-5 ; 5 - Connecteur de souris PS/2 ; 6 - Ports USB ; 7 - port série (COM2) ; 8 - port série (COM1) ; 9 - port parallèle (LPT); 10 - sortie vidéo (VGA/SVGA) ; 11 - connecteur pour connecter un réseau local (selon le modèle de l'ordinateur) ; 12 - Port MIDI/Jeu (selon le modèle d'ordinateur) ; 13 - prises pour connecter des systèmes audio externes (selon le modèle d'ordinateur)

    Après un certain temps, un nombre important de périphériques ont été intégrés, mais beaucoup d'entre eux - graphiques, interfaces réseau, périphériques SCSI et audio - restaient encore amovibles. Ce processus était lent, par exemple, les ports d'E/S et les contrôleurs de disque étaient souvent situés sur des cartes d'extension en 1995. Les fabricants ont continuellement expérimenté différents niveaux d'intégration, en intégrant tout ou partie de ces composants sur la carte mère. Cependant, il existe un obstacle évident : il est plus difficile de mettre à niveau l'ensemble car les composants intégrés ne peuvent pas être retirés. Les cartes mères hautement intégrées nécessitent souvent un châssis personnalisé, et le remplacement d'un seul composant défectueux peut nécessiter la mise au rebut de la carte mère.

    Par conséquent, les parties du système dont les spécifications changent le plus rapidement (RAM, CPU et graphiques) sont mieux placées dans des emplacements pour un remplacement facile. De même, les composants qui ne sont pas utilisés par tous les utilisateurs, tels que les interfaces réseau ou SCSI, sont généralement supprimés de la spécification principale (pour réduire les coûts).