Cache du disque dur. Qu’est-ce que la mémoire cache du disque dur ? Vitesse du disque dur et cache

Le cache du disque dur est un stockage temporaire de données.
Si vous disposez d'un disque dur moderne, le cache n'est plus aussi important qu'avant.
Vous trouverez plus de détails sur le rôle que joue le cache dans les disques durs et sur la taille du cache pour un fonctionnement rapide de l'ordinateur.

A quoi sert le cache ?

Le cache du disque dur vous permet de stocker les données fréquemment utilisées dans un emplacement spécialement désigné. En conséquence, la taille du cache détermine la capacité des données stockées. Grâce à un cache volumineux, les performances du disque dur peuvent augmenter considérablement, car les données fréquemment utilisées peuvent être chargées dans le cache du disque dur, ce qui ne nécessitera pas de lecture physique sur demande.
La lecture physique est un accès direct aux secteurs du disque dur. Cela prend un temps assez important, mesuré en millisecondes. Dans le même temps, le cache du disque dur transfère les informations sur demande environ 100 fois plus rapidement que si les informations étaient demandées en accédant physiquement au disque dur. Ainsi, le cache du disque dur permet au disque dur de fonctionner même si le bus hôte est occupé.

Outre l'importance du cache, il ne faut pas oublier d'autres caractéristiques du disque dur, et parfois la taille du cache peut être négligée. Si vous comparez deux disques durs de même taille avec des tailles de cache différentes, par exemple 8 et 16 Mo, vous ne devriez opter pour un cache plus grand que si la différence de prix est d'environ 7 à 12 dollars. Sinon, cela n'a aucun sens de payer trop cher pour un volume de cache plus important.

Cela vaut la peine de regarder le cache si vous achetez un ordinateur de jeu et qu'il n'y a pas de petites choses pour vous, auquel cas vous devez également regarder les révolutions.

Résumant tout ce qui précède

Les avantages du cache sont que le traitement des données ne prend pas beaucoup de temps, alors que lors de l'accès physique à un certain secteur, le temps doit s'écouler jusqu'à ce que la tête de disque trouve l'information souhaitée et commence à lire. De plus, les disques durs dotés de caches de grande taille peuvent soulager considérablement le processeur de l'ordinateur, car aucun accès physique n'est requis pour demander des informations au cache. En conséquence, le travail du processeur ici est minime.

Le cache du disque dur peut être qualifié de véritable accélérateur, car sa fonction de mise en mémoire tampon permet réellement au disque dur de fonctionner beaucoup plus rapidement et plus efficacement. Cependant, dans le contexte du développement rapide des hautes technologies, l'ancienne valeur du cache du disque dur n'est pas très importante puisque la plupart des modèles modernes utilisent un cache de 8 ou 16 Mo, ce qui est largement suffisant pour un fonctionnement optimal du disque dur.

Il existe aujourd'hui des disques durs dotés d'une capacité de cache encore plus grande, de 32 Mo, mais comme nous l'avons dit, cela ne vaut la peine de payer un supplément pour la différence que si la différence de prix correspond à la différence de performances.

Si vous souhaitez savoir ce qu'est le cache du disque dur et comment il fonctionne, cet article est fait pour vous. Vous apprendrez de quoi il s'agit, quelles fonctions il remplit et comment il affecte le fonctionnement de l'appareil, ainsi que les avantages et les inconvénients du cache.

Comprendre le cache du disque dur

Le disque dur lui-même est un appareil plutôt tranquille. Comparé à la RAM, un disque dur est plusieurs fois plus lent. Cela entraîne également une baisse des performances de l'ordinateur en cas de manque de RAM, puisque le manque est compensé par le disque dur.

Le cache du disque dur est donc une sorte de RAM. Il est intégré au disque dur et sert de tampon pour la lecture des informations et leur transfert ultérieur vers le système, et contient également les données les plus fréquemment utilisées.

Voyons pourquoi le cache du disque dur est nécessaire.

Comme indiqué ci-dessus, la lecture des informations sur le disque dur est très lente, car bouger la tête et trouver le secteur requis prend beaucoup de temps.

Il est nécessaire de préciser que par « lentement », nous entendons des millisecondes. Et pour les technologies modernes, une milliseconde, c'est très long.

Par conséquent, tout comme le cache du disque dur, il stocke les données physiquement lues sur la surface du disque, et lit et stocke également les secteurs susceptibles d'être demandés ultérieurement.

Cela réduit le nombre d'accès physiques au disque tout en augmentant les performances. Le disque dur peut fonctionner même si le bus hôte n'est pas libre. La vitesse de transfert peut augmenter des centaines de fois pour des demandes similaires.

Comment fonctionne le cache du disque dur ?

Regardons cela plus en détail. Vous avez déjà une idée générale de ce à quoi est destiné le cache du disque dur. Voyons maintenant comment cela fonctionne.

Imaginons que le disque dur reçoive une demande de lecture de 512 Ko d'informations à partir d'un bloc. Les informations nécessaires sont extraites du disque et transférées vers le cache, mais avec les données demandées, plusieurs blocs voisins sont également lus. C'est ce qu'on appelle la prélecture. Lorsqu'une nouvelle demande de disque arrive, le microcontrôleur du lecteur vérifie d'abord la présence de cette information dans le cache et s'il la trouve, il la transmet instantanément au système sans accéder à la surface physique.

La mémoire cache étant limitée, les blocs d’informations les plus anciens sont remplacés par de nouveaux. Il s'agit d'un cache circulaire ou d'un tampon circulaire.

Méthodes pour augmenter la vitesse du disque dur à l'aide de la mémoire tampon

  • Segmentation adaptative. La mémoire cache est constituée de segments avec des quantités égales de mémoire. Étant donné que la taille des informations demandées ne peut pas toujours être la même, de nombreux segments de cache seront utilisés de manière irrationnelle. Par conséquent, les fabricants ont commencé à créer une mémoire cache avec la possibilité de modifier la taille des segments et leur nombre.
  • Prélecture. Le processeur du disque dur analyse les données précédemment demandées et actuellement demandées. Sur la base de l'analyse, il transfère des informations de la surface physique qui sont plus susceptibles d'être demandées à un moment ultérieur.
  • Contrôle utilisateur. Des modèles de disques durs plus avancés permettent à l'utilisateur de contrôler les opérations effectuées dans le cache. Par exemple : désactiver le cache, définir la taille des segments, activer la fonctionnalité de segmentation adaptative ou désactiver la prélecture.

Ce qui donne à l'appareil plus de mémoire cache

Nous allons maintenant découvrir de quelles capacités sont équipées et ce que propose la mémoire cache du disque dur.

Le plus souvent, vous pouvez trouver des disques durs avec une taille de cache de 32 et 64 Mo. Mais il restait aussi 8 et 16 Mo. Récemment, ils ont commencé à produire seulement 32 et 64 Mo. Une avancée significative en termes de performances s'est produite lorsque 16 Mo ont commencé à être utilisés au lieu de 8 Mo. Et entre les caches de 16 et 32 ​​Mo, il n'y a plus de différence significative, ainsi qu'entre 32 et 64.

L'utilisateur moyen d'un ordinateur ne remarquera pas de différence dans les performances des disques durs dotés d'un cache de 32 et 64 Mo. Mais il convient de noter que la mémoire cache subit périodiquement des charges importantes, il est donc préférable d'acheter un disque dur avec une capacité de cache plus élevée si vous en avez la possibilité financière.

Principaux avantages de la mémoire cache

La mémoire cache présente de nombreux avantages. Nous ne considérerons que les principaux :


Inconvénients de la mémoire cache

  1. La vitesse du disque dur n'augmente pas si les données sont écrites de manière aléatoire sur les disques. Cela rend impossible la prélecture des informations. Ce problème peut être partiellement évité si vous le défragmentez périodiquement.
  2. Le tampon est inutile lors de la lecture de fichiers plus volumineux que ne peut contenir la mémoire cache. Ainsi, lors de l'accès à un fichier de 100 Mo, un cache de 64 Mo sera inutile.

Informations Complémentaires

Vous connaissez maintenant le disque dur et ce qu'il affecte. Que devez-vous savoir d’autre ? Actuellement, il existe un nouveau type de disque : le SSD (solid state). Au lieu de plateaux de disque, ils utilisent une mémoire synchrone, comme des lecteurs flash. De tels disques sont des dizaines de fois plus rapides que les disques durs conventionnels, il est donc inutile d'avoir un cache. Mais de tels lecteurs ont aussi leurs inconvénients. Premièrement, le prix de ces appareils augmente proportionnellement au volume. Deuxièmement, ils disposent d’un temps de cycle limité pour réécrire les cellules mémoire.

Il existe également des disques hybrides : un disque SSD avec un disque dur classique. L'avantage réside dans le rapport entre une vitesse de fonctionnement élevée et un grand volume d'informations stockées avec un coût relativement faible.

Le disque dur (disque dur, HDD) est l’une des parties très importantes de l’ordinateur. Après tout, si le processeur, la carte vidéo, etc. tombe en panne. Vous regrettez seulement d'avoir perdu de l'argent pour un nouvel achat ; si votre disque dur tombe en panne, vous risquez de perdre des données irrémédiablement importantes. La vitesse de l'ordinateur dans son ensemble dépend également du disque dur. Voyons comment choisir le bon disque dur.

Tâches du disque dur

Le travail d'un disque dur à l'intérieur d'un ordinateur est de stocker et de récupérer des informations très rapidement. Le disque dur est une invention étonnante de l’industrie informatique. Utilisant les lois de la physique, ce petit appareil stocke une quantité d’informations quasi illimitée.

Type de disque dur

IDE - des disques durs obsolètes sont utilisés pour se connecter aux anciennes cartes mères.

SATA - a remplacé les disques durs IDE et a une vitesse de transfert de données plus élevée.

Les interfaces SATA existent en différents modèles ; elles diffèrent également par la vitesse d'échange de données et la prise en charge de différentes technologies :

  • SATA a une vitesse de transfert allant jusqu'à 150 Mb/s.
  • SATA II - a une vitesse de transfert allant jusqu'à 300 Mb/s
  • SATA III - a une vitesse de transfert allant jusqu'à 600 Mb/s

La production du SATA-3 a commencé il n'y a pas si longtemps, début 2010. Lors de l'achat d'un tel disque dur, vous devez faire attention à l'année de fabrication de votre ordinateur (sans mise à niveau) ; si elle est inférieure à cette date, alors ce disque dur ne vous conviendra pas ! HDD - SATA, SATA 2 ont les mêmes connecteurs de connexion et sont compatibles entre eux.

Capacité du disque dur

Les disques durs les plus couramment utilisés par la plupart des utilisateurs à la maison ont une capacité de 250, 320 ou 500 gigaoctets. Il y en a encore moins, mais les 120, 80 gigaoctets deviennent de plus en plus rares et ne sont plus du tout en vente. Pour pouvoir stocker de très grandes quantités d’informations, il existe des disques durs de 1, 2 et 4 téraoctets.

Vitesse du disque dur et cache

Lors du choix d'un disque dur, il est important de faire attention à sa vitesse de fonctionnement (vitesse de broche). La vitesse de l'ensemble de l'ordinateur en dépendra. Les vitesses de disque courantes sont de 5 400 et 7 200 tr/min.

La quantité de mémoire tampon (mémoire cache) est la mémoire physique du disque dur. Il existe plusieurs tailles d'une telle mémoire : 8, 16, 32, 64 mégaoctets. Plus la vitesse de la RAM du disque dur est élevée, plus la vitesse de transfert des données sera rapide.

En garde à vue

Avant d'acheter, vérifiez quel disque dur convient à votre carte mère : IDE, SATA ou SATA 3. Nous examinons les caractéristiques de la vitesse de rotation du disque et la quantité de mémoire tampon, ce sont les principaux indicateurs auxquels vous devez prêter attention. Nous regardons également le fabricant et le volume qui vous convient.

Nous vous souhaitons un bon shopping !

Partagez votre choix dans les commentaires, cela aidera les autres utilisateurs à faire le bon choix !



xn----8sbabec6fbqes7h.xn--p1ai

Administration système et bien plus encore

L'utilisation d'un cache augmente les performances de n'importe quel disque dur, réduisant le nombre d'accès physiques au disque et permet également au disque dur de fonctionner même lorsque le bus hôte est occupé. La plupart des disques modernes ont une taille de cache comprise entre 8 et 64 Mo. C'est encore plus que la capacité du disque dur d'un ordinateur moyen des années 90 du siècle dernier.

Malgré le fait que le cache augmente la vitesse du lecteur dans le système, il présente également des inconvénients. Pour commencer, le cache n'accélère pas du tout le lecteur lors de requêtes aléatoires d'informations situées à différentes extrémités du plateau, car avec de telles requêtes, la prélecture ne sert à rien. De plus, le cache n'aide pas du tout lors de la lecture de grandes quantités de données, car il est généralement assez petit, par exemple, lors de la copie d'un fichier de 80 mégaoctets, avec le tampon habituel de 16 mégaoctets à notre époque, seul un peu moins de 20 % du fichier copié entrera dans le cache.

Malgré le fait que le cache augmente la vitesse du lecteur dans le système, il présente également des inconvénients. Pour commencer, le cache n'accélère pas du tout le lecteur lors de requêtes aléatoires d'informations situées à différentes extrémités du plateau, car avec de telles requêtes, la prélecture ne sert à rien. De plus, cela n'aide pas du tout lors de la lecture de grandes quantités de données, car... il est généralement assez petit. Par exemple, lors de la copie d'un fichier de 80 Mo, avec un tampon de 16 Mo comme c'est courant aujourd'hui, seulement un peu moins de 20 % du fichier copié tiendra dans le cache.

Ces dernières années, les fabricants de disques durs ont considérablement augmenté la capacité de cache de leurs produits. Même à la fin des années 90, 256 kilo-octets étaient la norme pour tous les disques et seuls les appareils haut de gamme disposaient d'un cache de 512 kilo-octets. Actuellement, un cache de 8 Mo est devenu la norme de facto pour tous les disques, tandis que les modèles les plus productifs ont des capacités de 32 voire 64 Mo. Il y a deux raisons pour lesquelles la mémoire tampon du lecteur a augmenté si rapidement. L’un d’eux est la forte baisse des prix des puces de mémoire synchrone. La deuxième raison est la conviction des utilisateurs que doubler, voire quadrupler la taille du cache affectera grandement la vitesse du lecteur.

La taille du cache du disque dur affecte bien sûr la vitesse du disque dans le système d'exploitation, mais pas autant que les utilisateurs l'imaginent. Les fabricants profitent de la confiance de l'utilisateur dans la taille du cache et, dans les brochures publicitaires, ils déclarent haut et fort que la taille du cache est quadruple par rapport au modèle standard. Cependant, en comparant le même disque dur avec des tailles de tampon de 16 et 64 mégaoctets, il s'avère que l'accélération est de plusieurs pour cent. A quoi cela conduit-il ? De plus, seule une très grande différence dans les tailles de cache (par exemple, entre 512 kilo-octets et 64 mégaoctets) affectera de manière significative la vitesse du lecteur. Vous devez également vous rappeler que la taille du tampon du disque dur par rapport à la mémoire de l'ordinateur est assez petite et que souvent le cache « logiciel » apporte une plus grande contribution au fonctionnement du disque, c'est-à-dire un tampon intermédiaire organisé par le système d'exploitation pour la mise en cache des opérations avec le système de fichiers et situé dans la mémoire de l'ordinateur.

Heureusement, il existe un moyen plus rapide pour le cache de fonctionner : l'ordinateur écrit des données sur le lecteur, celles-ci entrent dans le cache et le lecteur répond immédiatement au système que l'écriture est terminée ; l'ordinateur continue de fonctionner, croyant que le lecteur était capable d'écrire des données très rapidement, tandis que le lecteur a "trompé" l'ordinateur et n'a écrit que les données nécessaires dans le cache, puis a ensuite commencé à les écrire sur le disque. Cette technologie est appelée mise en cache de réécriture.

En raison de ce risque, certains postes de travail ne mettent pas du tout de cache. Les lecteurs modernes vous permettent de désactiver le mode de mise en cache en écriture. Ceci est particulièrement important dans les applications où la précision des données est très critique. Parce que Ce type de mise en cache augmente considérablement la vitesse du disque ; cependant, ils ont généralement recours à d'autres méthodes qui réduisent le risque de perte de données due à une panne de courant. La méthode la plus courante consiste à connecter l'ordinateur à une alimentation sans coupure. De plus, tous les disques modernes ont une fonction « flush write cache », qui oblige le disque à écrire les données du cache vers la surface, mais le système doit exécuter cette commande aveuglément, car il ne sait toujours pas s'il y a des données dans le cache ou non. Chaque fois que l'alimentation est coupée, les systèmes d'exploitation modernes envoient cette commande au disque dur, puis une commande est envoyée pour garer les têtes (bien que cette commande ne puisse pas être envoyée, car chaque disque moderne gare automatiquement les têtes lorsque la tension descend en dessous de le niveau maximum autorisé ) et seulement après cela, l'ordinateur s'éteint. Cela garantit la sécurité des données utilisateur et un arrêt correct du disque dur.

sysadminstvo.ru

Cache du disque dur

05.09.2005

Tous les disques modernes disposent d'un cache intégré, également appelé tampon. Le but de ce cache est différent de celui du processeur. La fonction du cache est de créer un tampon entre les appareils rapides et lents. Dans le cas des disques durs, le cache est utilisé pour stocker temporairement les résultats de la dernière lecture sur le disque, ainsi que pour pré-extraire les informations qui peuvent être demandées un peu plus tard, par exemple plusieurs secteurs après le secteur actuellement demandé.

L'utilisation d'un cache augmente les performances de n'importe quel disque dur, réduisant le nombre d'accès physiques au disque et permet également au disque dur de fonctionner même lorsque le bus hôte est occupé. La plupart des disques modernes ont une taille de cache de 2 à 8 Mo. Cependant, les disques SCSI les plus avancés ont une capacité de cache de 16 Mo, ce qui est encore plus que la moyenne des ordinateurs des années 90 du siècle dernier.

Il convient de noter que lorsque quelqu'un parle de cache disque, il ne s'agit le plus souvent pas exactement du cache du disque dur, mais d'un certain tampon alloué par le système d'exploitation pour accélérer les procédures de lecture-écriture dans ce système d'exploitation particulier.

La raison pour laquelle le cache du disque dur est si important est la grande différence entre la vitesse du disque dur lui-même et la vitesse de l'interface du disque dur. Lors de la recherche du secteur dont nous avons besoin, des millisecondes entières s'écoulent, car On passe du temps à bouger la tête et à attendre le secteur souhaité. Dans les ordinateurs personnels modernes, même une milliseconde, c'est beaucoup. Sur un disque IDE/ATA typique, le temps nécessaire pour transférer un bloc de données de 16 kilo-octets du cache vers l'ordinateur est environ des centaines de fois plus rapide que le temps nécessaire pour le trouver et le lire depuis la surface. C'est pourquoi tous les disques durs disposent d'un cache interne.

Une autre situation consiste à écrire des données sur le disque. Supposons que nous devions écrire le même bloc de données de 16 kilo-octets, disposant d'un cache. Le disque dur transfère instantanément ce bloc de données vers le cache interne et signale au système qu'il est à nouveau libre pour les requêtes, tout en écrivant simultanément des données sur la surface des disques magnétiques. Dans le cas d'une lecture séquentielle de secteurs depuis la surface, le cache ne joue plus un grand rôle, car Dans ce cas, les vitesses de lecture séquentielle et les vitesses d'interface sont approximativement les mêmes.

Concepts généraux du fonctionnement du cache de disque dur

Le principe le plus simple du fonctionnement du cache est de stocker les données non seulement du secteur demandé, mais également de plusieurs secteurs qui le suivent. En règle générale, la lecture à partir d'un disque dur ne s'effectue pas par blocs de 512 octets, mais par blocs de 4 096 octets (un cluster, bien que la taille du cluster puisse varier). Le cache est divisé en segments, chacun pouvant stocker un bloc de données. Lorsqu'une requête sur un disque dur se produit, le contrôleur de disque vérifie d'abord si les données demandées se trouvent dans le cache et, si c'est le cas, il les transmet instantanément à l'ordinateur sans accéder physiquement à la surface. S'il n'y avait aucune donnée dans le cache, elles sont d'abord lues et entrées dans le cache, puis transférées vers l'ordinateur. Parce que La taille du cache est limitée ; les éléments du cache sont constamment mis à jour. Généralement, la pièce la plus ancienne est remplacée par une nouvelle. C'est ce qu'on appelle un tampon circulaire, ou cache circulaire.

Pour augmenter les performances du disque, les fabricants ont mis au point plusieurs méthodes pour augmenter la vitesse de fonctionnement à l'aide du cache :

  1. Segmentation adaptative. Généralement, le cache est divisé en segments de taille égale. Étant donné que les requêtes peuvent avoir des tailles différentes, cela entraîne une consommation inutile de blocs de cache, car une demande sera divisée en segments d'une longueur fixe. De nombreux lecteurs modernes modifient dynamiquement la taille du segment en détectant la taille de la demande et en ajustant la taille du segment à la demande spécifique, augmentant ainsi l'efficacité et augmentant ou diminuant la taille du segment. Le nombre de segments peut également changer. Cette tâche est plus complexe que les opérations avec des segments de longueur fixe et peut conduire à une fragmentation des données dans le cache, augmentant ainsi la charge sur le microprocesseur du disque dur.
  2. Prééchantillonnage. Le microprocesseur du disque dur, sur la base d'une analyse des données actuellement demandées et des requêtes précédentes, charge dans le cache les données qui n'ont pas encore été demandées, mais qui ont un pourcentage élevé de probabilité qu'elles le soient. Le cas le plus simple de prélecture consiste à charger des données supplémentaires dans le cache qui se trouvent un peu plus loin que les données actuellement demandées, car statistiquement, ils sont plus susceptibles d'être demandés plus tard. Si l'algorithme de prélecture est correctement implémenté dans le micrologiciel du lecteur, cela augmentera la vitesse de son fonctionnement dans divers systèmes de fichiers et avec différents types de données.
  3. Contrôle utilisateur. Les disques durs de haute technologie disposent d'un ensemble de commandes qui permettent à l'utilisateur de contrôler avec précision toutes les opérations de cache. Ces commandes incluent les éléments suivants : activer et désactiver le cache, contrôler la taille des segments, activer et désactiver la segmentation adaptative et la prélecture, etc.

Malgré le fait que le cache augmente la vitesse du lecteur dans le système, il présente également des inconvénients. Pour commencer, le cache n'accélère pas du tout le lecteur lors de requêtes aléatoires d'informations situées à différentes extrémités du plateau, car avec de telles requêtes, la prélecture ne sert à rien. De plus, le cache n'aide pas du tout lors de la lecture de grandes quantités de données, car il est généralement assez petit, par exemple, lors de la copie d'un fichier de 10 mégaoctets, avec le tampon habituel de 2 mégaoctets à notre époque, seul un peu moins de 20 % du fichier copié entrera dans le cache.

En raison de ces fonctionnalités et d'autres fonctionnalités du cache, il n'accélère pas le lecteur autant que nous le souhaiterions. Le gain de vitesse qu'il offre dépend non seulement de la taille du tampon, mais également de l'algorithme de travail avec le cache du microprocesseur, ainsi que du type de fichiers avec lesquels vous travaillez actuellement. Et, en règle générale, il est très difficile de savoir quels algorithmes de cache sont utilisés dans un lecteur spécifique donné.

La figure montre la puce de cache du disque Seagate Barracuda ; elle a une capacité de 4 mégabits ou 512 kilo-octets.

Mise en cache des opérations de lecture-écriture

Malgré le fait que le cache augmente la vitesse du lecteur dans le système, il présente également des inconvénients. Pour commencer, le cache n'accélère pas du tout le lecteur lors de requêtes aléatoires d'informations situées à différentes extrémités du plateau, car avec de telles requêtes, la prélecture ne sert à rien. De plus, cela n'aide pas du tout lors de la lecture de grandes quantités de données, car... il est généralement assez petit. Par exemple, lors de la copie d'un fichier de 10 mégaoctets, avec le tampon habituel de 2 mégaoctets à notre époque, seulement un peu moins de 20 % du fichier copié tiendra dans le cache.

En raison de ces fonctionnalités du cache, il n'accélère pas le lecteur autant que nous le souhaiterions. Le gain de vitesse qu'il offre dépend non seulement de la taille du tampon, mais également de l'algorithme de travail avec le cache du microprocesseur, ainsi que du type de fichiers avec lesquels vous travaillez actuellement. Et, en règle générale, il est très difficile de savoir quels algorithmes de cache sont utilisés dans un lecteur spécifique donné.

Ces dernières années, les fabricants de disques durs ont considérablement augmenté la capacité de cache de leurs produits. Même à la fin des années 90, 256 kilo-octets étaient la norme pour tous les disques et seuls les appareils haut de gamme disposaient d'un cache de 512 kilo-octets. Actuellement, un cache de 2 Mo est devenu la norme de facto pour tous les disques, tandis que les modèles les plus productifs ont des capacités de 8 voire 16 Mo. En règle générale, 16 Mo ne se trouvent que sur les disques SCSI. Il y a deux raisons pour lesquelles la mémoire tampon du lecteur a augmenté si rapidement. L’un d’eux est la forte baisse des prix des puces de mémoire synchrone. La deuxième raison est la conviction des utilisateurs que doubler, voire quadrupler la taille du cache affectera grandement la vitesse du lecteur.

La taille du cache du disque dur affecte bien sûr la vitesse du disque dans le système d'exploitation, mais pas autant que les utilisateurs l'imaginent. Les fabricants profitent de la confiance de l'utilisateur dans la taille du cache et, dans les brochures publicitaires, ils déclarent haut et fort que la taille du cache est quadruple par rapport au modèle standard. Cependant, en comparant le même disque dur avec des tailles de tampon de 2 et 8 mégaoctets, il s'avère que l'accélération est de plusieurs pour cent. A quoi cela conduit-il ? De plus, seule une très grande différence dans les tailles de cache (par exemple, entre 512 kilo-octets et 8 mégaoctets) affectera de manière significative la vitesse du lecteur. Vous devez également vous rappeler que la taille du tampon du disque dur par rapport à la mémoire de l'ordinateur est assez petite et que souvent le cache « logiciel » apporte une plus grande contribution au fonctionnement du disque, c'est-à-dire un tampon intermédiaire organisé par le système d'exploitation pour la mise en cache des opérations avec le système de fichiers et situé dans la mémoire de l'ordinateur.

La mise en cache de lecture et la mise en cache d’écriture sont similaires à certains égards, mais elles présentent également de nombreuses différences. Ces deux opérations visent à augmenter les performances globales du disque : elles constituent des tampons entre l'ordinateur rapide et la mécanique lente du disque. La principale différence entre ces opérations est que l’une d’elles ne modifie pas les données sur le disque, tandis que l’autre le fait.

Sans mise en cache, chaque opération d'écriture entraînerait une attente fastidieuse pour que les têtes se déplacent au bon endroit et que les données soient écrites à la surface. Travailler avec un ordinateur serait impossible : comme nous l'avons mentionné plus tôt, cette opération sur la plupart des disques durs prendrait au moins 10 millisecondes, ce qui est beaucoup du point de vue du fonctionnement de l'ordinateur dans son ensemble, puisque le microprocesseur de l'ordinateur devrait attendre pendant ces 10 millisecondes à chaque fois que des informations sont écrites sur le disque dur. La chose la plus frappante est qu'il existe précisément ce mode de fonctionnement avec le cache, lorsque les données sont écrites simultanément à la fois dans le cache et dans la surface, et que le système attend que les deux opérations soient terminées. C'est ce qu'on appelle la mise en cache en écriture. Cette technologie permet un travail plus rapide si les données nouvellement enregistrées doivent être relues dans l'ordinateur dans un avenir proche, et l'enregistrement lui-même prend beaucoup plus de temps que le temps après lequel l'ordinateur aura besoin de ces données.

Heureusement, il existe un moyen plus rapide pour le cache de fonctionner : l'ordinateur écrit des données sur le lecteur, celles-ci entrent dans le cache et le lecteur répond immédiatement au système que l'écriture est terminée ; l'ordinateur continue de fonctionner, croyant que le lecteur était capable d'écrire des données très rapidement, tandis que le lecteur a "trompé" l'ordinateur et n'a écrit que les données nécessaires dans le cache, puis a ensuite commencé à les écrire sur le disque. Cette technologie est appelée mise en cache de réécriture.

Bien entendu, la technologie de mise en cache avec écriture différée augmente les performances, mais cette technologie présente néanmoins également des inconvénients. Le disque dur indique à l'ordinateur qu'une écriture a déjà été effectuée, alors que les données sont uniquement dans le cache, et commence alors seulement à écrire les données sur la surface. Cela prend du temps. Ce n'est pas un problème tant que l'ordinateur est alimenté. Parce que La mémoire cache est une mémoire volatile ; dès que l’alimentation est coupée, tout le contenu du cache est irrémédiablement perdu. S'il y avait des données dans le cache en attente d'être écrites sur la surface et que l'alimentation a été coupée, les données seront perdues à jamais. Et ce qui est également mauvais, c'est que le système ne sait pas si les données ont été écrites avec précision sur le disque, car... Winchester a déjà signalé l'avoir fait. Ainsi, non seulement nous perdons les données elles-mêmes, mais nous ne savons pas non plus quelles données n’ont pas été enregistrées, et nous ne savons même pas qu’une panne s’est produite. En conséquence, une partie du fichier peut être perdue, ce qui entraînera une violation de son intégrité, une perte des fonctionnalités du système d'exploitation, etc. Bien entendu, ce problème n’affecte pas la mise en cache des lectures.

En raison de ce risque, certains postes de travail ne mettent pas du tout de cache. Les lecteurs modernes vous permettent de désactiver le mode de mise en cache en écriture. Ceci est particulièrement important dans les applications où la précision des données est très critique. Parce que Ce type de mise en cache augmente considérablement la vitesse du disque ; cependant, ils ont généralement recours à d'autres méthodes qui réduisent le risque de perte de données due à une panne de courant. La méthode la plus courante consiste à connecter l'ordinateur à une alimentation sans coupure. De plus, tous les disques modernes disposent de la fonction « flush write cache », qui oblige le lecteur à écrire les données du cache vers la surface, mais le système doit exécuter cette commande aveuglément, car il ne sait toujours pas s'il y a des données dans le cache ou non. Chaque fois que l'alimentation est coupée, les systèmes d'exploitation modernes envoient cette commande au disque dur, puis une commande est envoyée pour garer les têtes (bien que cette commande ne puisse pas être envoyée, car chaque disque moderne gare automatiquement les têtes lorsque la tension descend en dessous de le niveau maximum autorisé ) et seulement après cela, l'ordinateur s'éteint. Cela garantit la sécurité des données utilisateur et un arrêt correct du disque dur.

spas-info.ru

Qu'est-ce qu'un tampon de disque dur et pourquoi est-il nécessaire ?

Aujourd'hui, un périphérique de stockage courant est un disque dur magnétique. Il dispose d’une certaine quantité de mémoire destinée à stocker les données de base. Il dispose également d'une mémoire tampon dont le but est de stocker des données intermédiaires. Les professionnels appellent le tampon du disque dur le terme « mémoire cache » ou simplement « cache ». Voyons pourquoi le tampon du disque dur est nécessaire, ce qu'il affecte et quelle est sa taille.

Le tampon du disque dur aide le système d'exploitation à stocker temporairement les données lues dans la mémoire principale du disque dur, mais qui n'ont pas été transférées pour traitement. La nécessité d'un stockage en transit est due au fait que la vitesse de lecture des informations du disque dur et le débit du système d'exploitation varient considérablement. Par conséquent, l’ordinateur doit stocker temporairement les données dans un « cache » et ensuite les utiliser uniquement aux fins prévues.

Le tampon du disque dur lui-même n'est pas constitué de secteurs séparés, comme le croient les utilisateurs d'ordinateurs incompétents. Il s'agit d'une puce mémoire spéciale située sur la carte disque dur interne. Ces puces peuvent fonctionner beaucoup plus rapidement que le lecteur lui-même. De ce fait, ils provoquent une augmentation (de plusieurs pour cent) des performances de l'ordinateur observées en fonctionnement.

Il convient de noter que la taille de la « mémoire cache » dépend du modèle de disque spécifique. Auparavant, il s'agissait d'environ 8 mégaoctets et ce chiffre était considéré comme satisfaisant. Cependant, avec le développement de la technologie, les fabricants ont pu produire des puces dotées de plus grandes quantités de mémoire. Par conséquent, la plupart des disques durs modernes disposent d’un tampon dont la taille varie de 32 à 128 mégaoctets. Bien entendu, le plus grand « cache » est installé dans les modèles coûteux.

Quel impact un tampon de disque dur a-t-il sur les performances ?

Nous allons maintenant vous expliquer pourquoi la taille de la mémoire tampon du disque dur affecte les performances de l'ordinateur. Théoriquement, plus il y a d'informations dans la « mémoire cache », moins le système d'exploitation accédera souvent au disque dur. Cela est particulièrement vrai pour un scénario de travail dans lequel un utilisateur potentiel traite un grand nombre de petits fichiers. Ils se déplacent simplement vers le tampon du disque dur et y attendent leur tour.

Cependant, si le PC est utilisé pour traiter des fichiers volumineux, le « cache » perd de sa pertinence. Après tout, les informations ne peuvent pas tenir sur des microcircuits dont le volume est petit. En conséquence, l'utilisateur ne remarquera pas d'augmentation des performances de l'ordinateur, puisque le tampon ne sera pratiquement pas utilisé. Cela se produit dans les cas où le système d'exploitation exécutera des programmes pour éditer des fichiers vidéo, etc.

Ainsi, lors de l'achat d'un nouveau disque dur, il est recommandé de faire attention à la taille du « cache » uniquement dans les cas où vous envisagez de traiter en permanence de petits fichiers. Vous remarquerez alors réellement une augmentation des performances de votre ordinateur personnel. Mais si le PC est utilisé pour des tâches quotidiennes ordinaires ou pour traiter des fichiers volumineux, vous n'avez pas besoin d'attacher d'importance au presse-papiers.

Une collection personnelle de données numériques a tendance à croître de façon exponentielle avec le temps. Au fil des années, la quantité de données sous forme de milliers de chansons, films, photographies, documents, cours vidéo de toutes sortes ne cesse de croître et elles doivent bien sûr être stockées quelque part. ordinateur ou, quelle que soit sa taille, un jour, il manquera complètement d'espace libre.

Une solution évidente au problème du manque d’espace de stockage consiste à acheter des DVD, des clés USB ou un disque dur externe (HDD). Les clés USB offrent généralement plusieurs Go d'espace disque, mais elles ne sont certainement pas adaptées au stockage à long terme et leur rapport prix/volume n'est, pour le moins, pas le meilleur. Les DVD sont une bonne option en termes de prix, mais pas pratiques en termes d'enregistrement, de réécriture et de suppression de données inutiles, mais ils disparaissent lentement et deviennent une technologie obsolète. Un disque dur externe offre une grande quantité d’espace, est portable, facile à utiliser et est parfait pour le stockage de données à long terme.

Lors de l’achat d’un disque dur externe, afin de faire le bon choix, vous devez d’abord savoir quoi rechercher. Dans cet article, nous vous indiquerons les critères à suivre lors du choix et de l'achat d'un disque dur externe.

Que rechercher lors de l'achat d'un disque dur externe

Commençons par choisir une marque, les meilleures d'entre elles sont Maxtor Seagate Ioméga LaCie Toshiba Et Numérique occidental l.
Les caractéristiques les plus importantes à prendre en compte lors de l’achat :

Capacité

La quantité d’espace disque est la première chose à considérer. La règle de base à suivre lors de l’achat est de multiplier par trois la capacité dont vous avez besoin. Par exemple, si vous pensez que 250 Go d’espace disque supplémentaire suffisent, achetez un modèle à partir de 750 Go. Les disques avec une grande quantité d'espace de stockage sont généralement assez encombrants, ce qui affecte leurs capacités mobiles ; cela doit également être pris en compte pour ceux qui transportent souvent un disque externe avec eux. Pour les ordinateurs de bureau, des modèles avec un espace disque de plusieurs téraoctets sont disponibles.

Facteur de forme

Le facteur de forme détermine la taille de l'appareil. Actuellement, les facteurs de forme 2.5 et 3.5 sont utilisés pour les disques durs externes.
2,5 facteurs de forme (taille en pouces) - plus petit, léger, alimenté par le port, compact, mobile.
Les facteurs de forme 3.5 sont plus grands, disposent d'une alimentation supplémentaire, sont assez lourds (souvent plus de 1 kg) et disposent d'une grande quantité d'espace disque. Faites attention à l'alimentation secteur, car... si vous envisagez de connecter l'appareil à un ordinateur portable faible, il se peut qu'il ne puisse pas faire tourner le disque - et le disque ne fonctionnera tout simplement pas.

Vitesse de rotation (RPM)

Le deuxième facteur important à considérer est la vitesse de rotation du disque, indiquée en RPM (tours par minute). La vitesse élevée garantit une lecture rapide des données et une vitesse d'écriture élevée. Tout disque dur ayant une vitesse de rotation de 7 200 tr/min ou plus est un bon choix. Si la vitesse n'est pas critique pour vous, vous pouvez choisir un modèle à 5 400 tr/min ; ils sont plus silencieux et chauffent moins.

Taille du cache

Chaque disque dur externe dispose d'une mémoire tampon ou cache qui stocke temporairement les données avant de les transférer sur le disque. Les disques dotés de caches plus grands transfèrent les données plus rapidement que ceux dotés de caches plus petits. Choisissez un modèle doté d'au moins 16 Mo de mémoire cache, de préférence plus.

Interface

Outre les facteurs ci-dessus, une autre caractéristique importante est le type d’interface utilisée pour le transfert de données. Le plus courant est l’USB 2.0. L'USB 3.0 gagne en popularité, la nouvelle génération a considérablement augmenté les vitesses de transfert de données et des modèles dotés d'interfaces FireWire et ESATA sont également disponibles. Nous vous recommandons de choisir des modèles dotés d'interfaces USB 3.0 et ESATA, qui offrent des vitesses de transfert de données élevées, à condition que votre ordinateur soit équipé des ports appropriés. Si la possibilité de connecter un disque dur externe à autant d'appareils que possible est essentielle pour vous, choisissez un modèle avec une version d'interface USB 2.0.

Permettez-moi de vous rappeler que l'utilitaire Seagate SeaTools Enterprise permet à l'utilisateur de gérer la politique de mise en cache et, en particulier, de basculer les derniers disques Seagate SCSI entre deux modèles de mise en cache différents : le mode bureau et le mode serveur. Cet élément du menu SeaTools s'appelle Performance Mode (PM) et peut prendre deux valeurs - On (mode bureau) et Off (mode serveur). Les différences entre ces deux modes sont purement logicielles - dans le cas du mode Bureau, le cache du disque dur est divisé en un nombre fixe de segments de taille constante (égale), puis ils sont utilisés pour mettre en cache les accès en lecture et en écriture. De plus, dans un élément de menu séparé, l'utilisateur peut même attribuer lui-même le nombre de segments (gérer la segmentation du cache) : par exemple, au lieu des 32 segments par défaut, saisissez une valeur différente (dans ce cas, le volume de chaque segment diminuera proportionnellement).

Dans le cas du mode serveur, les segments de tampon (cache disque) peuvent être (ré)attribués dynamiquement, modifiant ainsi leur taille et leur nombre. Le microprocesseur (et le firmware) du disque lui-même optimise dynamiquement le nombre (et la capacité) des segments de mémoire cache en fonction des commandes reçues pour exécution sur le disque.

Ensuite, nous avons pu découvrir que l'utilisation des nouveaux disques Seagate Cheetah en mode « Bureau » (avec segmentation fixe par défaut - en 32 segments) au lieu du « Serveur » par défaut avec segmentation dynamique peut légèrement augmenter les performances du disque dans un certain nombre de tâches. plus typique pour un ordinateur de bureau ou des serveurs multimédias. De plus, cette augmentation peut parfois atteindre 30-100% (!) selon le type de tâche et le modèle de disque, même si en moyenne elle est estimée à 30%, ce qui, voyez-vous, n'est pas mal non plus. Parmi ces tâches figurent le travail de routine d'un ordinateur de bureau (tests WinBench, PCmark, H2bench), la lecture et la copie de fichiers, la défragmentation. Dans le même temps, dans les applications purement serveur, les performances des disques ne chutent presque pas (si elles baissent, c'est insignifiant). Cependant, nous avons pu observer un gain notable en utilisant le mode bureau uniquement sur le lecteur Cheetah 10K.7, tandis que sa sœur aînée Cheetah 15K.4 s'est avérée presque indifférente dans quel mode travailler sur les applications de bureau.

En essayant de mieux comprendre comment la segmentation du cache de ces disques durs affecte les performances dans diverses applications et quels modes de segmentation (combien de segments de mémoire) sont les plus bénéfiques lors de l'exécution de certaines tâches, j'ai étudié l'effet du nombre de segments de cache sur les performances du Seagate Cheetah pilote 15K.4 dans une large gamme de valeurs - de 4 à 128 segments (4, 8, 16, 32, 64 et 128). Les résultats de ces études sont présentés à votre attention dans cette partie de la revue. Je voudrais souligner que ces résultats ne sont pas seulement intéressants pour ce modèle de disque (ou les disques Seagate SCSI en général) - la segmentation de la mémoire cache et la sélection du nombre de segments sont l'un des principaux domaines d'optimisation du micrologiciel, y compris les disques de bureau avec un Interface ATA, qui est désormais également principalement équipée d'un tampon de 8 Mo. Par conséquent, les résultats en matière de performances des disques décrits dans cet article dans diverses tâches en fonction de la segmentation de sa mémoire cache sont également pertinents pour le secteur des disques ATA de bureau. Et puisque la méthodologie des tests a été décrite dans la première partie, passons directement aux résultats eux-mêmes.

Cependant, avant de passer à l'analyse des résultats, examinons de plus près la conception et le fonctionnement des segments de mémoire cache du disque Seagate Cheetah 15K.4 afin de mieux comprendre de quoi nous parlons. Sur les huit mégaoctets destinés à la mémoire cache elle-même (c'est-à-dire pour les opérations de mise en cache), 7 077 Ko sont disponibles ici (le reste appartient à la zone de service). Cette zone est divisée en segments logiques (Mode Select Page 08h, octet 13), qui sont utilisés pour la lecture et l'écriture de données (pour exécuter des fonctions de lecture anticipée à partir des plateaux et des écritures paresseuses sur la surface du disque). Pour accéder aux données sur des plaques magnétiques, les segments utilisent l'adressage logique des blocs de lecteur. Les disques de cette série prennent en charge un maximum de 64 segments de cache, la longueur de chaque segment étant égale au nombre total de secteurs de disque. La quantité de mémoire cache disponible est apparemment répartie également entre les segments, donc s'il y a, disons, 32 segments, alors la taille de chaque segment est d'environ 220 Ko. Avec la segmentation dynamique (en mode PM=off), le nombre de segments peut être modifié automatiquement par le disque dur en fonction du flux de commandes de l'hôte.

Les applications serveur et de bureau nécessitent des opérations de cache différentes de celles des disques pour des performances optimales. Il est donc difficile de fournir une configuration unique pour effectuer au mieux ces tâches. Selon Seagate, les applications de bureau nécessitent que le cache soit configuré pour répondre rapidement aux demandes répétées concernant un grand nombre de petits segments de données sans le retard des lectures anticipées des segments adjacents. Dans les applications serveur, en revanche, le cache doit être configuré pour accueillir de gros volumes de données séquentielles dans des requêtes non répétitives. Dans ce cas, la capacité du cache à stocker davantage de données provenant de segments contigus lors d'une lecture anticipée est plus importante. Par conséquent, pour le mode Bureau, le fabricant recommande d'utiliser 32 segments (les premières versions de Cheetah utilisaient 16 segments), et pour le mode Serveur, le nombre adaptatif de segments commence à partir de seulement trois pour l'ensemble du cache, bien qu'il puisse augmenter pendant le fonctionnement. Dans nos expériences concernant l'influence du nombre de segments sur les performances dans diverses applications, nous nous limiterons à la plage allant de 4 segments à 64 segments, et à titre de test, nous « exécuterons » également le disque avec 128 segments installés dans le Programme SeaTools Enterprise (le programme n'indique pas que ce nombre de segments sur ce disque n'est pas autorisé).

Résultats des tests des paramètres physiques

Il ne sert à rien d'afficher des graphiques de vitesse de lecture linéaire pour différents nombres de segments de mémoire cache - ils sont identiques. Mais sur la base de la vitesse de l'interface Ultra320 SCSI mesurée par les tests, on peut observer une image très intéressante : avec 64 segments, certains programmes commencent à mal déterminer la vitesse de l'interface, la réduisant de plus d'un ordre de grandeur.

Selon le temps d'accès moyen mesuré, les différences entre différents nombres de segments de mémoire cache deviennent plus visibles - à mesure que la segmentation diminue, le temps d'accès moyen en lecture mesuré sous Windows augmente légèrement et des lectures nettement meilleures sont observées en mode PM=off, bien que l'on puisse affirmer qu'il existe un très petit nombre de segments ou, à l'inverse, très important, il est difficile de se baser sur ces données. Il est possible que le disque dans ce cas commence simplement à ignorer la prélecture lors de la lecture afin d'éviter des retards supplémentaires.

Vous pouvez essayer de juger de l'efficacité des algorithmes d'écriture différée du micrologiciel du disque et de la mise en cache des données écrites dans le tampon du lecteur en fonction de la façon dont le temps d'accès moyen mesuré par le système d'exploitation lors de l'écriture par rapport à la lecture diminue lorsque la mise en cache de réécriture du lecteur est activée ( il a toujours été activé dans nos tests). Pour ce faire, nous utilisons généralement les résultats du test C"T H2benchW, mais cette fois nous compléterons l'image avec un test dans le programme IOmeter, dont les modèles de lecture et d'écriture utilisaient un accès aléatoire à 100 % par blocs de 512 octets. avec une profondeur de file d'attente de requêtes unitaires. (Bien sûr, vous ne devriez pas penser que le temps d'accès moyen en écriture dans les deux diagrammes ci-dessous reflète réellement cela physique caractéristiques des lecteurs! Il s'agit simplement d'un paramètre mesuré par programme à l'aide d'un test, grâce auquel on peut juger de l'efficacité de la mise en cache d'écriture dans le tampon disque. Le temps d'accès en écriture moyen réel déclaré par le fabricant pour le Cheetah 15K.4 est de 4,0+2,0=6,0 ms). À propos, en anticipant les questions, je note que dans ce cas (c'est-à-dire lorsque l'écriture différée est activée sur le disque), le lecteur signale à l'hôte la réussite de la commande d'écriture (état BON) immédiatement dès qu'il sont écrits dans la mémoire cache, et non directement sur le support magnétique. C'est la raison de la valeur plus faible du temps d'accès moyen en écriture mesuré en externe que pour un paramètre similaire lors de la lecture.

Sur la base des résultats de ces tests, il existe une nette dépendance de l'efficacité de la mise en cache de l'enregistrement aléatoire de petits blocs de données au nombre de segments de cache - plus il y a de segments, mieux c'est. Avec quatre segments, l'efficacité chute fortement et le temps d'accès moyen pour l'écriture augmente presque jusqu'aux valeurs pour la lecture. Et en « mode serveur », le nombre de segments dans ce cas est évidemment proche de 32. Les cas de 64 et « 128 » segments sont totalement identiques, ce qui confirme la limitation logicielle au niveau de 64 segments d'en haut.

Il est intéressant de noter que le test IOmeter dans les modèles les plus simples d'accès aléatoire par blocs de 512 octets donne exactement les mêmes valeurs lors de l'écriture que le test C"T H2BenchW (avec une précision littéralement au centième de milliseconde), tandis que lors de la lecture IOmeter a montré un résultat légèrement gonflé dans toute la plage de segmentation - peut-être une différence de 0,1 à 0,19 ms avec d'autres tests de temps d'accès aléatoire en lisant en raison de certaines raisons « internes » à l'IOmeter (ou une taille de bloc de 512 octets au lieu de 0 octet, comme cela est idéalement requis pour de telles mesures). Cependant, les résultats de lecture d'IOmeter coïncident pratiquement avec ceux du test de disque du programme AIDA32.

Performances des applications

Passons aux tests des performances du lecteur dans les applications. Et tout d'abord, essayons de savoir dans quelle mesure les disques sont optimisés pour un fonctionnement multithread. Pour ce faire, j'utilise traditionnellement des tests dans le programme NBench 2.4, où des fichiers de 100 Mo sont écrits sur le disque et lus par plusieurs threads simultanés.

Ce diagramme permet de juger de l'efficacité des algorithmes d'écriture paresseuse multithread pour disques durs dans des conditions réelles (et non synthétiques, comme c'était le cas dans le diagramme avec temps d'accès moyen) lorsque le système d'exploitation travaille avec des fichiers. Le leadership des deux disques Maxtor SCSI lors de l'enregistrement avec plusieurs flux simultanés ne fait aucun doute, cependant, avec Chita, nous constatons déjà un certain optimal dans la zone comprise entre 8 et 16 segments, tandis qu'à des valeurs plus élevées et plus basses, la vitesse du disque sur ces les tâches tombent. Pour le mode serveur, le nombre de segments est évidemment de 32 (avec une bonne précision :)), et les segments "128" sont en réalité de 64.

En matière de lecture multithread, la situation des disques Seagate s'améliore clairement par rapport aux disques Maxtor. Quant à l'influence de la segmentation, alors, comme pour l'enregistrement, on observe un certain optimal plus proche de 8 segments (lors de l'enregistrement il était plus proche de 16 segments), et avec une segmentation très élevée (64) la vitesse du disque diminue considérablement (comme avec l'enregistrement ) . Il est gratifiant que le mode serveur « surveille ici le marché de l'hôte » et modifie la segmentation de 32 lors de l'écriture à ~ 8 lors de la lecture.

Voyons maintenant comment les lecteurs se comportent dans les "anciens" mais toujours populaires tests Disk WinMark 99 du package WinBench 99. Permettez-moi de vous rappeler que nous effectuons ces tests non seulement pour le "début", mais aussi pour le "milieu" ( en termes de volume) supports physiques pour deux systèmes de fichiers, et les diagrammes montrent des résultats moyens. Bien entendu, ces tests ne constituent pas un « profil » pour les disques SCSI, et en présentant ici leurs résultats nous rendons plutôt hommage au test lui-même et à ceux qui ont l'habitude de juger la vitesse des disques à l'aide des tests WinBench 99. En guise de « consolation », nous notez que ces tests nous montreront avec un certain degré de certitude quelles sont les performances de ces disques d'entreprise lors de l'exécution de tâches plus typiques d'un ordinateur de bureau.

De toute évidence, il existe également une segmentation optimale ici, et avec un petit nombre de segments, le disque semble inexpressif, et avec 32 segments, il semble meilleur (c'est peut-être pour cela que les développeurs de Seagate ont « déplacé » le paramètre par défaut du mode bureau de 16 à 32 segments. ). Cependant, pour le mode serveur dans les tâches bureautiques (professionnelles), la segmentation n'est pas entièrement optimale, tandis que pour la productivité professionnelle (haut de gamme), la segmentation est plus qu'optimisée, surpassant sensiblement même la segmentation « permanente » optimale. Apparemment, c'est lors de l'exécution du test qu'il change en fonction du flux de commandes et de ce fait, un gain de performances globales est obtenu.

Malheureusement, une telle optimisation « pendant le test » n'est pas observée pour les tests complexes « de piste » plus récents évaluant les performances des disques « de bureau » dans les packages PCMakr04 et C"T H2BenchW.

Sur les deux (ou plutôt sur 10) « pistes d'activité » différentes, l'intelligence du mode serveur est sensiblement inférieure à la segmentation constante optimale, qui pour PCmark04 est d'environ 8 segments et pour H2benchW - 16 segments.

Pour ces deux tests, 4 segments de mémoire cache s'avèrent très indésirables, ainsi que 64, et il est difficile de dire vers lequel on s'oriente le plus en choisissant le mode serveur dans ce cas.

Contrairement à ces tests, bien sûr encore synthétiques (bien que très similaires à la réalité), il existe un test tout à fait « réel » de la vitesse du disque avec un fichier temporaire du programme Adobe Photoshop. Ici, la situation est beaucoup plus transparente : plus il y a de segments, mieux c'est ! Et le mode serveur a presque « attrapé » cela, en utilisant 32 segments pour son travail (même si 64 aurait été un peu mieux).

Tests dans Intel Iometer

Passons aux tâches plus typiques des profils d'utilisation des lecteurs SCSI - le fonctionnement de divers serveurs (base de données, serveur de fichiers, serveur Web) et poste de travail selon les modèles correspondants dans la version 2003.5.10 du programme Intel IOmeter.

Maxtor est celui qui réussit le mieux à simuler un serveur de base de données, et pour Seagate, il est plus rentable d'utiliser le mode serveur, bien que ce dernier soit essentiellement très proche de 32 segments persistants (environ 220 Ko chacun). Dans ce cas, moins ou plus de segmentation s'avère pire. Cependant, ce modèle est trop simple en termes de type de requêtes – voyons ce qui se passe pour des modèles plus complexes.

Lors de la simulation d'un serveur de fichiers, la segmentation adaptative est à nouveau en tête, même si le retard de 16 segments permanents est négligeable (32 segments sont ici un peu moins bons, bien qu'ils soient également tout à fait dignes). Avec une petite segmentation, une détérioration est observée sur une grande file d'attente de commandes, et avec une file d'attente trop grande (64), toute file d'attente est généralement contre-indiquée - apparemment, dans ce cas, la taille des secteurs de cache est trop petite (moins de 111 Ko, c'est-à-dire seulement 220 blocs sur le support) pour mettre en cache efficacement des volumes de données acceptables.

Enfin, pour le serveur Web, nous voyons une image encore plus intéressante : avec une file d'attente de commandes non-unité, le mode serveur est équivalent n'importe qui niveau de segmentation, sauf 64, même si au niveau unique, il est légèrement meilleur que tout le monde.

Grâce à la moyenne géométrique des charges de serveur indiquée ci-dessus par les modèles et les files d'attente de requêtes (sans coefficients de pondération), nous constatons que le partitionnement adaptatif est le meilleur pour de telles tâches, bien que 32 segments constants soient légèrement en retard et que 16 segments semblent également bons dans l'ensemble. De manière générale, le choix de Seagate est tout à fait compréhensible.

Quant au modèle « poste de travail », le mode serveur est clairement le meilleur ici.

Et l'optimum pour une segmentation constante se situe au niveau de 16 segments.

Maintenant - nos modèles pour IOmeter, dont l'objectif est plus proche des PC de bureau, bien qu'ils soient définitivement révélateurs de disques d'entreprise, car même dans les systèmes « profondément professionnels », les disques durs lisent et écrivent des fichiers petits et grands la part du lion du temps, et aussi parfois copier des fichiers. Et comme la nature des appels dans ces modèles dans le test IOmeter (à des adresses aléatoires dans tout le volume du disque) est plus typique des systèmes de classe serveur, l'importance de ces modèles pour les disques étudiés est plus élevée.

La lecture de fichiers volumineux est encore une fois meilleure en Mode Serveur, à l'exception d'un échec incompréhensible à QD=4. Cependant, un petit nombre de grands segments est clairement préférable pour le disque dans ces opérations (ce qui, en principe, est prévisible et est en excellent accord avec les résultats de lecture de fichiers multithread, voir ci-dessus).

Sporadique enregistrer les gros fichiers, au contraire, sont encore « trop durs » pour l'intelligence du mode serveur, et ici il est plus rentable d'avoir une segmentation constante au niveau de 8 à 16 segments, comme avec l'enregistrement multithread de fichiers, voir ci-dessus . Par ailleurs, on note qu'une segmentation importante du cache - au niveau de 64 segments - est extrêmement préjudiciable dans ces opérations. Cependant, cela est utile pour les opérations de lecture de petits fichiers avec une grande file d'attente de requêtes :

Je pense que c'est ce que le mode serveur utilise pour sélectionner le mode adaptatif - leurs graphiques sont très similaires.

Dans le même temps, lors de l'écriture de petits fichiers à des adresses aléatoires, 64 segments échouent à nouveau et le mode serveur est ici inférieur à la segmentation constante avec un niveau de 8 à 16 segments par cache, bien que les efforts du mode serveur pour utiliser les paramètres optimaux soient visibles (seulement avec 32-64 segments par file d'attente, 64 malchances sont arrivées ;)).

La copie de fichiers volumineux est un échec évident du mode serveur ! Ici, il est clairement plus rentable de segmenter avec le niveau 16 (c'est optimal, puisque 8 et 32 ​​sont pires dans la file d'attente 4).

Quant à la copie de petits fichiers, 8-16-32 segments sont ici presque équivalents, surpassant les 64 segments (assez curieusement), et le mode serveur est un peu bizarre.

Sur la base des résultats de la moyenne géométrique des données pour la lecture, l'écriture et la copie aléatoires de fichiers petits et grands, nous constatons que le meilleur résultat moyen est obtenu par segmentation constante avec un niveau de seulement 4 segments par cache (c'est-à-dire des tailles de segment de plus de 1,5 Mo !), alors que 8 et 16 segments sont à peu près équivalents et ne sont quasiment pas derrière 4 segments, mais 64 segments sont clairement contre-indiqués. Le mode Adaptive Server Mode n'était en moyenne que légèrement inférieur à la segmentation constante - une perte d'un pour cent peut difficilement être considérée comme perceptible.

Reste à noter que lors de la simulation de défragmentation, on observe à peu près l'égalité de tous les niveaux de segmentation constante et un léger avantage du Mode Serveur (du même 1%).

Et dans le modèle de lecture-écriture en continu en grands et petits blocs, il est légèrement plus avantageux d'utiliser un petit nombre de segments, bien que là encore, les différences dans les performances des configurations de mémoire cache soient ici, assez curieusement, homéopathiques.

conclusions

Après avoir réalisé une étude plus détaillée de l'influence de la segmentation de la mémoire cache sur les performances du disque Seagate Cheetah 15K.4 dans diverses tâches dans la deuxième partie de notre revue, je tiens à préciser que ce n'est pas sans raison que les développeurs appelés les modes de mise en cache comme ils les appelaient : en mode serveur, la segmentation est en effet souvent une mémoire cache adaptée à la tâche en cours, et cela conduit parfois à de très bons résultats - notamment lors de l'exécution de tâches « lourdes », y compris les modèles de serveur dans Intel IOmeter , et le test High-End Disk WinMark 99, et la lecture aléatoire de petits blocs sur tout le disque... Cependant, souvent le choix du niveau de segmentation du cache en mode serveur s'avère sous-optimal (et nécessite des travaux supplémentaires pour améliorer les critères d'analyse le flux de commandes de l'hôte), puis le mode Bureau arrive en tête avec une segmentation fixe au niveau de 8, 16 ou 32 segments par cache. De plus, selon le type de tâche, il est parfois plus rentable d'utiliser 16 et 32, et parfois - 8 ou seulement 4 segments mémoire ! Parmi ces derniers figurent les lectures et écritures multithread (à la fois aléatoires et séquentielles), les tests de « suivi » comme PCMark04 et les tâches de streaming avec lecture et écriture simultanées. Bien que les « synthétiques » pour l'accès en écriture aléatoire montrent clairement que l'efficacité de l'écriture différée (vers des adresses aléatoires) diminue considérablement à mesure que le nombre de segments diminue. Autrement dit, il y a une lutte entre deux tendances - et c'est pourquoi, en moyenne, il est plus efficace d'utiliser 16 ou 32 segments par tampon de 8 Mo. En doublant la taille du tampon, on peut prédire qu'il est plus rentable de maintenir le nombre de segments entre 16 et 32, mais en augmentant proportionnellement la capacité de chaque segment, les performances moyennes du lecteur peuvent augmenter considérablement. Apparemment, même la segmentation du cache avec 64 segments, qui est actuellement inefficace dans la plupart des tâches, peut s'avérer très utile lorsque la taille du tampon est doublée, tandis que l'utilisation de 4 voire 8 segments dans ce cas deviendra inefficace. Cependant, ces conclusions dépendent également fortement des blocs que le système d'exploitation et les applications préfèrent utiliser avec le lecteur, ainsi que de la taille des fichiers utilisés. Il est fort possible que lorsque l’environnement change, la segmentation optimale du cache change dans un sens ou dans l’autre. Eh bien, nous souhaitons à Seagate du succès dans l'optimisation de « l'intelligence » du mode serveur, qui, dans une certaine mesure, peut atténuer cette « dépendance au système » et cette « dépendance aux tâches » en apprenant à sélectionner au mieux la segmentation la plus optimale en fonction du flux. des commandes hôtes.