Raid 0 à partir d'un disque. RAID budgétaire. Performances des tests. Architecture des niveaux RAID de base

Le changement d’orientation des applications centrées sur le processeur vers les applications centrées sur les données entraîne l’importance croissante des systèmes de stockage de données. Dans le même temps, le problème du faible débit et de la tolérance aux pannes caractéristiques de tels systèmes a toujours été très important et a toujours nécessité une solution.

Dans l'industrie informatique moderne, les disques magnétiques sont largement utilisés comme système de stockage de données secondaire car, malgré tous leurs défauts, ils présentent les meilleures caractéristiques pour le type d'appareil correspondant à un prix abordable.

Les caractéristiques de la technologie de construction des disques magnétiques ont conduit à un écart significatif entre l'augmentation des performances des modules processeurs et les disques magnétiques eux-mêmes. Si en 1990, les meilleurs disques série étaient les disques 5,25″ avec un temps d'accès moyen de 12 ms et un temps de latence de 5 ms (à une vitesse de broche d'environ 5 000 tr/min 1), alors aujourd'hui la palme appartient aux disques 3,5″ avec un temps d'accès moyen de 5 ms et temps de retard de 1 ms (à une vitesse de broche de 10 000 tr/min). Nous constatons ici une amélioration des caractéristiques techniques d'environ 100 %. Dans le même temps, les performances du processeur ont augmenté de plus de 2 000 %. Ceci est largement possible car les processeurs bénéficient directement des avantages de l’utilisation du VLSI (Very Large Scale Integration). Son utilisation permet non seulement d'augmenter la fréquence, mais également le nombre de composants pouvant être intégrés dans la puce, ce qui permet d'introduire des avantages architecturaux permettant le calcul parallèle.

1 - Données moyennes.

La situation actuelle peut être caractérisée comme une crise d’E/S du système de stockage secondaire.

Augmentation des performances

L'impossibilité d'augmenter de manière significative les paramètres technologiques des disques magnétiques entraîne la nécessité de rechercher d'autres moyens, dont le traitement parallèle.

Si vous disposez un bloc de données sur N disques d'une matrice et organisez ce placement de manière à ce qu'il soit possible de lire les informations simultanément, alors ce bloc peut être lu N fois plus rapidement (sans tenir compte du temps de formation du bloc). Puisque toutes les données sont transférées en parallèle, cette solution architecturale est appelée tableau à accès parallèle(tableau avec accès parallèle).

Les baies parallèles sont généralement utilisées pour les applications nécessitant des transferts de données volumineux.

Certaines tâches, au contraire, se caractérisent par un grand nombre de petites demandes. De telles tâches incluent, par exemple, des tâches de traitement de bases de données. En répartissant les enregistrements de base de données sur les disques de la matrice, vous pouvez répartir la charge en positionnant les disques indépendamment. Cette architecture est habituellement appelée tableau à accès indépendant(tableau avec accès indépendant).

Augmentation de la tolérance aux pannes

Malheureusement, à mesure que le nombre de disques dans une baie augmente, la fiabilité de l’ensemble de la baie diminue. Avec des pannes indépendantes et une loi de distribution exponentielle du temps entre les pannes, le MTTF de l'ensemble de la baie (temps moyen jusqu'à panne) est calculé à l'aide de la formule MTTF array = MMTF hdd /N hdd (MMTF hdd est le temps moyen jusqu'à panne d'un disque ; NHDD est le nombre de disques).

Il est donc nécessaire d’augmenter la tolérance aux pannes des baies de disques. Pour augmenter la tolérance aux pannes des baies, un codage redondant est utilisé. Il existe deux principaux types de codage utilisés dans les baies de disques redondantes : la duplication et la parité.

La duplication, ou mise en miroir, est le plus souvent utilisée dans les baies de disques. Les systèmes miroir simples utilisent deux copies de données, chaque copie étant située sur des disques distincts. Ce schéma est assez simple et ne nécessite pas de coûts matériels supplémentaires, mais il présente un inconvénient important : il utilise 50 % de l'espace disque pour stocker une copie des informations.

La deuxième façon de mettre en œuvre des baies de disques redondantes consiste à utiliser un codage redondant utilisant le calcul de parité. La parité est calculée en effectuant un XOR sur tous les caractères du mot de données. L'utilisation de la parité dans les baies de disques redondantes réduit la surcharge à une valeur calculée par la formule : HP hdd = 1/N hdd (HP hdd - surcharge ; N hdd - nombre de disques dans la baie).

Histoire et développement du RAID

Bien que les systèmes de stockage basés sur des disques magnétiques soient produits depuis 40 ans, la production en série de systèmes tolérants aux pannes n'a commencé que récemment. Les baies de disques redondantes, communément appelées RAID (redundant arrays of cheap disks), ont été introduites par des chercheurs (Petterson, Gibson et Katz) de l'Université de Californie à Berkeley en 1987. Mais les systèmes RAID ne se sont répandus que lorsque des disques adaptés à une utilisation dans des baies redondantes sont devenus disponibles et suffisamment productifs. Depuis le livre blanc sur le RAID en 1988, la recherche sur les baies de disques redondantes a explosé dans le but de fournir un large éventail de compromis coût-performance-fiabilité.

Il y a eu un incident avec l'abréviation RAID à un moment donné. Le fait est qu'au moment de la rédaction de cet article, tous les disques utilisés dans les PC étaient appelés disques bon marché, par opposition aux disques coûteux pour les mainframes (ordinateurs centraux). Mais pour une utilisation dans des matrices RAID, il était nécessaire d'utiliser un équipement assez coûteux par rapport à d'autres configurations PC, c'est pourquoi RAID a commencé à être déchiffré comme une matrice redondante de disques indépendants 2 - une matrice redondante de disques indépendants.

2 - Définition du Conseil Consultatif RAID

RAID 0 a été introduit par l'industrie comme définition d'une matrice de disques non tolérante aux pannes. Berkeley a défini RAID 1 comme une matrice de disques en miroir. RAID 2 est réservé aux baies utilisant le code Hamming. Les niveaux RAID 3, 4 et 5 utilisent la parité pour protéger les données contre des pannes uniques. Ce sont ces niveaux, dont le niveau 5, qui ont été présentés à Berkeley, et cette taxonomie RAID a été adoptée comme norme de facto.

Les niveaux RAID 3,4,5 sont très populaires et ont une bonne utilisation de l'espace disque, mais ils présentent un inconvénient majeur : ils ne résistent qu'à des pannes uniques. Cela est particulièrement vrai lors de l'utilisation d'un grand nombre de disques, lorsque la probabilité d'indisponibilité simultanée de plusieurs appareils augmente. De plus, ils se caractérisent par une longue récupération, ce qui impose également certaines restrictions quant à leur utilisation.

Aujourd'hui, un assez grand nombre d'architectures ont été développées pour assurer le fonctionnement de la baie même en cas de panne simultanée de deux disques sans perte de données. Parmi l'ensemble, il convient de noter la parité bidimensionnelle et EVENODD, qui utilisent la parité pour le codage, et RAID 6, qui utilise le codage Reed-Solomon.

Dans un schéma utilisant la parité double espace, chaque bloc de données participe à la construction de deux mots de code indépendants. Ainsi, si un deuxième disque dans le même mot de code tombe en panne, un mot de code différent est utilisé pour reconstruire les données.

La redondance minimale dans un tel tableau est obtenue avec un nombre égal de colonnes et de lignes. Et est égal à : 2 x Carré (N Disk) (en « carré »).

Si le réseau à deux espaces n'est pas organisé en « carré », alors lors de la mise en œuvre du schéma ci-dessus, la redondance sera plus élevée.

L'architecture EVENEDD a un schéma de tolérance aux pannes similaire à la parité double espace, mais un placement différent des blocs d'informations qui garantit une utilisation redondante minimale de la capacité. Comme dans la parité dual-espace, chaque bloc de données participe à la construction de deux mots de code indépendants, mais les mots sont placés de telle sorte que le coefficient de redondance soit constant (contrairement au schéma précédent) et soit égal à : 2 x Carré (N Disque).

En utilisant deux caractères de contrôle, des codes de parité et non binaires, le mot de données peut être conçu pour fournir une tolérance aux pannes lorsqu'une double panne se produit. Cette conception est connue sous le nom de RAID 6. Le code non binaire, basé sur le codage Reed-Solomon, est généralement calculé à l'aide de tables ou sous forme de processus itératif utilisant des registres linéaires en boucle fermée, une opération relativement complexe nécessitant un matériel spécialisé.

Considérant que l'utilisation d'options RAID classiques, qui offrent une tolérance aux pannes suffisante pour de nombreuses applications, présente souvent des performances inacceptablement faibles, les chercheurs mettent de temps en temps en œuvre diverses mesures permettant d'augmenter les performances des systèmes RAID.

En 1996, Savage et Wilks ont proposé AFRAID – Un réseau fréquemment redondant de disques indépendants. Cette architecture sacrifie dans une certaine mesure la tolérance aux pannes au profit des performances. Pour tenter de compenser le problème de petites écritures typique des matrices RAID de niveau 5, il est possible de laisser le striping sans calcul de parité pendant un certain temps. Si le disque désigné pour l'enregistrement par parité est occupé, l'enregistrement par parité est retardé. Il a été théoriquement prouvé qu'une réduction de 25 % de la tolérance aux pannes peut augmenter les performances de 97 %. AFRAID modifie efficacement le modèle de défaillance des baies tolérantes aux pannes uniques, car un mot de code qui n'a pas de parité mise à jour est susceptible de provoquer des pannes de disque.

Au lieu de sacrifier la tolérance aux pannes, vous pouvez utiliser des techniques de performances traditionnelles telles que la mise en cache. Étant donné que le trafic sur les disques est intense, vous pouvez utiliser un cache en écriture différée pour stocker les données lorsque les disques sont occupés. Et si la mémoire cache est réalisée sous forme de mémoire non volatile, alors, en cas de panne de courant, les données seront sauvegardées. De plus, les opérations de disque différées permettent de combiner de manière aléatoire de petits blocs pour effectuer des opérations de disque plus efficaces.

Il existe également de nombreuses architectures qui sacrifient le volume pour augmenter les performances. Parmi eux figurent la modification retardée sur le disque de journal et divers schémas de modification du placement logique des données dans le placement physique, qui vous permettent de répartir plus efficacement les opérations dans la baie.

Une des options - journalisation de parité(enregistrement parité), qui consiste à résoudre le problème des petites écritures et à utiliser plus efficacement les disques. La journalisation de parité reporte les changements de parité vers RAID 5 en les enregistrant dans un journal FIFO, situé en partie dans la mémoire du contrôleur et en partie sur le disque. Étant donné que l'accès à une piste complète est en moyenne 10 fois plus efficace que l'accès à un secteur, la journalisation de parité collecte de grandes quantités de données de parité modifiées, qui sont ensuite écrites ensemble sur un disque dédié au stockage de la parité sur l'ensemble de la piste.

Architecture données flottantes et parité(flottant et parité), qui permet de réaffecter le placement physique des blocs de disque. Des secteurs libres sont placés sur chaque cylindre pour réduire latence de rotation(délais de rotation), les données et la parité sont allouées à ces espaces libres. Pour garantir le fonctionnement lors d'une panne de courant, la parité et la carte des données doivent être stockées dans une mémoire non volatile. Si vous perdez la carte de placement, toutes les données du tableau seront perdues.

Décapage virtuel- est une architecture de données flottantes et de parité utilisant un cache en écriture différée. Naturellement, prendre conscience des côtés positifs des deux.

De plus, il existe d'autres moyens d'améliorer les performances, telles que les opérations RAID. À une certaine époque, Seagate avait intégré la prise en charge des opérations RAID dans ses disques dotés d'interfaces Fibre Channel et SCSI. Cela a permis de réduire le trafic entre le contrôleur central et les disques de la matrice pour les systèmes RAID 5. Il s'agissait d'une innovation fondamentale dans le domaine des implémentations RAID, mais la technologie n'a pas démarré dans la vie, car certaines fonctionnalités de Fiber Les normes Chanel et SCSI affaiblissent le modèle de défaillance des baies de disques.

Pour le même RAID 5, l'architecture TickerTAIP a été introduite. Cela ressemble à ceci : le nœud d'origine du mécanisme de contrôle central (nœud initiateur) reçoit les demandes des utilisateurs, sélectionne un algorithme de traitement, puis transfère le travail du disque et la parité au nœud de travail (nœud de travail). Chaque nœud de travail traite un sous-ensemble des disques de la baie. Comme dans le modèle Seagate, les nœuds de travail transfèrent des données entre eux sans la participation du nœud initiateur. Si un nœud de travail tombe en panne, les disques qu'il sert deviennent indisponibles. Mais si le mot de passe est construit de telle manière que chacun de ses symboles est traité par un nœud de travail distinct, alors le schéma de tolérance aux pannes répète RAID 5. Pour éviter les pannes du nœud initiateur, il est dupliqué, nous obtenons ainsi une architecture qui est résistant aux pannes de l’un de ses nœuds. Malgré toutes ses caractéristiques positives, cette architecture souffre du problème du « trou d’écriture ». Ce qui signifie qu'une erreur se produit lorsque plusieurs utilisateurs modifient le mot de passe en même temps et que le nœud échoue.

Il convient également de mentionner une méthode assez populaire pour restaurer rapidement le RAID : à l'aide d'un disque libre (de rechange). Si l'un des disques de la matrice tombe en panne, le RAID peut être restauré en utilisant un disque libre au lieu de celui en panne. La principale caractéristique de cette implémentation est que le système revient à son état précédent (état de sécurité sans intervention externe). Lors de l'utilisation d'une architecture de secours distribuée, les blocs logiques d'un disque de secours sont physiquement répartis sur tous les disques de la baie, éliminant ainsi le besoin de reconstruire la baie en cas de panne d'un disque.

Afin d'éviter le problème de récupération typique des niveaux RAID classiques, une architecture appelée dégroupage paritaire(répartition paritaire). Cela implique de placer moins de disques logiques de plus grande capacité sur des disques physiques plus petits et de plus grande capacité. Grâce à cette technologie, le temps de réponse du système à une requête lors de la reconstruction est amélioré de plus de moitié et le temps de reconstruction est considérablement réduit.

Architecture des niveaux RAID de base

Examinons maintenant plus en détail l'architecture des niveaux de base du RAID. Avant d'y réfléchir, faisons quelques hypothèses. Pour démontrer les principes de construction de systèmes RAID, considérons un ensemble de N disques (pour plus de simplicité, nous supposerons que N est un nombre pair), chacun étant constitué de M blocs.

Nous désignerons les données - D m,n, où m est le nombre de blocs de données, n est le nombre de sous-blocs en lesquels le bloc de données D est divisé.

Les disques peuvent se connecter à un ou plusieurs canaux de transfert de données. L'utilisation de davantage de canaux augmente le débit du système.

RAID 0. Matrice de disques rayés sans tolérance aux pannes

Il s'agit d'une baie de disques dans laquelle les données sont divisées en blocs et chaque bloc est écrit (ou lu) sur un disque distinct. Ainsi, plusieurs opérations d'E/S peuvent être effectuées simultanément.

Avantages:

  • performances les plus élevées pour les applications nécessitant un traitement intensif de requêtes d'E/S et de gros volumes de données ;
  • Facilité de mise en œuvre;
  • faible coût par unité de volume.

Défauts:

  • ce n'est pas une solution tolérante aux pannes ;
  • La panne d'un disque entraîne la perte de toutes les données de la baie.

RAID 1. Baie de disques redondante ou mise en miroir

La mise en miroir est un moyen traditionnel d'augmenter la fiabilité d'une petite baie de disques. Dans la version la plus simple, on utilise deux disques sur lesquels les mêmes informations sont enregistrées, et si l'un d'eux tombe en panne, il en reste un duplicata, qui continue de fonctionner dans le même mode.

Avantages:

  • Facilité de mise en œuvre;
  • facilité de récupération de la baie en cas de panne (copie) ;
  • des performances suffisamment élevées pour les applications à forte intensité de demande.

Défauts:

  • coût élevé par unité de volume - redondance à 100 % ;
  • faible vitesse de transfert de données.

RAID 2. Baie de disques tolérante aux pannes utilisant Hamming Code ECC.

Le codage redondant utilisé dans RAID 2 est appelé code de Hamming. Le code de Hamming permet de corriger des défauts simples et de détecter des défauts doubles. Aujourd'hui, il est activement utilisé dans la technologie de codage des données dans la RAM de type ECC. Et encodage des données sur des disques magnétiques.

Dans ce cas, un exemple est présenté avec un nombre fixe de disques en raison de la lourdeur de la description (un mot de données est constitué de 4 bits, respectivement, le code ECC est de 3).

Avantages:

  • correction d'erreur rapide (« à la volée ») ;
  • vitesse de transfert de données très élevée pour les gros volumes ;
  • à mesure que le nombre de disques augmente, les frais généraux diminuent ;
  • mise en œuvre assez simple.

Défauts:

  • coût élevé avec un petit nombre de disques ;
  • faible vitesse de traitement des requêtes (ne convient pas aux systèmes orientés transactions).

RAID 3. Baie tolérante aux pannes avec transfert de données parallèle et parité (Disques de transfert parallèle avec parité)

Les données sont divisées en sous-blocs au niveau des octets et écrites simultanément sur tous les disques de la matrice sauf un, qui est utilisé pour la parité. L'utilisation de RAID 3 résout le problème de redondance élevée dans RAID 2. La plupart des disques de contrôle utilisés dans RAID niveau 2 sont nécessaires pour déterminer la position du bit défaillant. Mais cela n'est pas nécessaire, puisque la plupart des contrôleurs sont capables de déterminer quand un disque est en panne à l'aide de signaux spéciaux ou d'un codage supplémentaire des informations écrites sur le disque et utilisées pour corriger des pannes aléatoires.

Avantages:

  • vitesse de transfert de données très élevée ;
  • une panne de disque a peu d'effet sur la vitesse de la baie ;

Défauts:

  • mise en œuvre difficile ;
  • faibles performances avec des requêtes de haute intensité pour de petites données.

RAID 4. Baie de disques indépendants tolérante aux pannes avec disque de parité partagé (disques de données indépendants avec disque de parité partagé)

Les données sont décomposées au niveau du bloc. Chaque bloc de données est écrit sur un disque distinct et peut être lu séparément. La parité pour un groupe de blocs est générée en écriture et vérifiée en lecture. Le niveau RAID 4 améliore les performances des petits transferts de données grâce au parallélisme, permettant d'effectuer simultanément plusieurs accès E/S. La principale différence entre RAID 3 et 4 est que dans ce dernier, la répartition des données est effectuée au niveau du secteur plutôt qu'au niveau des bits ou des octets.

Avantages:

  • très grande vitesse de lecture de gros volumes de données ;
  • hautes performances à haute intensité de demandes de lecture de données ;
  • faible surcharge pour mettre en œuvre la redondance.

Défauts:

  • très faibles performances lors de l'écriture des données ;
  • faible vitesse de lecture de petites données avec des requêtes uniques ;
  • asymétrie de performance en lecture et en écriture.

RAID 5. Baie de disques indépendants tolérante aux pannes avec parité distribuée (disques de données indépendants avec blocs de parité distribués)

Ce niveau est similaire au RAID 4, mais contrairement au précédent, la parité est répartie de manière cyclique sur tous les disques de la matrice. Ce changement améliore les performances d'écriture de petites quantités de données sur les systèmes multitâches. Si les opérations d'écriture sont correctement planifiées, il est possible de traiter jusqu'à N/2 blocs en parallèle, où N est le nombre de disques dans le groupe.

Avantages:

  • vitesse d'enregistrement des données élevée;
  • vitesse de lecture des données assez élevée ;
  • hautes performances à haute intensité de requêtes de lecture/écriture de données ;
  • faible surcharge pour mettre en œuvre la redondance.

Défauts:

  • La vitesse de lecture des données est inférieure à celle du RAID 4 ;
  • faible vitesse de lecture/écriture de petites données avec des requêtes uniques ;
  • mise en œuvre assez complexe ;
  • récupération de données complexe.

RAID 6. Baie de disques indépendants tolérante aux pannes avec deux schémas de parité distribués indépendants (disques de données indépendants avec deux schémas de parité distribués indépendants)

Les données sont partitionnées au niveau des blocs, comme dans RAID 5, mais en plus de l'architecture précédente, un deuxième schéma est utilisé pour améliorer la tolérance aux pannes. Cette architecture est tolérante aux doubles pannes. Cependant, lors d'une écriture logique, il y a en réalité six accès au disque, ce qui augmente considérablement le temps de traitement d'une requête.

Avantages:

  • tolérance élevée aux pannes ;
  • rapidité de traitement des demandes assez élevée ;
  • frais généraux relativement faibles pour la mise en œuvre de la redondance.

Défauts:

  • mise en œuvre très complexe ;
  • récupération de données complexes ;
  • vitesse d'écriture des données très faible.

Les contrôleurs RAID modernes vous permettent de combiner différents niveaux RAID. De cette manière, il est possible de mettre en œuvre des systèmes combinant les avantages de différents niveaux, ainsi que des systèmes comportant un grand nombre de disques. Il s'agit généralement d'une combinaison de niveau zéro (suppression) et d'une sorte de niveau de tolérance aux pannes.

RAID 10. Baie tolérante aux pannes avec duplication et traitement parallèle

Cette architecture est une matrice RAID 0 dont les segments sont des matrices RAID 1. Elle combine une tolérance aux pannes et des performances très élevées.

Avantages:

  • tolérance élevée aux pannes ;
  • haute performance.

Défauts:

  • coût très élevé ;
  • mise à l'échelle limitée.

RAID 30. Baie tolérante aux pannes avec transfert de données parallèle et performances accrues.

Il s'agit d'une matrice RAID 0 dont les segments sont des matrices RAID 3. Il allie tolérance aux pannes et hautes performances. Généralement utilisé pour les applications nécessitant de gros volumes de transfert de données en série.

Avantages:

  • tolérance élevée aux pannes ;
  • haute performance.

Défauts:

  • prix élevé;
  • mise à l'échelle limitée.

RAID 50 : matrice tolérante aux pannes avec parité distribuée et performances accrues

Il s'agit d'une matrice RAID 0 dont les segments sont des matrices RAID 5. Il allie tolérance aux pannes et hautes performances pour les applications à forte intensité de requêtes et taux de transfert de données élevés.

Avantages:

  • tolérance élevée aux pannes ;
  • vitesse de transfert de données élevée;
  • grande vitesse de traitement des demandes.

Défauts:

  • prix élevé;
  • mise à l'échelle limitée.

RAID 7 : matrice tolérante aux pannes optimisée pour les performances. (Asynchronie optimisée pour des débits d'E/S élevés ainsi que des taux de transfert de données élevés). RAID 7® est une marque déposée de Storage Computer Corporation (SCC)

Pour comprendre l'architecture RAID 7, regardons ses fonctionnalités :

  1. Toutes les demandes de transfert de données sont traitées de manière asynchrone et indépendante.
  2. Toutes les opérations de lecture/écriture sont mises en cache via le bus X à haut débit.
  3. Le disque de parité peut être placé sur n'importe quel canal.
  4. Le microprocesseur du contrôleur RAID utilise un système d'exploitation en temps réel axé sur les processus de traitement.
  5. Le système a une bonne évolutivité : jusqu'à 12 interfaces hôtes et jusqu'à 48 disques.
  6. Le système d'exploitation contrôle les canaux de communication.
  7. Des disques, bus, cartes mères et modules de mémoire SCSI standard sont utilisés.
  8. Un bus X à grande vitesse est utilisé pour fonctionner avec la mémoire cache interne.
  9. La procédure de génération de parité est intégrée au cache.
  10. Les disques connectés au système peuvent être déclarés séparément.
  11. Un agent SNMP peut être utilisé pour gérer et surveiller le système.

Avantages:

  • vitesse de transfert de données élevée et vitesse de traitement des requêtes élevée (1,5 à 6 fois supérieure aux autres niveaux RAID standard) ;
  • haute évolutivité des interfaces hôtes ;
  • la vitesse d'écriture des données augmente avec le nombre de disques dans la baie ;
  • Il n'est pas nécessaire de transmettre des données supplémentaires pour calculer la parité.

Défauts:

  • propriété d'un fabricant ;
  • coût unitaire de volume très élevé ;
  • courte période de garantie;
  • ne peut pas être réparé par l'utilisateur ;
  • vous devez utiliser une alimentation sans interruption pour éviter la perte de données de la mémoire cache.

Regardons maintenant ensemble les niveaux standards pour comparer leurs caractéristiques. La comparaison est faite dans le cadre des architectures mentionnées dans le tableau.

RAIDLe minimum
disques
Besoin
dans les disques
Échec
durabilité
Vitesse
transmission de données
Intensité
traitement
demandes
Pratique
usage
0 2 N très haut
jusqu'à N x 1 disque
Graphiques, vidéo
1 2 2N* R > 1 disque
W = 1 disque
jusqu'à 2 x 1 disque
W = 1 disque
petits serveurs de fichiers
2 7 2N ~RAID3Faibleordinateurs centraux
3 3 N+1 FaibleGraphiques, vidéo
4 3 N+1 RWR = RAID 0
W
serveurs de fichiers
5 3 N+1 RWR = RAID 0
W
serveurs de base de données
6 4 N+2le plus grandfaibleR > 1 disque
W
utilisé extrêmement rarement
7 12 N+1 le plus grandle plus granddifférents types d'applications

Précisions:

  • * - l'option couramment utilisée est prise en compte ;
  • k - nombre de sous-segments ;
  • R - lecture ;
  • W - enregistrement.

Quelques aspects de la mise en œuvre des systèmes RAID

Considérons trois options principales pour la mise en œuvre des systèmes RAID :

  • logiciels (basés sur des logiciels);
  • matériel - basé sur un bus ;
  • matériel - sous-système autonome (basé sur un sous-système).

Il est impossible d’affirmer sans équivoque qu’une mise en œuvre est meilleure qu’une autre. Chaque option d'organisation d'un tableau répond aux besoins de l'un ou l'autre utilisateur, en fonction des capacités financières, du nombre d'utilisateurs et des applications utilisées.

Chacune des implémentations ci-dessus est basée sur l'exécution du code du programme. En réalité, ils diffèrent par l’endroit où ce code est exécuté : dans le processeur central de l’ordinateur (implémentation logicielle) ou dans un processeur spécialisé sur un contrôleur RAID (implémentation matérielle).

Le principal avantage de la mise en œuvre d’un logiciel est son faible coût. Mais en même temps, il présente de nombreux inconvénients : faibles performances, charge sur le processeur central avec travail supplémentaire et trafic de bus accru. Les niveaux RAID simples 0 et 1 sont généralement implémentés par logiciel, car ils ne nécessitent pas de calculs importants. Compte tenu de ces fonctionnalités, les systèmes RAID logiciels sont utilisés dans les serveurs d'entrée de gamme.

Les implémentations matérielles RAID coûtent donc plus cher que les implémentations logicielles, car elles utilisent du matériel supplémentaire pour effectuer les opérations d'E/S. Dans le même temps, ils déchargent ou libèrent le processeur central et le bus système et permettent ainsi des performances accrues.

Les implémentations orientées bus sont des contrôleurs RAID qui utilisent le bus haut débit de l'ordinateur sur lequel ils sont installés (dernièrement, le bus PCI est généralement utilisé). À leur tour, les implémentations orientées bus peuvent être divisées en bas niveau et haut niveau. Les premiers n'ont généralement pas de puces SCSI et utilisent ce que l'on appelle le port RAID de la carte mère avec un contrôleur SCSI intégré. Dans ce cas, les fonctions de traitement du code RAID et les opérations d'E/S sont réparties entre le processeur du contrôleur RAID et les puces SCSI de la carte mère. Ainsi, le processeur central est libéré du traitement de code supplémentaire et le trafic du bus est réduit par rapport à la version logicielle. Le coût de ces cartes est généralement faible, surtout si elles sont destinées aux systèmes RAID 0 ou 1 (il existe également des implémentations de RAID 3, 5, 10, 30, 50, mais elles sont plus chères), grâce à quoi elles sont progressivement remplaçant les implémentations logicielles du marché des serveurs d’entrée de gamme. Les contrôleurs de haut niveau avec implémentation de bus ont une structure légèrement différente de celle de leurs jeunes frères. Ils prennent en charge toutes les fonctions liées aux E/S et à l'exécution du code RAID. De plus, ils ne dépendent pas tellement de la mise en œuvre de la carte mère et, en règle générale, ont plus de capacités (par exemple, la possibilité de connecter un module pour stocker des informations dans un cache en cas de panne de la carte mère ou de coupure de courant) . Ces contrôleurs sont généralement plus chers que les contrôleurs bas de gamme et sont utilisés dans les serveurs milieu et haut de gamme. En règle générale, ils implémentent les niveaux RAID 0,1, 3, 5, 10, 30, 50. Étant donné que les implémentations orientées bus sont connectées directement au bus PCI interne de l'ordinateur, elles sont les plus productives parmi les systèmes considérés ( lors de l'organisation de systèmes à hôte unique). Les performances maximales de tels systèmes peuvent atteindre 132 Mo/s (PCI 32 bits) ou 264 Mo/s (PCI 64 bits) à une fréquence de bus de 33 MHz.

Outre les avantages énumérés, l'architecture orientée bus présente les inconvénients suivants :

  • dépendance vis-à-vis du système d'exploitation et de la plate-forme ;
  • évolutivité limitée ;
  • capacités limitées pour organiser des systèmes tolérants aux pannes.

Tous ces inconvénients peuvent être évités en utilisant des sous-systèmes autonomes. Ces systèmes ont une organisation externe totalement autonome et, en principe, constituent un ordinateur distinct utilisé pour organiser les systèmes de stockage d'informations. De plus, si la technologie des canaux à fibre optique se développe avec succès, les performances des systèmes autonomes ne seront en aucun cas inférieures à celles des systèmes orientés bus.

Généralement, un contrôleur externe est placé dans un rack séparé et, contrairement aux systèmes avec une organisation en bus, peut avoir un grand nombre de canaux d'entrée/sortie, y compris des canaux hôtes, ce qui permet de connecter plusieurs ordinateurs hôtes au système et d'organiser un cluster. systèmes. Dans les systèmes dotés d'un contrôleur autonome, des contrôleurs de secours automatique peuvent être implémentés.

L’un des inconvénients des systèmes autonomes est leur coût élevé.

Compte tenu de ce qui précède, nous notons que les contrôleurs autonomes sont généralement utilisés pour mettre en œuvre des systèmes de stockage de données et de cluster de haute capacité.

Matrice RAID (Redundant Array of Independent Disks) - connectant plusieurs périphériques pour augmenter les performances et/ou la fiabilité du stockage des données, en traduction - une matrice redondante de disques indépendants.

Selon la loi de Moore, la productivité actuelle augmente chaque année (c'est-à-dire que le nombre de transistors sur une puce double tous les 2 ans). Cela peut être constaté dans presque toutes les industries du matériel informatique. Les processeurs augmentent le nombre de cœurs et de transistors, tout en réduisant le processus, la RAM augmente la fréquence et la bande passante, la mémoire du disque SSD augmente la durabilité et la vitesse de lecture.

Mais les simples disques durs (HDD) n’ont pas beaucoup progressé au cours des 10 dernières années. Comme la vitesse standard était de 7 200 tr/min, elle le reste (sans tenir compte des disques durs de serveur avec des révolutions de 10 000 ou plus). On trouve encore des vitesses lentes de 5 400 tr/min sur les ordinateurs portables. Pour la plupart des utilisateurs, afin d'augmenter les performances de leur ordinateur, il sera plus pratique d'acheter un SDD, mais le prix de 1 Go d'un tel support est bien supérieur à celui d'un simple disque dur. « Comment augmenter les performances des disques sans perdre beaucoup d'argent et de volume ? Comment sauvegarder vos données ou augmenter la sécurité de vos données ? Il existe une réponse à ces questions : une matrice RAID.

Types de matrices RAID

Actuellement, les types de matrices RAID suivants existent :

RAID 0 ou "Striping"– une matrice de deux disques ou plus pour améliorer les performances globales. Le volume du raid sera total (HDD 1 + HDD 2 = Volume total), la vitesse de lecture/écriture sera plus élevée (en raison de la division de l'enregistrement sur 2 appareils), mais la fiabilité de la sécurité des informations en souffrira. Si l'un des appareils tombe en panne, toutes les informations de la matrice seront perdues.

RAID 1 ou "Miroir"– plusieurs disques se copiant pour augmenter la fiabilité. La vitesse d'écriture reste au même niveau, la vitesse de lecture augmente, la fiabilité augmente plusieurs fois (même si un appareil tombe en panne, le second fonctionnera), mais le coût de 1 gigaoctet d'informations augmente de 2 fois (si vous créez un tableau de deux disques durs).

RAID 2 est une matrice construite sur des disques pour stocker des informations et des disques de correction d'erreurs. Le nombre de disques durs pour stocker les informations est calculé à l'aide de la formule « 2^n-n-1 », où n est le nombre de corrections du disque dur. Ce type est utilisé lorsqu'il existe un grand nombre de disques durs, le nombre minimum acceptable est de 7, où 4 est destiné au stockage des informations et 3 au stockage des erreurs. L'avantage de ce type sera des performances accrues par rapport à un seul disque.

RAID 3 – se compose de disques « n-1 », où n est un disque pour stocker les blocs de parité, les autres sont des périphériques pour stocker des informations. Les informations sont divisées en morceaux plus petits que la taille du secteur (divisés en octets), bien adaptés pour travailler avec des fichiers volumineux, la vitesse de lecture des petits fichiers est très faible. Caractérisé par des performances élevées, mais une faible fiabilité et une spécialisation étroite.

RAID 4 est similaire au type 3, mais est divisé en blocs plutôt qu'en octets. Cette solution a permis de corriger la faible vitesse de lecture des petits fichiers, mais la vitesse d'écriture est restée faible.

RAID 5 et 6 - au lieu d'un disque séparé pour la corrélation des erreurs, comme dans les versions précédentes, des blocs sont utilisés, répartis uniformément sur tous les périphériques. Dans ce cas, la vitesse de lecture/écriture des informations augmente en raison de la parallélisation de l'enregistrement. L'inconvénient de ce type est la récupération à long terme des informations en cas de panne de l'un des disques. Pendant la récupération, une charge très élevée est appliquée aux autres périphériques, ce qui réduit la fiabilité et augmente la panne d'un autre périphérique ainsi que la perte de toutes les données de la baie. Le type 6 améliore la fiabilité globale mais réduit les performances.

Types combinés de matrices RAID :

RAID 01 (0+1) – Deux Raid 0 sont combinés en Raid 1.

RAID 10 (1+0) – Baies de disques RAID 1, utilisées dans l'architecture de type 0. Il est considéré comme l’option de stockage de données la plus fiable, alliant fiabilité et performances élevées.

Vous pouvez également créer un tableau à partir de disques SSD. Selon les tests de 3DNews, une telle combinaison n'apporte pas d'augmentation significative. Il est préférable d'acheter un disque avec une interface PCI ou eSATA plus puissante

Tableau Raid : comment créer

Créé en se connectant via un contrôleur RAID spécial. Il existe actuellement 3 types de contrôleurs :

  1. Logiciel – la matrice est émulée par logiciel, tous les calculs sont effectués par le CPU.
  2. Intégré – principalement courant sur les cartes mères (pas sur le segment des serveurs). Un petit éclat au passe-partout. carte chargée d'émuler la matrice, les calculs sont effectués via le CPU.
  3. Matériel – une carte d'extension (pour les ordinateurs de bureau), généralement dotée d'une interface PCI, possède sa propre mémoire et son propre processeur informatique.

Matrice de disques durs RAID : comment la créer à partir de 2 disques via IRST


Récupération de données

Quelques options de récupération de données :

  1. Si Raid 0 ou 5 échoue, l'utilitaire RAID Reconstructor peut vous aider, qui collectera les informations de disque disponibles et les réécrira sur un autre périphérique ou support sous la forme d'une image de la matrice précédente. Cette option sera utile si les disques fonctionnent correctement et que l'erreur est logicielle.
  2. Pour les systèmes Linux, mdadm recovery est utilisé (un utilitaire de gestion des baies logicielles Raid).
  3. La récupération du matériel doit être effectuée par l'intermédiaire de services spécialisés, car sans connaissance des méthodes de fonctionnement du contrôleur, vous pouvez perdre toutes les données et il sera très difficile, voire impossible, de les récupérer.

De nombreuses nuances doivent être prises en compte lors de la création d'un raid sur votre ordinateur. Fondamentalement, la plupart des options sont utilisées dans le segment des serveurs, où la stabilité et la sécurité des données sont importantes et nécessaires. Si vous avez des questions ou des ajouts, vous pouvez les laisser dans les commentaires.

Passe une bonne journée!

Comparer les performances de solutions de même niveau de prix

Un fait intéressant : ce qu'on appelle l'Experience Index dans Windows 7, qui évalue les performances des principaux sous-systèmes du PC pour un disque SSD typique, et non du plus lent (environ 200 Mo/s en lecture et en écriture), accès aléatoire - 0,1 ms) , affiche une valeur de 7,0, tandis que les indices de tous les autres sous-systèmes (processeur, mémoire, graphiques, graphiques de jeu) dans les mêmes systèmes de bureau basés sur des processeurs plus anciens (avec la capacité de mémoire DDR3-1333 moyenne actuelle de 4 Go et une même carte vidéo de jeu en moyenne comme l'AMD Radeon HD 5770) sont estimés à des valeurs nettement supérieures à 7,0 (à savoir 7,4-7,8 ; ce critère dans Windows 7 a une échelle logarithmique, donc une différence en dixièmes se traduit par dizaines de pour cent des valeurs absolues). Autrement dit, un SSD « domestique » rapide sur le bus SATA, selon Windows 7, constitue le goulot d'étranglement même dans les ordinateurs de bureau les plus haut de gamme de nos jours. Quelles devraient être les performances (exorbitantes ?) du disque système pour que le « grand et puissant » « Seven » le considère comme digne des autres composants d'un PC similaire ?.. :)

Cette question est apparemment rhétorique, puisque peu de gens se fient désormais à « l'indice d'expérience » de Windows 7 pour choisir la configuration de leur bureau. Et les SSD sont déjà fermement ancrés dans l'esprit des utilisateurs comme la seule option si vous souhaitez tirer le meilleur parti du sous-système de disque et bénéficier d'un fonctionnement confortable et « sans ralentissement ». Mais est-ce vraiment le cas ? Windows 7 est-il seul à évaluer l'utilité réelle des SSD ? Et existe-t-il une alternative aux SSD dans les ordinateurs de bureau puissants ? Surtout si vous ne voulez pas vraiment voir un vide désespéré dans votre portefeuille... Nous risquerons de vous proposer l'une des options de remplacement possibles.

Quels sont les principaux inconvénients des SSD modernes ? Si nous ne prenons pas en compte les différends « de longue date » concernant leur fiabilité, leur durabilité et leur dégradation au fil du temps, il existe en gros deux inconvénients de ce type : une petite capacité et un prix plutôt élevé. En effet, un SSD MLC moyen de 128 Go coûte désormais environ 8 000 roubles. (prix au moment de la rédaction ; bien sûr, cela dépend beaucoup du modèle, mais c'est l'ordre des prix pour l'instant). Bien sûr, ce n'est pas 600 roubles pour 1 Go, comme pour la mémoire DDR3, mais un ordre de grandeur inférieur, mais toujours pas aussi petit que pour les disques durs magnétiques traditionnels. En effet, un « sept millième » de 1 000 Go très productif avec une vitesse maximale de lecture/écriture d'environ 150 Mo/s (ce qui, soit dit en passant, n'est pas beaucoup moins qu'un SSD pour 8 000 roubles !) peut désormais être acheté pour moins cher. plus de 2000 roubles. (par exemple, Hitachi 7K1000.C ou quelque chose de coréen). Le coût unitaire d'un gigaoctet d'espace dans ce cas ne sera que de 2 (deux) roubles ! Sentez-vous la différence avec un SSD avec ses 60 roubles par gigaoctet ? ;) Et « l'écart » entre eux est-il vraiment si grand dans les applications de bureau typiques avec un grand nombre d'appels séquentiels ? Par exemple, lorsque vous travaillez avec de la vidéo, de l'audio, des graphiques, etc. Après tout, la vitesse de lecture séquentielle typique d'un SSD MLC (160-240 Mo/s) n'est pas beaucoup plus élevée que celle des 120 premiers gigaoctets d'espace pour le même « sept mille téraoctets » (150 Mo/s) Avec). Et en termes de vitesse d'écriture séquentielle, ils ont généralement une parité approximative (les mêmes 150 Mo/s contre 70-190 pour les SSD). Oui, en termes de temps d'accès aléatoire, ils sont totalement incomparables, mais nous ne construisons pas de serveur pour notre bureau.

De plus, pour un ordinateur de bureau, les mêmes 128 Go sont un volume extrêmement frivole à l'époque moderne (80 Go sont généralement ridicules). Il conviendra à peine à une ou deux partitions système avec le système d'exploitation et les applications principales. Où stocker de nombreux fichiers multimédias ? Où ranger les jouets, dont chacun peut désormais contenir entre 5 et 20 Go une fois déballé ? En bref, sans une "vis" de grande capacité normale, c'est toujours impossible. La seule question est de savoir si ce sera système ou supplémentaire dans l'ordinateur.

Et si vous l’abordiez de l’autre côté ? Puisque le PC n'existe nulle part sans disques durs (rappelez-vous la bonne vieille abréviation - disques magnétiques durs, ou simplement « disques durs »), alors ne devrions-nous pas les combiner dans une matrice RAID ? De plus, beaucoup d'entre nous ont obtenu un simple contrôleur RAID, essentiellement « gratuitement » - dans le pont sud des cartes mères équipées de chipsets AMD, Intel ou Nvidia. Par exemple, les mêmes 8 000 roubles peuvent être dépensés non pas pour un SSD, mais pour 4 « téraoctets ». Combinons-les en un ou plusieurs tableaux - vous n'aurez alors pas besoin d'acheter un disque dur de grande capacité supplémentaire pour stocker les données, c'est-à-dire que nous économiserons même de l'argent. Ou comme deuxième option - avec l'achat d'un SSD et d'un disque de 2 à 3 To, vous pouvez acheter 4 disques de 1,5 à 2 To...

De plus, disons, un RAID 0 de quatre disques aura non seulement quadruplé la capacité, mais également 4 fois la vitesse linéaire de lecture-écriture. Et cela représente déjà 400-600 Mo/s, ce que représente un seul SSD même prix je n'en avais même jamais rêvé ! Ainsi, une telle baie fonctionnera beaucoup plus rapidement qu'un SSD, du moins avec des données en streaming (lecture/écriture/édition vidéo, copie de fichiers volumineux, etc.). Il est possible que dans d'autres tâches typiques d'un ordinateur personnel, une telle matrice ne se comporte pas pire qu'un SSD - après tout, le pourcentage d'opérations séquentielles dans de telles tâches est très élevé et les accès aléatoires, en règle générale, sont effectués de manière zone assez compacte d'un lecteur aussi volumineux (fichier d'échange, fichier temporaire d'éditeur de photos, etc.), c'est-à-dire que le mouvement des têtes dans cette zone se produira beaucoup plus rapidement qu'en moyenne sur le disque - en quelques millisecondes ), ce qui aura certainement un effet positif sur ses performances. Si une matrice RAID multidisque est également mise en cache dans le système d'exploitation, vous pouvez en attendre une vitesse impressionnante dans les opérations avec de petits blocs de données.

Pour tester nos hypothèses, nous avons testé des matrices RAID 0 et RAID 5 de quatre disques de téraoctets Hitachi Deskstar E7K1000 7 200 tr/min avec une mémoire tampon de 32 Mo. Oui, ils sont un peu plus lents en termes de vitesse de plaque que les plus récents, qui sont maintenant vendus entre 1 800 et 1 900 roubles pièce. Disques Hitachi 7K1000.C de même capacité. Cependant, leur firmware est mieux optimisé pour le fonctionnement des disques dans les matrices, donc, en manquant légèrement la vitesse de lecture maximale convoitée de 600 Mo/s d'un RAID 0 à 4 disques, nous obtiendrons de meilleures performances dans les tâches avec un nombre considérable de aléatoires. accès. Et les modèles que nous avons trouvés peuvent être étendus à des matrices de modèles de disques plus rapides (et plus volumineux) de différents fabricants.

En utilisant des cartes mères basées sur des chipsets Intel avec South Bridge ICH8R/ICH9R/ICH10R (et versions ultérieures), quatre disques téraoctets, à notre avis, sont organisés de manière optimale comme suit. Grâce à la technologie Intel Matrix RAID, à partir de la première moitié du volume de chaque disque, nous réalisons une matrice RAID 0 d'une capacité de 2 To (afin qu'elle puisse être comprise par les systèmes d'exploitation inférieurs à Vista sans aucune astuce particulière), qui fournira nous avec les performances les plus élevées des partitions système, un lancement rapide des applications et des jeux, ainsi qu'une vitesse élevée de travail opérationnel avec le multimédia et d'autres contenus. Et pour un stockage plus fiable des données qui nous tiennent à cœur, nous combinerons la seconde moitié de la capacité de ces disques dans une matrice RAID 5 (d'ailleurs, c'est aussi loin des pires performances, comme nous le verrons ci-dessous) . Ainsi, pour seulement 8 000 roubles. nous obtiendrons à la fois un disque système ultra-rapide de 2 To et un volume « d'archive » fiable et volumineux de 1,5 To. C'est dans cette configuration des deux tableaux que nous avons créés avec des valeurs par défaut que nous réaliserons nos tests ultérieurs. Cependant, les non-fans particulièrement suspects de RAID5 sur les contrôleurs Intel peuvent à la place construire RAID10 avec un volume une fois et demie plus petit - ses performances en lecture de données seront inférieures à celles de RAID5, en écriture (avec mise en cache), elles sont à peu près équivalentes, mais la fiabilité et la récupérabilité des données en cas d'effondrement de la matrice seront meilleures (dans la moitié des cas, RAID10 peut être réactivé si même deux disques tombent en panne).

L'utilitaire Intel Matrix Storage Manager vous permet d'activer ou de désactiver la mise en cache en écriture sur de telles baies de disques à l'aide du système d'exploitation (c'est-à-dire en utilisant la RAM du PC), voir la troisième ligne en partant du haut dans le champ d'information de droite dans la capture d'écran :

La mise en cache peut considérablement accélérer le fonctionnement des matrices contenant de petits fichiers et blocs de données, ainsi que la vitesse d'écriture sur une matrice RAID 5 (ce qui est parfois assez critique). Par conséquent, pour plus de clarté, nous avons effectué des tests avec la mise en cache activée et désactivée. Pour référence, nous aborderons également ci-dessous la charge du processeur avec la mise en cache activée.

Nous avons effectué les tests sur un système de test représentant un ordinateur de bureau typique, pas le plus puissant des temps modernes :

  • processeur Intel Core 2 Duo E8400 (3 GHz) ;
  • 2 Go de mémoire système DDR2-800 ;
  • Carte ASUS P5Q-E basée sur le chipset Intel P45 Express avec ICH10R ;
  • Accélérateur vidéo AMD Radeon HD 5770.

Le disque système Seagate ST950042AS contenait Windows 7 x64 Ultimate et Windows XP SP3 Pro (les baies et disques testés ont été testés dans un état « propre »). Comme benchmarks, sur la base desquels nous jugerons la concurrence des SSD avec les RAID traditionnels, nous avons utilisé ATTO Disk Benchmark 2.41, Futuremark PCMark05, Futuremark PCMark Vantage x86, Intel NAS Performance Toolkit 1.7, etc. Les tests ont été effectués cinq fois. et les résultats ont été moyennés. À titre indicatif, au bas des schémas avec les résultats des tests, les données sont données pour un disque unique rapide Seagate Barracuda XT ST32000641AS d'une capacité de 2 To, c'est-à-dire la même que le « système » RAID 0 des quatre Hitachi Deskstar E7K1000. HDE721010SLA330 que nous avons testé.

Un SSD peu coûteux mais très productif avec une capacité de 128 Go et un prix (au moment de la rédaction) d'environ 8 000 roubles. protégé le modèle PNY Optima SSD 128 Go MLC. Tout d’abord, regardons-le un peu plus en détail.

SSD PNY Optima 128 Go Gen 2

Le numéro de modèle P-SSD2S128GM-CT01 (firmware 0309) est un SSD SATA typique de 2,5 pouces dans un élégant boîtier en métal noir d'une épaisseur de 9,5 mm. Son fabricant est une entreprise plus connue pour ses lecteurs flash et ses modules de mémoire.


PNJOptimaSSD 128G.B.MLC

Le disque est basé sur une mémoire flash Intel 29F64G08CAMDB avec des cellules MLC et un contrôleur JMicron JMF612, ce qui permet à ce SSD de fonctionner non seulement via Serial ATA, mais également via l'interface USB 2.0 (le mini-connecteur de cette dernière est situé à côté du Port SATA à l'arrière du boîtier de disque) .

Autrement dit, ce disque SSD peut également être utilisé comme stockage portable résistant aux chocs. Cependant, un câble USB n’est pas inclus dans le package. Mais le prix du produit ne peut pas être qualifié de trop cher.


Carte d'entraînementPNJOptimaSSD 128G.B.MLC

Le constructeur promet pour ce modèle une vitesse de lecture de 235 Mo/s et une vitesse d'écriture de 150 Mo/s (en pratique, elle s'est avérée même légèrement supérieure). Le cache disque est de 64 Mo, le support TRIM est intégré, la résistance aux chocs est indiquée à 1 500 g et la plage de température de fonctionnement est de -10 à +70°C. Le constructeur offre une garantie de 3 ans sur ce modèle avec un MTBF de 1,5 million d'heures.

À propos, il ne faut pas se tromper et considérer les SSD MLC populaires sur le contrôleur JMicron JMB612 comme des solutions « inférieures ». Comme ils le montrent, les disques de ce contrôleur ne semblent en moyenne pas pires que les SSD de capacité et de prix similaires sur les contrôleurs d'Indilinx (IDX110), Intel, SandForce (SF1222) et Samsung, les surpassant même dans un certain nombre de tests de disques.

Résultats de test

La vitesse maximale de lecture et d'écriture séquentielles des données utiles pour le SSD PNY Optima 128 Go selon les résultats du test ATTO Disk Benchmark 2.41 (écriture et lecture d'un fichier de 256 Mo par blocs de 64 Ko à 8 Mo) était de 238 et 155 Mo. /s, respectivement, qui sont légèrement supérieures à celles déclarées par le constructeur (voir schéma).

Il est curieux que le test HD Tach RW 3.0 de bas niveau, qui utilise des accès au lecteur qui contournent le système de fichiers, ait montré des valeurs de 217 et 165 Mo/s pour ces deux paramètres, respectivement (voir graphique). Quant à la paire de matrices RAID à quatre disques que nous avons testées, RAID 0 a montré une vitesse maximale de lecture/écriture de gros fichiers de 450 Mo/s (cela est confirmé par le graphique HD Tach RW 3.0), soit deux à trois fois plus rapide. que ce SSD ! Certes, l'activation de la mise en cache d'écriture (WC=oui dans les diagrammes) à l'aide des outils Windows réduit quelque peu la vitesse d'écriture séquentielle, ainsi que la vitesse de lecture, mais ce n'est pas si critique que cela puisse être considéré comme inacceptable.

Quant au RAID 5, organisé sur la seconde moitié de nos disques durs testés, la vitesse maximale de lecture séquentielle de cette matrice dépasse 270 Mo/s (ce qui est sensiblement supérieur à celle de n'importe quel disque dur magnétique moderne !), et la vitesse d'écriture séquentielle radicalement dépend de la mise en cache dans Windows : sans elle, elle atteint à peine un débit totalement inacceptable de 40 à 50 Mo/s, alors qu'avec elle, elle fait plus que tripler (voir aussi le graphique HD Tach RW 3.0), bien qu'elle n'atteigne toujours pas ce niveau lors de la lecture du RAID 5, comme il l'a fait avec RAID 0. Mais dans tous les cas, ici notre RAID 5 fonctionne sensiblement plus rapidement qu'un seul Seagate Barracuda XT « sept mille ».

Un autre avantage important de la mise en cache des baies de disques Windows est l'accélération considérable du travail avec des fichiers et des blocs de données de petite taille (moins de 64 Ko). Cela ressort clairement des résultats du test ATTO Disk Benchmark 2.41 (les colonnes verticales de gauche indiquent la taille du bloc de données en Ko ; les colonnes de droite indiquent les valeurs de vitesse en Ko/s).


RAID 0 sans mise en cache


RAID 0 avec mise en cache


RAID 5 sans mise en cache


RAID 5 avec mise en cache

Comme vous pouvez le constater, cela accélère le travail non seulement lors de l'écriture, mais également lors de la lecture. En général, l'utilisation de la mise en cache de tableau dans le système d'exploitation est en fait une condition préalable si vous souhaitez obtenir de bonnes performances non seulement avec les données en streaming, mais également dans tout le reste (par exemple, en tant que disque système).

Le fonctionnement des opérations de mise en cache avec RAID via la RAM de l'ordinateur (tant en lecture qu'en écriture) est clairement démontré par le schéma suivant, que nous présentons habituellement comme illustration de la vitesse de l'interface disque (SATA, SAS, etc.).

Une vitesse de lecture tamponnée de 3 à 5 Go/s est une valeur du même ordre de grandeur que la bande passante de la mémoire système dans un PC comme notre test. Le bus DMI, à travers lequel le pont sud des chipsets Intel communique avec le système, a un potentiel bien inférieur, essentiellement égal au bus PCI Express x4 de première génération (soit 1 Go/s dans un sens). La deuxième conclusion utile de ce diagramme est que pour les matrices RAID (même sans mise en cache), la vitesse de transfert des données sur le bus (plusieurs bus SATA) de l'hôte vers les disques augmente conditionnellement proportionnellement au nombre de disques dans la matrice. Et pour le RAID 0 par exemple, la vitesse d'échange de données avec un seul SSD sur le bus SATA est plusieurs fois supérieure. La conclusion, en général, est assez évidente.

À propos, le temps moyen d'accès aléatoire aux tableaux (petits blocs) lors de la lecture ne dépend pas de la mise en cache Windows, mais lors de l'écriture, il change de manière significative (voir schéma). De plus, pour le RAID 5 (logiciel) le plus simple sans mise en cache, sa taille est indécente.

Quant à la question de la charge supplémentaire sur le processeur due à la mise en cache, elle existe certainement, mais pour les ordinateurs de bureau plus ou moins modernes, elle ne peut pas être qualifiée de trop lourde. Jetons un coup d'œil aux graphiques de charge du processeur lors de l'exécution du même test ATTO :

RAID0
RAID5
Graphiques d'utilisation du processeur sans mise en cache RAID

Pour RAID 0 et RAID 5, la charge du processeur lors de la lecture et de l'écriture sans mise en cache RAID Windows est de quelques pour cent. Si la mise en cache est activée, sur les petits blocs, la charge du processeur augmente jusqu'à des dizaines de pour cent, dépassant parfois 50 % (parties gauche des graphiques ci-dessous).

RAID0

RAID5
Graphiques de charge CPU avec mise en cache RAID

Il est intéressant de noter que pour RAID 5, la charge sur le processeur est légèrement inférieure à celle pour RAID 0 - apparemment, la vitesse de lecture/écriture plus élevée pour le deuxième cas l'affecte. De plus, à mesure que la taille des blocs de données augmente, la charge du processeur diminue, se rapprochant de celle de la mise en cache désactivée pour les blocs de 64 Ko et plus. Bien entendu, ce n’est qu’une estimation, une illustration de la question. Cet aspect pourrait être étudié de manière plus approfondie, sous sa « forme pure ». Mais dans ce cas, ce n'est pas pour nous le but de l'article, puisque la question qui nous intéresse ici est de savoir quelles sont les performances des disques.

Nous avons notamment évalué ces derniers à l'aide de tests complexes simulant le fonctionnement de diverses tâches sous Windows - PCMark Vantage, PCMark05 et Intel NAS Performance Toolkit. Les résultats détaillés pour chaque modèle de ces tests sont donnés dans le tableau général. Et dans le corps de l'article nous ne présenterons que des schémas finaux qui donnent une idée des performances moyennes des disques sous Windows.

Dans le test PCMark05, ce modèle SSD est moins de deux fois plus rapide qu'un RAID 0 à 4 disques. Oui, c’est un avantage notable, mais pas aussi fatal que par rapport à un seul disque dur. Il est curieux que cet avantage ne soit obtenu que dans trois modèles PCMark05 sur cinq (principalement lors du démarrage de Windows et des applications), alors que dans le modèle Virus Scan, notre RAID 0 est 10 % plus rapide que le SSD, et dans le modèle File Write, il est généralement plus rapide que le SSD, plus de trois fois !

La mise en cache des baies augmente leurs performances dans ce benchmark d'environ une fois et demie, bien qu'un seul Seagate Barracuda XT soit encore légèrement plus rapide que le RAID 5 testé ici. Cependant, nous ne vous suggérons pas d'utiliser ce RAID 5 pour les partitions principales du système. et exécuter des applications. ;) Mais lors de l'écriture de fichiers sur ce volume « archive » (modèle File Write), sa vitesse est nettement supérieure à celle d'un seul disque.

Dans le test le plus récent de PCMark Vantage sous Windows 7, l'avantage des SSD sur nos baies est écrasant (au moins trois fois en moyenne). Evidemment, les modèles de ce benchmark fonctionnent très activement avec un accès pseudo-aléatoire aux disques, dans lequel les SSD n'ont pas de concurrence.

Cependant, l'analyse des résultats par modèles (voir tableau) montre que "il ne s'agit pas uniquement de Maslenitsa" - dans un certain nombre de tâches, notre RAID 0 n'a pas seulement une vitesse similaire à celle du SSD (Movie Maker, c'est-à-dire le montage vidéo) , mais peut aussi le surperformer largement (Media Center). Ainsi, au moins pour un media center, la baie est plus rentable qu'un SSD (cela s'applique également à sa capacité beaucoup plus grande). La mise en cache ici ajoute également 20 à 30 % aux performances moyennes des baies, ce qui rend même le RAID logiciel 5 assez compétitif par rapport à un seul système haut de gamme de « deux téraoctets ».

Dans le test le plus récent et, à notre avis, plus réaliste, le Intel NAS Performance Toolkit, qui utilise une philosophie d'analyse comparative légèrement différente de celle du PCMark « piste », à savoir un travail direct avec le système de fichiers du lecteur testé, plutôt que lecture de commandes d'accès au disque préenregistrées (sur un autre système) dans un fichier temporaire créé précédemment - la situation est encore plus favorable pour le RAID multidisque. En moyenne, notre RAID 0 est en avance sur le SSD non seulement avec le cache (une fois et demie !), mais aussi sans ! Et le logiciel « archive » RAID 5 avec mise en cache s'avère plus rapide qu'un seul disque Barracuda XT.

En y regardant de plus près (voir tableau), il s'avère que dans 10 modèles sur 12, le RAID 0 mis en cache est plus rapide que le SSD ! Cela s'applique au travail avec la vidéo, à la création de contenu, au travail de bureau, au traitement de photos (album photo) et à la copie de fichiers. Ce n'est qu'avec la lecture vidéo à 4 flux et la copie d'un répertoire contenant de nombreux fichiers à partir du disque que le disque SSD a surpassé le RAID 0 des disques durs traditionnels. Sur cette note optimiste, passons à la conclusion.

Conclusion

En fait, tout a déjà été dit plus haut. Avec le bon choix de disques durs traditionnels sur plaques magnétiques, leurs matrices de 4 disques sont tout à fait capables de rivaliser avec les performances dans les tâches typiques d'un ordinateur de bureau équipé d'un seul SSD. même coût! De plus, au prix d'un gigaoctet d'espace et en termes de capacité, de telles baies sont incomparablement plus rentables que les disques SSD. Et la capacité (dans le cas des chipsets Intel) simultanément avec le RAID 0 rapide de créer sur une partie de l'espace disque dur également une grande « archive » protégée RAID 5 pour stocker les données les plus importantes n'a pas d'analogue parmi les SSD dont le prix est adéquat. Donc, c'est à toi de choisir. N'oubliez pas d'activer la mise en cache des matrices RAID à l'aide de l'utilitaire Windows approprié. Sans cela, le plaisir d'utiliser une solution productive, volumineuse et économique sur votre bureau sera incomplet.

Et quelques remarques supplémentaires concernant la consommation d'énergie et la fiabilité de ces solutions. Bien entendu, la consommation de 0,5 à 3 W d'un SSD ne peut être comparée à la consommation électrique de 20 à 40 W d'une matrice de quatre disques durs. Cependant, nous ne considérons pas un ordinateur portable/nettop, mais un ordinateur de bureau à part entière (sinon, en fait, il n'est pas nécessaire de clôturer un tel RAID). La consommation doit donc être évaluée au total. Et dans le contexte de la gourmandise bien plus grande des processeurs de bureau typiques (100-200 W avec la carte mère) et de la carte vidéo (50-300 W), quelques dizaines de watts supplémentaires pour les lecteurs ne semblent pas du tout inutiles (seulement un une personne paranoïaque compterait les kilowattheures supplémentaires sur son compteur électrique domestique :)). De plus, si l'on tient compte du fait que vous devrez quand même acheter un ou deux disques durs pour le SSD (pour estimer : 20 W · 8 heures · 30 jours = 4,8 kWh, soit un maximum de 15-20 roubles supplémentaires pour l'électricité par mois). Quant à la fiabilité des deux solutions, vous pouvez trouver de nombreuses plaintes concernant les SSD, le RAID sur les contrôleurs de chipset et même les disques durs sur Internet, bien que les fabricants leur promettent un MTBF d'un million d'heures. Par conséquent, dans tous les cas, la meilleure protection contre la perte de données est leur sauvegarde régulière sur des supports indépendants. Et cela ne doit jamais être oublié.

Pour une collation - un diagramme faisant la moyenne géométrique des performances (en Mo/s) des disques testés pour les 26 modèles de test PCMark05 (5 modèles), PCMark Vantage x86 (7 modèles), Intel NAS Performance Toolkit (12 modèles) et lecture/ écriture de fichiers volumineux dans ATTO Disk Benchmark (2 modèles). Observez et réfléchissez. ;)

Les matrices RAID ont été développées pour améliorer la fiabilité du stockage des données, augmenter la vitesse de traitement et offrir la possibilité de combiner plusieurs disques en un seul grand. Différents types de RAID résolvent différents problèmes ; nous examinerons ici plusieurs des configurations les plus courantes de matrices RAID de même taille.



RAID0

  • RAID0(Bande). Le mode qui atteint des performances maximales. Les données sont réparties uniformément sur les disques de la matrice et combinées en un seul, qui peut être divisé en plusieurs. Les opérations de lecture et d'écriture distribuées peuvent augmenter considérablement la vitesse de fonctionnement, puisque plusieurs lisent/écrivent simultanément leur portion de données. L'intégralité du volume est disponible pour l'utilisateur, mais cela réduit la fiabilité du stockage des données, car si l'un des disques tombe en panne, la matrice est généralement détruite et il est presque impossible de restaurer les données. Champ d'application - applications nécessitant des vitesses d'échange élevées avec le disque, par exemple capture vidéo, montage vidéo. Recommandé pour une utilisation avec des disques hautement fiables.

    RAID1
  • RAID1(Miroir). Plusieurs disques (généralement 2), travaillant de manière synchrone pour l'enregistrement, c'est-à-dire se dupliquant complètement. L'amélioration des performances se produit uniquement lors de la lecture. Le moyen le plus fiable de protéger les informations contre la défaillance de l'un des disques. En raison de son coût élevé, il est généralement utilisé pour stocker des données très importantes. Le coût élevé est dû au fait que seule la moitié de la capacité totale est disponible pour l'utilisateur.

    RAID10
  • RAID10, aussi parfois appelé RAID1+0- une combinaison des deux premières options. (Matrice RAID0 à partir de matrices RAID1). Il présente tous les avantages de vitesse du RAID0 et l'avantage de fiabilité du RAID1, tout en conservant l'inconvénient du coût élevé de la matrice de disques, puisque la capacité effective de la matrice est égale à la moitié de la capacité des disques qui y sont utilisés. Pour créer une telle baie, un minimum de 4 disques est requis. (Dans ce cas, leur nombre doit être pair).
  • RAID0+1- Matrice RAID1 à partir de matrices RAID0. En fait, il n'est pas utilisé en raison du manque d'avantages par rapport au RAID10 et d'une moindre tolérance aux pannes.

    RAID1E
  • RAID1E- Une option similaire à RAID10 pour distribuer les données sur les disques, permettant l'utilisation d'un nombre impair (nombre minimum - 3)
  • RAID2, 3, 4- diverses options de stockage de données distribué avec des disques alloués pour des codes de parité et différentes tailles de blocs. Actuellement, ils ne sont pratiquement pas utilisés en raison de leurs faibles performances et de la nécessité d'allouer une grande capacité disque pour stocker les codes ECC et/ou de parité.


    RAID5
  • RAID5- une matrice qui utilise également un stockage de données distribué similaire au RAID 0 (et combinant en un seul grand logique) + un stockage distribué de codes de parité pour la récupération des données en cas de panne. Par rapport aux configurations précédentes, la taille du bloc Stripe a encore été augmentée. La lecture et l'écriture simultanées sont possibles. L'avantage de cette option est que la capacité de la matrice disponible pour l'utilisateur est réduite de la capacité d'un seul disque, bien que la fiabilité du stockage des données soit inférieure à celle du RAID 1. En fait, il s'agit d'un compromis entre RAID0 et RAID1, offrant une vitesse de fonctionnement assez élevée avec une bonne fiabilité de stockage des données . Si un disque de la matrice tombe en panne, les données peuvent être restaurées automatiquement sans perte. Le nombre minimum de disques pour une telle baie est de 3.
    Les implémentations « logicielles » de RAID5, intégrées aux ponts sud des cartes mères, n'ont pas des vitesses d'écriture élevées, elles ne conviennent donc pas à toutes les applications.


    RAID5EE
  • RAID5EE- une matrice similaire à RAID5, cependant, en plus du stockage distribué des codes de parité, la répartition des zones de réserve est utilisée - en fait, elle est utilisée, qui peut être ajoutée à la matrice RAID5 en tant que réserve (ces matrices sont appelées 5 + ou 5+de rechange). Dans une matrice RAID 5, le disque de sauvegarde est inactif jusqu'à ce que l'un des principaux tombe en panne, tandis que dans une matrice RAID 5EE, ce disque est utilisé en permanence avec le reste des disques durs, ce qui a un effet positif sur les performances du tableau. Par exemple, une matrice RAID5EE de 5 disques durs sera capable d'effectuer 25 % d'opérations d'E/S en plus par seconde qu'une matrice RAID5 de 4 disques durs principaux et un de secours. Le nombre minimum de disques pour une telle baie est de 4.


    RAID6
  • RAID6- un analogue de RAID5 avec un niveau élevé de redondance - les informations ne sont pas perdues en cas de panne de deux disques ; par conséquent, la capacité totale de la matrice est réduite de la capacité de deux disques. Le nombre minimum de disques requis pour créer une matrice de ce niveau est de 4. La vitesse de fonctionnement dans le cas général est approximativement la même que celle de RAID5. Recommandé pour les applications où la plus grande fiabilité possible est importante.


    RAID50
  • RAID50- combiner deux (ou plus, mais ceci est extrêmement rarement utilisé) matrices RAID5 dans une bande, c'est-à-dire une combinaison de RAID5 et RAID0, qui corrige partiellement le principal inconvénient de RAID5 - la faible vitesse d'écriture des données due à l'utilisation parallèle de plusieurs de ces matrices. La capacité totale de la matrice est réduite de la capacité de deux, mais, contrairement à RAID6, une telle matrice peut résister à la panne d'un seul disque sans perte de données, et le nombre minimum de disques requis pour créer une matrice RAID50 est de 6. avec RAID10, il s'agit du niveau RAID le plus recommandé pour une utilisation dans les applications où des performances élevées combinées à une fiabilité acceptable sont requises.


    RAID60
  • RAID60- combiner deux matrices RAID6 dans une bande. La vitesse d'écriture est environ doublée par rapport à la vitesse d'écriture en RAID6. Le nombre minimum de disques pour créer une telle matrice est de 8. Les informations ne sont pas perdues en cas de panne de deux disques de chaque matrice RAID 6.
  • RAID matriciel- une technologie mise en œuvre par Intel dans ses ponts sud, à commencer par ICH6R, qui permet d'organiser plusieurs baies RAID0 et RAID1 sur seulement deux disques, tout en créant simultanément des partitions avec à la fois une vitesse de fonctionnement accrue et une fiabilité de stockage des données accrue.
  • JBOD(De l'anglais "Just a Bunch Of Disks") - combinaison séquentielle de plusieurs disques physiques en un seul logique, ce qui n'affecte pas les performances (la fiabilité chute de la même manière que RAID0) et peut avoir des tailles différentes. Actuellement pratiquement inutilisé.
  • Si vous souhaitez doubler les performances de votre système d’exploitation, alors notre article est fait pour vous !

    Quelle que soit la puissance de votre ordinateur, il possède toujours un maillon faible : le disque dur, le seul périphérique de l'unité centrale doté d'une mécanique à l'intérieur. Toute la puissance de votre processeur et de 16 Go de RAM sera annulée par le principe de fonctionnement obsolète d'un disque dur classique. Ce n’est pas pour rien qu’un ordinateur est comparé à une bouteille et un disque dur au goulot. Quelle que soit la quantité d’eau contenue dans la bouteille, elle s’écoulera par un col étroit.

    Il existe deux manières connues d'accélérer votre ordinateur, la première consiste à acheter un disque SSD coûteux et la seconde consiste à tirer le meilleur parti des capacités de votre carte mère, à savoir configurer une matrice RAID 0 de deux disques durs. disques. Au fait, qui nous empêche de créer Matrice RAID 0 de deux SSD !

    Comment configurer une matrice RAID 0 et y installer Windows 10. Ou comment doubler les performances d'un système de disque

    Comme vous l'avez deviné, l'article d'aujourd'hui porte sur la création et la configuration d'une baie de disques. RAID 0 composé à partir de deux disques durs. Je l'ai conçu il y a plusieurs années et j'ai spécialement acheté deux nouveaux disques durs SATA III (6 Gb/s) de 250 Go, mais en raison de la complexité de ce sujet pour les utilisateurs novices, j'ai dû le reporter à ce moment-là. Aujourd'hui, alors que les capacités des cartes mères modernes ont atteint un tel niveau de fonctionnalité que même un débutant peut créer une matrice RAID 0, je reviens sur ce sujet avec grand plaisir.

    Remarque : Pour créer une matrice RAID 0, vous pouvez prendre des disques de n'importe quelle taille, par exemple 1 To. Dans l'article, pour un exemple simple, deux disques de 250 Go ont été pris, car il n'y avait pas de disques libres de taille différente à portée de main.

    Il est important pour tous les passionnés d'informatique de savoir que le RAID 0 (« striping » ou « striping ») est une matrice de disques de deux disques durs ou plus sans redondance. Cette phrase peut être traduite en russe ordinaire comme suit : lors de l'installation de deux disques durs ou plus dans une unité centrale (de préférence de la même taille et du même fabricant) et de leur combinaison dans une matrice de disques RAID 0, les informations sur ces disques sont écrites. /read simultanément, ce qui double les performances du disque. La seule condition est que votre carte mère prenne en charge la technologie RAID 0 (de nos jours, presque toutes les cartes mères prennent en charge la création de matrices RAID).

    Un lecteur attentif pourrait se demander : « Qu’est-ce que le manque de redondance ? »

    Répondre. La technologie de virtualisation des données RAID est conçue principalement pour la sécurité des données et commence par offrir une double fiabilité (les données sont écrites sur deux disques durs en parallèle et si un disque dur tombe en panne, toutes les informations restent en sécurité sur l'autre disque dur). Ainsi, la technologie RAID 0 n'écrit pas les données en parallèle sur deux disques durs ; RAID 0 divise les informations en blocs de données lors de l'écriture et les écrit simultanément sur plusieurs disques durs, de ce fait, les performances des opérations de disque doublent, mais si un disque dur le lecteur tombe en panne, le disque, toutes les informations sur le deuxième disque dur sont perdues.

    C'est pourquoi les créateurs de la technologie de virtualisation RAID, Randy Katz et David Patterson, n'ont pas considéré le RAID 0 comme un niveau RAID et l'ont appelé « 0 », car il n'est pas sécurisé en raison du manque de redondance.

    Amis, mais vous devez admettre que les disques durs ne tombent pas en panne tous les jours, et deuxièmement, avec deux disques durs combinés dans une matrice RAID 0, vous pouvez travailler comme un simple disque dur, c'est-à-dire que si vous créez périodiquement un système d'exploitation, vous vous assurera à 100% contre d'éventuels problèmes.

    Donc, avant de créer une matrice RAID 0, je suggère d'installer l'un de nos deux nouveaux disques dursSATA III (6 Gb/s) dans l'unité centrale et vérifiez sa vitesse de lecture-écriture avec les utilitairesCrystalDiskMark et ATTO Disk Benchmark. Après la créationNous allons vérifier à nouveau la matrice RAID 0 et l'installation de Windows 10 dessustestez la vitesse de lecture/écriture en utilisant les mêmes utilitaires et voyez si cette technologie augmentera réellement les performances de notre système d'exploitation.

    Pour mener l'expérience, nous prendrons une carte mère ASUS P8Z77-V PRO loin d'être nouvelle, construite sur le chipset Intel Z77 Express. Les avantages des cartes mères construites sur les chipsets Intel Z77, Z87 et plus récents H87, B87 résident dans la technologie avancée Intel Rapid Storage (RST), spécialement conçue pour les matrices RAID 0, même à partir de SSD.

    Pour l'avenir, je dirai que les résultats des tests sont tout à fait normaux pour un disque dur ordinaire doté de l'interface la plus moderne. SATAIII.

    Marque CrystalDisk

    C'est le programme le plus ancien pour tester les performances des disques durs, vous pouvez le télécharger sur mon stockage cloud, lien https://cloud.mail.ru/public/6kHF/edWWJwfxa

    Le programme effectue un test de lecture/écriture aléatoire et séquentielle sur le disque dur par blocs de 512 et 4 Ko.

    Sélectionnez le lecteur souhaité, par exemple notre disque dur sous la lettre C : et cliquez sur Tout.

    Le résultat final. La vitesse maximale d'écriture des informations sur le disque dur a atteint 104 Mo/s, la vitesse de lecture - 125 Mo/s.

    Évaluation du disque ATTO

    Le résultat final. La vitesse maximale d'écriture des informations sur un disque dur atteinte 119 Mb/s, vitesse de lecture - 121 Mb/s.

    Eh bien, maintenant nous configurons notre matrice RAID 0 dans le BIOS et y installons le système d'exploitation Windows 10.

    Configuration d'une matrice RAID 0

    Nous connectons deux disques durs SATA III identiques (250 Go) à notre carte mère : WDC WD2500AAKX-00ERMA0 et WDC WD2500AAKX-001CA0.

    Notre carte mère dispose de 4 ports SATA III (6 Gbit/s), nous utiliserons le n°5 et le n°6


    Allumez l'ordinateur et entrez dans le BIOS en appuyant sur la touche DEL pendant le démarrage.

    Accédez à l'onglet Avancé, option Configuration SATA.

    Définissez l'option de sélection du mode SATA sur RAID

    Pour enregistrer les modifications, appuyez sur F10 et sélectionnez Oui. Un redémarrage est en cours.

    Si vous avez activé la technologie RAID dans le BIOS, au prochain démarrage, l'écran du moniteur vous demandera d'appuyer sur le raccourci clavier ( CTRL-I), pour accéder au panneau de configuration de configuration RAID.

    Cette fenêtre affiche également nos disques durs WDC connectés aux ports 4 et 5, qui ne sont pas encore dans une matrice RAID (Non-RAID Disk). Appuyez sur CTRL-I et entrez dans le panneau des paramètres.


    Dans la fenêtre initiale du panneau, nous avons besoin du premier onglet Créer un volume RAID ; pour y accéder, appuyez sur Entrée.

    Nous effectuons ici les réglages de base de notre future matrice RAID 0.

    Nom : (nom de la baie RAID).

    Appuyez sur la barre d'espace et entrez un nom.

    Laissez-le être « RAID 0 nouveau » et appuyez sur Entrée. Descendez à l’aide de la touche Tab.

    Niveau RAID : (Niveau RAID).

    Nous créons RAID 0 (stripe) - matrice de disques de deux disques durs sans redondance. Sélectionnez ce niveau à l'aide des touches fléchées de votre clavier et appuyez sur Entrée.

    Faites défiler vers le bas à l’aide de la touche Tab.

    Taille des rayures :

    Laissons-le tel quel.

    Capacité : (volume)

    Réglé automatiquement. La capacité de nos deux disques durs est de 500 Go, puisque nous utilisons le niveau RAID 0 (stripe) et que nos deux disques durs fonctionnent comme un seul. Cliquez sur Entrée.

    Nous ne changeons rien d'autre et passons au dernier élément Créer un volume et appuyons sur Entrée.

    Un avertissement apparaît :

    AVERTISSEMENT : TOUTES LES DONNÉES SUR LES DISQUES SÉLECTIONNÉS SERONT PERDUES.

    Êtes-vous sûr de vouloir créer ce volume ? (O/N) :

    AVERTISSEMENT : TOUTES LES DONNÉES sur les lecteurs sélectionnés seront perdues.

    Êtes-vous sûr de vouloir créer ce volume ? (O/N) :

    Appuyez sur Y (Oui) sur le clavier.

    La matrice RAID 0 a été créée et fonctionne déjà, avec l'état Normal. Pour quitter le panneau des paramètres, appuyez sur la touche Échap de votre clavier.

    Etes-vous sûr de vouloir quitter ? Appuyez sur Y (Oui). Un redémarrage se produit.

    Désormais, chaque fois que vous démarrez l'ordinateur, des informations sur l'état de notre matrice RAID 0 apparaîtront sur l'écran du moniteur pendant quelques secondes et une invitation à appuyer sur la combinaison de touches (CTRL-I) pour accéder au panneau de configuration de configuration RAID.

    Installation de Windows 10 sur une matrice RAID 0

    Nous le connectons à notre unité centrale, redémarrons l'ordinateur, entrons dans le BIOS et modifions la priorité de démarrage sur le lecteur flash. Ou vous pouvez simplement accéder au menu de démarrage de l'ordinateur et sélectionner le démarrage à partir du lecteur flash d'installation de Windows 10 (dans notre cas, Kingston). Dans le menu de démarrage, vous pouvez voir la matrice RAID 0 que nous avons créée avec le nom « RAID 0 new ».