Réseaux électriques et pannes de courant. Comment ça fonctionne? Modèles actuels de filtres-extenseurs réseau

  • retirer le support du lecteur (pour plus d'informations à ce sujet, voir ci-dessous) ;
  • appuyer sur le bouton RESET par un utilisateur impatient ;
  • panne matérielle fatale ;
  • une panne matérielle qui n'était pas fatale en soi, mais le système n'a pas pu récupérer correctement, entraînant sa destruction ;
  • destruction du système en raison de problèmes purement logiciels.

En pratique, il est souvent difficile de tracer des limites entre les trois derniers types d’échecs. Un exemple est le problème décrit dans la Section. Communication avec le processus utilisateur. Dans les systèmes de classe DOS, la dernière raison se produit très souvent, donc dans de tels systèmes, seuls des systèmes de fichiers tolérants aux pannes peuvent être utilisés.
Dans les systèmes de classe OS, les blocages « spontanés » se produisent beaucoup moins fréquemment. Un système qui se bloque pour des raisons inconnues ou inévitables une fois tous les quelques jours est considéré comme impropre à une utilisation sérieuse, et celui qui le fait une fois par mois est étrangement peu fiable. Par conséquent, dans de tels systèmes, on peut s'offrir le luxe d'utiliser des systèmes de fichiers tolérants aux pannes. De plus, ces systèmes ont généralement des performances supérieures à celles des systèmes de fichiers stables.
De plus, avant d'arrêter un système intégré au réseau, tous les clients et tous les serveurs doivent être informés de la déconnexion. Seule une machine purement client peut être déconnectée du réseau sans problème. Par conséquent, sur les serveurs réseau, une procédure d’arrêt du système est dans tous les cas nécessaire. Alors pourquoi ne pas attribuer également à cette procédure la fonction de démontage du FS ?
Dans les systèmes en temps réel, qui, en raison de la nature de leur travail, peuvent redémarrer souvent et de manière inattendue, par exemple lors du débogage de pilotes ou de programmes accédant au matériel, ils essaient d'utiliser FS résistant aux pannes.
Bien que la première des raisons énumérées ci-dessus - retirer le support du lecteur - ne soit pas un « échec », même au sens le plus large du terme, du point de vue du FS, ce n'est pas très différent d'un échec. Par conséquent, seuls les fichiers stables peuvent être utilisés sur des supports amovibles, tels que des disquettes.
Une approche alternative intéressante est utilisée sur les ordinateurs Macintosh et certains postes de travail. Ces machines ont un lecteur de disquette qui n'a pas de bouton d'éjection de disquette. L'éjection d'une disquette s'effectue par programme en envoyant la commande appropriée au lecteur de disque. Avant d'émettre une telle commande, le système d'exploitation peut effectuer un démontage normal du système de fichiers sur le disque en cours de suppression.
Au sens étroit du terme « résilience », cela signifie simplement que le système de fichiers n'a pas nécessairement besoin d'être restauré après un redémarrage d'urgence. De tels systèmes de fichiers garantissent l'intégrité de leurs propres structures de données en cas de panne, mais ne garantissent généralement pas l'intégrité des données utilisateur contenues dans les fichiers.
Il est à noter que même si le FS est considéré comme stable en ce sens, certaines pannes peuvent s'avérer dangereuses pour lui. Par exemple, si vous exécutez la commande DISKOPT sur un système de fichiers FAT « persistant » et que vous appuyez sur le bouton RESET au bon moment, une partie importante des données sur le disque peut être perdue à jamais.
En revanche, on peut parler de stabilité dans le sens où l'intégrité des données utilisateur est garantie dans le FS après une panne. Assez analyse simple veiller à ce qu'une telle garantie ne puisse pas être fournie au niveau FS ; Garantir une telle intégrité impose de sérieuses restrictions aux programmes qui fonctionnent avec des données, et s'avère parfois tout simplement impossible.
Un exemple typique et très simple : l'archiveur InfoZip travaille à la création d'une archive. Le programme a généré l'en-tête du fichier, a compressé et écrit environ 50 % des données sur le disque, et à ce moment-là, il s'est écrasé. Dans les archives zip, le répertoire se trouve à la fin du fichier d'archive et y est écrit une fois que toutes les données ont été regroupées. Un fichier zip coupé à un emplacement aléatoire ne contient pas de répertoire et est donc bien entendu désespérément corrompu. Par conséquent, lorsqu'ils discutent sérieusement du problème de la tolérance aux pannes, ils ne parlent pas de garantir l'intégrité des données des utilisateurs, mais de réduire le risque de corruption.
Le maintien de l'intégrité des structures du système de fichiers est généralement bien plus important que l'intégrité des données utilisateur qui n'étaient pas écrites au moment de la panne. Le fait est que si le fichier en cours de création s'avère corrompu lors d'une panne, c'est assez désagréable ; si le système de fichiers s'avère corrompu, dans le pire des cas, cela peut entraîner la perte de toutes les données du disque, c'est-à-dire un désastre. Par conséquent, une attention beaucoup plus grande est généralement accordée à la garantie de l'intégrité du système de fichiers en cas de panne.
La résistance « innée » évoquée ci-dessus aux pannes de fichiers Systèmes FAT s'explique par le fait que dans ce système de fichiers, la suppression d'un bloc de la liste libre et son allocation à un fichier se font en une seule action - la modification de l'élément FAT (Fig. 11.16). Par conséquent, si au cours de cette procédure une panne se produit ou si la disquette est retirée du lecteur, alors rien de grave ne se produira : vous vous retrouverez simplement avec un fichier qui se voit attribuer un bloc de plus que sa longueur enregistrée dans le répertoire. Lors de l'effacement de ce fichier, tous ses blocs seront marqués comme libres, il n'y a donc pratiquement aucun mal.

Riz. 11.16. Modification de la graisse

Il convient de noter qu'avec l'utilisation active de l'écriture différée, FAT et les systèmes de fichiers associés perdent cet avantage. L'écriture FAT paresseuse est le seul moyen d'obtenir des performances acceptables à partir d'un système de fichiers doté d'une FAT 32 bits. Par conséquent, bien que Novell NetWare utilise un système de fichiers basé sur FAT 32 bits, après un redémarrage d'urgence, ce système est obligé de lancer un programme de récupération d'urgence des volumes de disque. FAT3 se comporte-t-il de la même manière ? Si le système stocke une liste ou une carte de blocs libres à un endroit et à un autre endroit des listes de blocs alloués à chaque fichier (Fig. 11.17) comme le font HPFS ou le FS des systèmes de la famille Unix, alors si l'opération d'allocation d'espace est interrompue au mauvais moment, il peut s'agir soit de blocs perdus (si nous supprimons d'abord un bloc de la liste des blocs libres - Fig. 11.18), soit d'obtenir des blocs qui sont considérés à la fois comme libres et occupés (si nous allouons d'abord un bloc bloquer dans un fichier).
La première situation est assez désagréable, mais la seconde est tout simplement inacceptable : le tout premier fichier créé après le redémarrage du système « croisera » celui endommagé (Fig. 11.19). Par conséquent, tous les systèmes d'exploitation qui utilisent des systèmes de fichiers de ce type (systèmes de la famille Unix, OS/2, Windows NT, etc.), après un redémarrage d'urgence, vérifient d'abord le swap FS avec le programme de récupération approprié.

Riz. 11.17. Modification des structures de données complexes du système de fichiers

Riz. 11.18. Bloc perdu

Riz. 11.19. Fichiers superposés

La tâche consistant à garantir l'intégrité des systèmes de fichiers en cas de panne est compliquée par le fait que les sous-systèmes de disque de presque tous les systèmes d'exploitation modernes utilisent activement l'écriture paresseuse, y compris lorsqu'ils travaillent avec des structures de données système. Les écritures paresseuses, en particulier en combinaison avec les demandes de tri par numéro de bloc sur le disque, peuvent conduire à l'écriture de modifications d'inodes ou d'enregistrements de fichiers sur le disque avant les modifications de la liste des blocs libres, ce qui peut conduire à des fichiers « croisés ». Pour éviter que cela ne se produise, en règle générale, seules les demandes de lecture sont triées, pas les demandes d'écriture.

Introduction OCZ est bien connu comme l'un des pionniers du marché des SSD grand public. Cependant, avant même son rachat par Toshiba, ses intérêts s'étendaient également au marché des serveurs SSD. Malgré le fait que jusqu'à récemment, OCZ ne disposait pas de canaux stables pour acheter de la mémoire flash, elle n'a pas renoncé à tenter de créer des SSD hautement fiables conçus pour de lourdes charges de travail. La production de disques SSD pour serveurs oblige le fabricant à adopter une approche plus prudente dans la conception de la plate-forme matérielle, à veiller particulièrement à assurer la sécurité du stockage des données et à prendre des mesures spéciales pour donner au disque une ressource d'écriture beaucoup plus élevée. Et le potentiel d’ingénierie d’OCZ a permis de résoudre ces problèmes. Cependant, en toute honnêteté, il convient de noter que l'entreprise n'a toujours pas réussi à obtenir beaucoup de succès dans la fourniture de disques SSD pour serveurs au cours de sa vie précédente.

Mais maintenant, tout a changé. Après sa faillite et sa transition sous l'aile de Toshiba, OCZ dispose désormais d'une source fiable pour obtenir de la mémoire flash, y compris ses variantes à ressources accrues. Profitant de cette opportunité, la société a réédité ses SSD pour serveurs. Les anciennes séries Intrepid et Deneva ont été remplacées par Nouvel épisode Disques SATA III, Intrepid 3000. Il comprend deux gammes de modèles, 3600 et 3800, toutes deux disponibles via les canaux OEM et de vente au détail.

Il n'est pas exagéré de dire que, avec le fort soutien de la maison mère, OCZ propose désormais des SSD très intéressants pour les applications métiers. D’une part, ils ne sont pas inférieurs en termes de performances et de fiabilité aux offres concurrentes et, d’autre part, ils ont un prix attractif. Les disques Intrepid 3800 peuvent être utilisés sur des serveurs à intensité d'écriture moyenne, car leur ressource déclarée est très élevée et, par exemple, pour la version 800 Go, elle atteint 5,8 Po de données. La série Intrepid 3600 est un peu plus simple, positionnée comme une solution pour les serveurs avec des opérations de lecture prédominantes, par exemple pour les serveurs web ou les serveurs multimédia. Cependant, même dans ce cas, la ressource d'enregistrement est très bonne et atteint 1,5 Po pour la version 800 Go du SSD. En fait, les Intrepid 3800 et 3600 ne sont pas très différents l’un de l’autre. Ils partagent la même plate-forme matérielle et logicielle et utilisent tous deux la mémoire flash 19 nm de Toshiba. Cependant, les disques de la série 3800 sont dotés d'une mémoire eMLC plus durable, tandis que la série 3600 se contente de puces MLC standard.

La mémoire Toshiba n'est pas la seule innovation de la nouvelle génération de disques pour serveurs OCZ. Auparavant, l'entreprise utilisait des contrôleurs SandForce dans ses activités commerciales. Cependant, à aujourd'hui ils sont assez obsolètes et, en outre, dans ce cas, la capacité des ingénieurs à modifier le firmware était assez limitée, ce qui les empêchait de mettre en œuvre des solutions intéressantes et uniques. Par conséquent, avec l'avènement de la série Intrepid 3000, la société est passée au contrôleur Marvell SS9187, dont le firmware est écrit de manière totalement autonome par les spécialistes d'OCZ. Cela permet à OCZ d'ajouter à ses disques des fonctions de serveur spéciales qui sont demandées dans un environnement professionnel. Il convient de noter que l'assortiment d'OCZ comprend également des disques de serveur basés sur son propre contrôleur Barefoot 3, mais la plate-forme matérielle Marvell est plus attrayante dans la mesure où il s'agit d'une solution minutieusement testée et généralement reconnue dans l'industrie. C'est pourquoi la famille Intrepid 3000 est considérée comme la solution la plus stable, la plus résistante et la plus tolérante aux pannes.

Il faut dire qu'OCZ lui-même possède une expérience considérable dans l'utilisation du contrôleur Marvell SS9187 - rappelez-vous la série de disques Octane, basée sur les puces Everest 2, dérivées du design Marvell. Comme vous pouvez le constater, les anciens développements des ingénieurs d'OCZ n'ont pas été jetés à la poubelle, mais ils ont désormais trouvé de manière inattendue une place dans le segment des serveurs. De plus, de nouvelles fonctions leur ont été ajoutées pour augmenter la fiabilité. Ceux-ci incluent : des contrôles d'intégrité des données basés sur des sommes de contrôle à chaque étape de leur traitement, des algorithmes avancés de contrôle de parité et des mécanismes internes de type RAID pour distribuer les données sur différentes puces de mémoire flash avec redondance. Tout cela nous permet de garantir une probabilité d'erreur extrêmement faible, qui pour l'Intrepid 3000 est d'environ un ordre de grandeur inférieur à celle pour meilleurs disques pour le segment des consommateurs.

Nous avons reçu un disque Intrepid 3800 d'une capacité de 800 Go pour les tests. Il s'agit de la capacité maximale de la gamme, qui vous permet d'obtenir les performances les plus élevées de toute la famille Intrepid 3000. Les vitesses de fonctionnement séquentiel pour ce modèle atteignent respectivement 500 et 460 Mo par seconde pour la lecture et l'écriture. Et avec des opérations aléatoires avec des blocs de 4 kilo-octets, les performances atteignent 90 et 40 000 opérations par seconde en lecture et en écriture. Et, en passant, nous entendons ici les performances stables affichées par le disque après plusieurs heures d'utilisation active. C'est pourquoi ces chiffres ne semblent pas très impressionnants par rapport aux vitesses des SSD grand public, qui indiquent généralement les performances observées sur un « nouveau » lecteur flash.



Il convient de noter que lors du développement de leur famille de disques Intrepid 3000, les ingénieurs d'OCZ se sont concentrés non seulement sur la fourniture de performances de pointe, mais également sur des latences d'E/S cohérentes. Cela signifie que les représentants de la famille Intrepid 3000 devraient démontrer une petite répartition des paramètres de vitesse dans le temps, ce qui est très important pour améliorer le temps de réponse lors de l'installation de ces disques dans des matrices RAID.

En plus de ces vitesses, la famille Intrepid 3000 offre une protection robuste des données contre les pannes de courant, la prise en charge du cryptage matériel AES-256 et un temps moyen élevé entre les pannes de 2 millions d'heures. K rien de moins propriétés bénéfiques Le nouveau produit à l'étude devrait inclure une surveillance de la température et des statistiques SMART avancées, qui vous permettent d'obtenir des informations détaillées sur la sensation du SSD.

Spécifications et structure interne

Ainsi, les spécifications des SSD de la série Intrepid 3800, qui utilisent une mémoire eMLC hautement fiable, sont les suivantes :



Comme le montrent les caractéristiques, une NAND eMLC hautement fiable et un espace libre supplémentaire, inaccessible à l'utilisateur, fournissent une ressource impressionnante de lecteurs flash de la série Intrepid 3800. C'est pourquoi de telles offres sont appréciées par les consommateurs du segment des entreprises. Cependant, la grande fiabilité se reflète également dans le prix. Les SSD comme l'Intrepid 3800 sont environ deux fois plus chers que les SSD grand public classiques de capacité similaire.

Si nous parlons de l'apparence du lecteur du serveur Intrepid 3800, alors c'est tout à fait ordinaire. Ce SSD est logé dans un boîtier en alliage d'acier familier. Cependant, étant donné que de tels disques sont installés dans des serveurs, souvent équipés de cages spécialisées, la hauteur de ce boîtier n'est pas de 7, mais de 9 mm. Une étiquette marketing est collée sur la surface avant du SSD. Au verso se trouve une étiquette avec des marquages, des numéros de série et des codes-barres.


A l'intérieur du boîtier on trouve un pas tout à fait typique circuit imprimé, occupant tout son espace interne. Il convient de noter que le contrôleur de base est adjacent au couvercle du boîtier grâce à un joint thermoconducteur qui assure son refroidissement. Cependant, pendant le fonctionnement, cette puce devient encore très chaude et peut même entrer en limitation, faisant baisser sa fréquence. Pour éviter de telles situations, nous vous recommandons d'utiliser l'Intrepid 3800 dans des boîtiers bien ventilés ou des paniers spéciaux équipés de ventilateurs.


Le contrôleur principal est étiqueté de manière plutôt inattendue Indilinx IDX400M00-BC, mais il s’agit en fait d’une puce Marvell 88S9187 renommée. Nous avons déjà vu une architecture de lecteur similaire utilisant un contrôleur Marvell et son propre firmware dans la clé USB grand public OCZ Octane, basée sur la plate-forme Everest 2. Cette plate-forme a maintenant trouvé un second souffle. Le contrôleur qu'il contient prend en charge l'interface SATA 6 Gb/s et dispose d'une architecture à 8 canaux pour connecter la mémoire flash. Dans le même temps, l'entrelacement de périphériques NAND est autorisé dans chaque canal avec une multiplicité maximale de 16. Considérant que dans le lecteur Intrepid 3800 de 800 Go que nous envisageons, le volume total de la matrice de mémoire flash est de 1024 Go et que la mémoire flash eMLC les puces mémoire utilisées ont une capacité de 64 Gbit, dans lesquelles les capacités du contrôleur sont utilisées au maximum.

Le contrôleur Marvell 88S9187 de l'Intrepid 3800 est associé à la puce mémoire vive DDR3-1333 d'une capacité de 1 Go. Cette puce est nécessaire pour mettre en cache les opérations aléatoires et pour stocker copie rapide tables de traduction d’adresses.

La matrice de mémoire flash de l'Intrepid 3800 800 Go est composée de seize puces Toshiba TH58TEG8DDJBA8C, chacune contenant huit cristaux de 64 Go. La mémoire avec des marquages ​​similaires se trouve partout dans les disques SSD conventionnels, par exemple de Plextor. Mais dans ce cas, il ne s'agit pas d'une simple MLC NAND avec une interface Toggle Mode, mais d'une mémoire eMLC assemblée à partir de cristaux sélectionnés qui ont une ressource de réécriture dépassant largement celle typique.



Mais la partie la plus intéressante de l'Intrepid 3800 est le supercondensateur AVX installé sur la carte fille, qui a une capacité de 22 mF. Un tel condensateur a non seulement une capacité impressionnante, mais est également capable de fournir un courant assez élevé, ce qui garantit le bon déroulement de tous les processus internes du SSD, même en cas d'interruptions ou de coupures de courant soudaines. La carte avec le supercondensateur est connectée à la carte principale via un connecteur spécial et étroitement serrée par le boîtier.

Logiciel

A noter que pour ses disques SSD destinés à être utilisés dans un environnement serveur, OCZ développe un logiciel spécial StoragePeak 1000. Cette application permet d'organiser la gestion et la surveillance centralisées et à distance de tous les disques OCZ disponibles dans les serveurs et autres appareils au sein de le segment de réseau.

Grâce à ce logiciel, les administrateurs système ont accès à des informations complètes sur les disques, y compris des informations sur leurs performances, leur fiabilité et leur opérabilité. En plus de surveiller le fonctionnement du StoragePeak 1000, il propose des systèmes d'avertissement personnalisables lorsque des problèmes surviennent ou lorsque les paramètres de fonctionnement du SSD dépassent les limites spécifiées. Les options StoragePeak 1000 sont disponibles pour différents systèmes d'exploitation Familles de fenêtres, CentOS et RHEL.

En plus de l'Intrepid 3800, StoragePeak 1000 peut communiquer avec des disques d'autres séries de serveurs, notamment Z-Drive 4500 et R4, ZD-XL, Intrepid 3600, Sabre 1000, Deneva 2 et Talos 2.



Semblable à la célèbre OCZ Toolbox, le logiciel StoragePeak 1000 comprend la mise à jour à distance du micrologiciel et les fonctions Secure Erase. La journalisation des paramètres SMART et de performances est également prise en charge. Travailler avec StoragePeak 1000 est également possible à partir de la ligne de commande.



Cependant, l'utilitaire OCZ Toolbox habituel fonctionne également avec l'Intrepid 3800, offrant à l'utilisateur un ensemble de capacités tout à fait familier, auquel une autre fonction supplémentaire est ajoutée : la vérification de la fonctionnalité du supercondensateur AVX. À propos, la surveillance de l'état de ce condensateur est également disponible via la surveillance SMART régulière, qui ajoute un paramètre distinct décrivant son état.



Et en général, l'ensemble des valeurs SMART de l'Intrepid 3800 a été considérablement élargi. Il vous permet de surveiller l'état de la mémoire flash de manière beaucoup plus détaillée que celle des SSD grand public, et accumule également des informations sur les erreurs qui se produisent à toutes les étapes de l'utilisation des données à l'intérieur du disque SSD. Naturellement, l'Intrepid 3800 inclut également une surveillance complète de la température.

Système de tests

Les performances du SSD Intrepid 3800 800 Go ont été testées lors de son utilisation dans un système de test, basé sur une plateforme Intel avec un processeur Core i5-4690K. Utilisé carte mèreétait basé sur la logique système Z97, le lecteur était connecté aux ports du chipset SATA 6 Gb/s.

Malheureusement, nous n'avons pas pu trouver d'objet de comparaison équivalent pour le disque serveur OCZ Intrepid 3800 800 Go. Au moment des tests, les seules offres dans un but similaire à notre portée étaient le SSD Intel DC S3500 d'une capacité de 600 Go. Contrairement à l'OCZ Intrepid 3800, ce SSD Intel est basé sur la NAND MLC standard, mais vous devez garder à l'esprit que la gamme de produits Intel comprend presque les mêmes lecteurs flash Intel SSD DC S3700 basés sur la mémoire eMLC. Autrement dit, comparer l’OCZ Intrepid 3800 et l’Intel SSD DC S3500 n’a pas de sens. Cela permet au moins de comprendre à quel point les caractéristiques du produit OCZ sont progressistes par rapport à ce que proposent d'autres fabricants pour le segment des entreprises.

En conséquence, l’ensemble d’équipements suivant a été utilisé dans la plateforme de test :

Processeur : Intel Core i5-4690K (Haswell, 4 cœurs, 3,5-3,9 GHz, 4 x 256 Ko L2, 6 Mo L3) ;
Refroidisseur de processeur : Noctua NH-U14S ;
Carte mère : ASUS Z97-Pro (LGA1150, Intel Z97 Express) ;
Mémoire : 2 x 8 Go DDR3-2133 SDRAM, 9-11-11-31 (G.Skill F3-2133C9D-16GTX) ;
Lecteur système – Crucial M550 512 Go (CT512M550SSD1) ;
Essais routiers :

OCZ Intrepid 3800 800 Go (IT3RSK41ET350-0800, micrologiciel) ;
SSD Intel DC S3500 600 Go (SSDSC2BB600G401, micrologiciel) ;

Alimentation : Seasonic Platinum SS-760XP2 (80 Plus Platinum, 760 W).

Les tests ont été effectués dans système opérateur Microsoft Windows 8.1 Professional x64 en utilisant l'ensemble de pilotes suivant :

Pilote de chipset Intel 10.0.20 ;
Pilote du moteur de gestion Intel 10.0.0.1204 ;
Technologie de stockage Intel Rapid 13.2.4.1000 ;
Pilote d'accélérateur graphique Intel 10.18.10.3910.

Les tests ont été effectués à l'aide de l'outil logiciel IOMeter 1.1.0.

Performance

Performances du bureau

Avant de passer au test de l'OCZ Intrepid 3800 800 Go sous charge de serveur, nous avons décidé de prêter attention aux performances de ce SSD lorsqu'il est installé sur un système de bureau classique. Pour ce faire, nous avons mesuré ses performances à l’aide d’un benchmark populaire inclus dans les utilitaires de stockage d’Anvil.



Comme vous pouvez le voir sur la capture d'écran ci-dessus, en comparaison avec les SSD grand public modernes, l'OCZ Intrepid 3800 800 Go en question ne peut se vanter d'aucune réalisation particulière. De plus, si nous parlions de SSD SATA pour ordinateurs personnels, nous classerions cette clé USB dans une offre de milieu de gamme, voire de niveau inférieur, car ses vitesses de lecture et d'écriture séquentielles sont franchement faibles, et même lors d'opérations aléatoires, les performances sont nettement inférieur à celui de nombreux lecteurs flash populaires.

Cependant, sur la base de ces résultats, il n'est pas nécessaire de conclure que l'OCZ Intrepid 3800 800 Go est un SSD lent. Son objectif est simplement légèrement différent, et des performances de pointe élevées dans un environnement de bureau typique ne veulent rien dire. Les disques SSD comme l'OCZ Intrepid 3800 sont conçus pour fonctionner dans des conditions de charge élevée, lorsque le sous-système de disque doit faire face à un flux continu et intense de requêtes. Par conséquent, tous les tests ultérieurs ont été effectués conformément aux principes formulés dans la méthodologie SNIA, qui consiste à mesurer les vitesses et les latences des opérations d'E/S dans des conditions de charge élevée. C'est-à-dire lorsque le lecteur est obligé d'effectuer des opérations de libération de pages de mémoire flash et de garbage collection « à la volée », simultanément au traitement des demandes entrantes.

Stabilisation des performances et transitoires

Dans le nouveau SSD, la mémoire flash est totalement exempte de toute donnée, de sorte que le disque, juste retiré de l'emballage, démontre initialement des performances nettement supérieures. Cependant, au fil du temps, sa mémoire flash se remplit de données et les nouvelles écritures commencent à nécessiter des blocs de pré-effacement des pages de la mémoire flash. Par conséquent, au fil du temps, les performances du SSD diminuent et le disque entre dans un état « utilisé » stable. Afin de retracer ce processus de transition, nous effectuons un cycle de huit heures d'enregistrement aléatoire de données (en blocs de 4 Ko avec une profondeur de file d'attente de requêtes de 64 commandes), à l'issue duquel les performances « réelles » du lecteur sont mesuré.

Dans le même temps, il est également intéressant d’observer le processus transitoire dans la vitesse de fonctionnement des SSD. Le graphique ci-dessous montre exactement la baisse des performances des disques concernés sous l'influence d'un flux de requêtes d'écriture aléatoire de blocs de 4 kilo-octets avec une profondeur de file d'attente de requêtes de 64 commandes.



Le graphique ci-dessus révèle immédiatement les performances supérieures de l'OCZ Intrepid 3800 800 Go, qui ont été maintenues tout au long des 8 heures de test. Alors que les performances de ce SSD commencent à environ 83 000 IOPS et descendent jusqu'à 40 000 IOPS, le SSD Intel DC S3500 600 Go est bien moins performant. Dans un état neuf, le disque Intel parvient à produire seulement 65 000 IOPS et, en régime permanent, sa vitesse n'est que de 15 000 IOPS.

Il y a cependant une mise en garde. Malgré le fait que l'OCZ Intrepid 3800 800 Go soit plus rapide, la stabilité de ses indicateurs de vitesse laisse beaucoup à désirer. Ce disque démontre de temps en temps une diminution immédiate et plusieurs fois des performances, et ce n'est pas un très bon modèle de comportement pour les SSD de serveur, qui sont souvent assemblés dans des matrices RAID. Le SSD Intel DC S3500 peut se vanter d'une vitesse beaucoup plus stable et prévisible, ce qui constitue son avantage incontestable. Mais, en toute honnêteté, nous notons que les baisses de performances du lecteur OCZ ne se produisent pas trop souvent, mais environ une fois toutes les une ou deux minutes et durent une ou deux secondes.

Vitesse des opérations aléatoires avec des blocs 4K






A la lecture, l'OCZ Intrepid 3800 800 Go est sensiblement supérieur au Intel SSD DC S3500 600 Go. Une différence significative dans les résultats commence à être observée à une profondeur de file d'attente de requêtes de 32 commandes.






Un avantage encore plus impressionnant de l'OCZ Intrepid 3800 800 Go se révèle lors de l'enregistrement aléatoire. Il existe pour absolument n'importe quelle file d'attente de requêtes. À propos, veuillez noter qu'à mesure que la profondeur de la file d'attente des commandes augmente, les performances des disques du serveur n'augmentent pratiquement pas. Évidemment, la vitesse dans ce cas est limitée par la nécessité d'effacer des blocs de pages de mémoire flash. Cependant, malgré cela, la latence des opérations dépend de la profondeur de la file d'attente.






La vitesse de fonctionnement des opérations de lecture et d’écriture aléatoires mixtes arbitraires démontre une dépendance plutôt intéressante. Les deux SSD affichent les performances les plus élevées lorsque les opérations de lecture ne sont pas du tout mélangées aux écritures. Mais les performances minimales pour les SSD Intel DC S3500 600 Go et OCZ Intrepid 3800 800 Go sont observées à différentes options charges. Pour l'OCZ Intrepid 3800 800 Go, plus il y a d'opérations d'écriture, plus la vitesse est faible et la vitesse maximale et valeur minimum Les valeurs IOPS diffèrent de 2,25 fois. Pour le SSD Intel DC S3500 600 Go, la charge la plus problématique se produit lorsqu'il y a quatre opérations d'écriture pour une opération de lecture. Et l'écart entre le maximum et performances minimales– plus grand que celui du concurrent et atteint 3,5 fois sa taille.

Vitesse des opérations aléatoires avec des blocs de 8K






Dans une charge de serveur, la vitesse des opérations avec des blocs de 8 Ko n'est pas moins importante que les performances avec des blocs de 4 Ko. Par exemple, 8 Ko constituent un paquet typique de données transférées par des bases de données. Et dans ce cas, la situation est quelque peu différente de ce que nous avons vu auparavant. Lors de la lecture aléatoire de blocs de 8 Ko, le SSD Intel DC S3500 600 Go est légèrement plus rapide que l'OCZ Intrepid 3800 800 Go, en commençant par une profondeur de file d'attente de 16 requêtes.






Cependant, lors de l'enregistrement, tout revient à sa place. Ici, l'OCZ Intrepid 3800 800 Go surpasse le SSD Intel DC S3500 600 Go d'environ 2,5 fois. Et encore une fois, comme lors de l'écriture de blocs de 4 Ko, on constate que le nombre d'IOPS (contrairement à la latence) est pratiquement indépendant de la profondeur de la file d'attente.






Les tests sous charges mixtes permettent de conclure que le décalage entre l'OCZ Intrepid 3800 800 Go et le SSD Intel DC S3500 600 Go est une situation typique uniquement pour une charge constituée exclusivement d'opérations de lecture. Si une partie, même minime, des opérations d'écriture y est mélangée, la direction revient à l'OCZ Intrepid 3800 800 Go. Veuillez noter que l'ajout de demandes d'écriture arbitraire d'informations aux lectures entraîne une diminution des performances, d'autant plus importante que la part des enregistrements est importante. En d'autres termes, les valeurs de performances maximales et minimales pour les deux SSD sont observées dans les cas où il existe une charge « pure » composée exclusivement de lectures ou d'écritures, respectivement.

Vitesse séquentielle



C'est curieux, mais en termes de vitesse de lecture séquentielle, l'OCZ Intrepid 3800 800 Go est loin d'être en première position. Il est sensiblement en retard sur le SSD Intel DC S3500 600 Go et, de plus, n'affiche des performances maximales qu'avec une file d'attente de requêtes de 32 commandes, alors que le lecteur flash Intel produit déjà les performances les plus élevées avec une file d'attente de 16 commandes.



Mais avec l'enregistrement séquentiel, la situation est inverse. L'OCZ Intrepid 3800 800 Go semble nettement plus avantageux que le SSD Intel DC S3500 600 Go, étant 2 à 2,5 fois plus rapide.



Le graphique ci-dessus des performances sous charge mixte apporte une clarté supplémentaire à l’image. Comme vous pouvez le constater, l'Intrepid 3800 supporte bien une charge mixte, lorsque, outre les opérations de lecture sur le SSD, au moins un nombre minimal d'opérations d'écriture sont également reçues. Intel SSD DC S3500 600 Go, au contraire, perd dans ce cas de la vitesse.

Performances de charge mixte

Les tests effectués dans cette section recréent la charge typique de certaines applications serveur.









L'Intrepid 3800 800 Go fonctionne mieux dans les scénarios simulant une base de données ou un serveur de fichiers, tandis que le SSD Intel DC S3500 600 Go est plus rapide que la concurrence lorsqu'il est utilisé dans un serveur Web. Ceci est tout à fait cohérent avec le tableau que nous avons dressé jusqu’à présent. Le SSD du serveur d'OCZ convient aux charges de travail mixtes et aux cas où une proportion importante d'opérations est constituée d'écritures. En fait, dans un tel environnement, il affiche non seulement d'excellentes performances, mais s'y intègre également grâce à sa grande endurance. Un disque Intel est plus adapté aux cas où la vitesse de lecture des données est importante et les écritures sont rares.

conclusions

Bien que de nombreuses personnes associent principalement le nom OCZ aux disques SSD pour ordinateurs personnels, cette société tente depuis un certain temps de pénétrer le marché des systèmes de stockage de données d'entreprise. L'assortiment de SSD pour serveurs d'OCZ est disponible depuis plusieurs années, mais ils ont désormais atteint un niveau qualitativement nouveau, offrant des capacités au moins aussi bonnes que celles trouvées dans les produits des leaders de ce marché. Par exemple, l'Intrepid 3800 examiné dans cet article n'est pas seulement un SSD hautement fiable basé sur eMLC NAND avec une endurance accrue. En outre, il possède également les caractéristiques typiques des meilleurs lecteurs flash de serveur, telles que des sommes de contrôle améliorées, des contrôles d'intégrité des données à toutes les étapes du traitement des données, une protection contre les pannes de courant, ainsi qu'une redondance de type RAID de la matrice de mémoire flash qui protège contre la perte d'informations en cas de défaillance des cristaux NAND. De plus, pour ses SSD de classe entreprise, OCZ propose outil logiciel StoragePeak 1000, qui permet d'organiser facilement la maintenance de l'ensemble du parc de disques sur un réseau local.

En conséquence, l'Intrepid 3800 peut être un bon choix pour une utilisation dans les serveurs de fichiers ou les serveurs de bases de données. Ceci est également indiqué par la fiabilité déclarée : toutes les technologies mises en œuvre dans cette clé USB permettent de réécrire la pleine capacité de ce SSD quatre fois par jour pendant la période de garantie de cinq ans. Pour être juste, il convient de noter que les disques de serveur comme l'Intel SSD DC S3700 ont une ressource sensiblement plus élevée, mais pour les applications dans un environnement serveur avec des charges légères et moyennes, la ressource OCZ Intrepid 3800 est plus que suffisante.



De plus, l'OCZ Intrepid 3800 présente un avantage important : des performances élevées. Comme les tests l'ont montré, lors d'opérations d'écriture ou avec une charge mixte, ce disque s'avère nettement plus rapide que le SSD Intel, qui surpasse l'offre OCZ uniquement en lectures pures. Cela signifie que la plate-forme matérielle Everest 2, développée par OCZ sur la base du contrôleur Marvell 88S9187 et de son propre firmware, s'est avérée bien adaptée pour travailler dans un environnement serveur. En fait, du point de vue des performances, il ne peut y avoir qu'un seul reproche à l'Intrepid 3800 : sous une charge continue, ses performances s'affaissent périodiquement. La fréquence de tels épisodes n'est pas trop élevée, mais nous ne recommandons toujours pas d'utiliser l'Intrepid 3800 dans des matrices RAID avec un grand nombre de participants.

Eh bien, en conclusion, je voudrais ajouter que l'OCZ Intrepid 3800 coûte environ 10 à 15 % de moins que les SSD concurrents basés sur la mémoire eMLC avec des caractéristiques similaires. Et cela en fait une option vraiment intéressante pour les applications métiers.

Les aliments dangereux constituent une menace pour la santé mondiale et un risque pour la santé de chacun. L'Organisation mondiale de la santé s'engage à soutenir les efforts visant à améliorer la sécurité alimentaire de la ferme à l'assiette.

Que comprend cette notion ?
« … l'absence d'effets toxiques, cancérigènes, mutagènes ou autres effets néfastes des produits sur le corps humain lorsqu'ils sont consommés en quantités généralement acceptées ; est garanti par la normalisation et le respect de la teneur réglementée (absence ou limitation des niveaux de concentrations maximales admissibles) en polluants de nature chimique et biologique, ainsi qu'en substances toxiques naturelles caractéristiques d'un produit donné et présentant un danger pour l'homme santé."
En règle générale, les maladies d'origine alimentaire sont des maladies infectieuses ou des intoxications causées par des bactéries, des virus ou des produits chimiques qui pénètrent dans l'organisme par l'eau ou les aliments contaminés. Les aliments dangereux comprennent les aliments crus pour animaux, les fruits et légumes contaminés par des matières fécales et les crustacés crus contenant des biotoxines marines.

Principales maladies d'origine alimentaire
Salmonellose L'agent causal est la bactérie Salmonella et ses symptômes sont de la fièvre, des maux de tête, des nausées, des vomissements, des douleurs abdominales et de la diarrhée. Les produits alimentaires associés aux épidémies de salmonellose comprennent les œufs, la volaille et autres viandes ainsi que le lait cru.
Campylobactériose L'agent causal est certaines espèces de bactéries Campylobacter. Les principaux aliments à l’origine de la maladie sont le lait cru, la volaille crue ou insuffisamment cuite et l’eau potable. Les manifestations aiguës de la campylobactériose comprennent des douleurs abdominales sévères, de la fièvre, des nausées et de la diarrhée. Dans 2 à 10 % des cas, l’infection peut entraîner le développement de problèmes de santé chroniques, notamment une arthrite réactionnelle et des troubles neurologiques.
Listériose Le réservoir de Listeria est le sol, à partir duquel elles peuvent pénétrer dans les organismes végétaux. L'infection humaine est associée à la consommation de légumes et de produits d'origine animale. Les humains sont infectés en consommant divers produits alimentaires sans traitement thermique préalable. Divers produits alimentaires (lait, beurre, fromage, viande, etc.) se multiplient à la température d'un réfrigérateur domestique. L'imingite bactériémique est la conséquence la plus grave de la listériose.
L'escherichiose est une infection intestinale aiguë provoquée par certains sérotypes de la bactérie Escherichia coli. L'escherichiose se manifeste par une entérite et une entérocolite. La contamination alimentaire se fait principalement par la consommation de produits laitiers, de plats de viande, de boissons (kvas, compotes), de salades et de légumes cuits.
Le choléra pénètre dans le corps humain par l’eau ou les aliments contaminés. Les symptômes comprennent des douleurs abdominales, des vomissements et une diarrhée aqueuse aiguë, qui peuvent entraîner une déshydratation grave et parfois la mort. Les épidémies de choléra sont associées à des aliments tels que le riz, les légumes, le mil et divers types de fruits de mer.

Publications de l'OMS "Cinq principes essentiels pour une alimentation saine" Fournit des conseils pratiques aux détaillants et aux consommateurs en matière de transformation et de préparation des aliments :

  • Gardez les aliments propres.
  • Séparez les aliments crus des aliments cuits.
  • Soumettre les produits à un traitement thermique approfondi.
  • Le traitement thermique est effectué à la température requise.
  • Utilisez de l’eau salubre et des aliments crus salubres.

Comment fonctionne le réseau électrique ?

Les centrales électriques de Russie sont regroupées dans le système énergétique fédéral, qui est la source énergie électrique pour tous ses consommateurs. Le transport et la distribution de l'électricité s'effectuent à l'aide de lignes électriques aériennes qui traversent tout le pays. Pour réduire les pertes lors du transport de l'électricité, des tensions très élevées sont utilisées dans les lignes électriques - des dizaines et (le plus souvent) des centaines de kilovolts.

En raison de son efficacité, le transfert d'énergie utilise l'invention de l'ingénieur russe M.O. Système à courant alternatif triphasé Dolivo-Dobrovolsky, dans lequel l'électricité est transmise à l'aide de quatre fils. Trois de ces fils sont appelés fils de ligne ou de phase, et le quatrième est appelé fil neutre ou simplement neutre.

Les consommateurs d'électricité sont conçus pour des tensions inférieures à la tension du réseau. La réduction de tension s'effectue en deux étapes. Premièrement, au poste abaisseur, qui fait partie du système électrique, la tension est réduite à 6-10 kV (kilovolts). Une réduction supplémentaire de la tension est effectuée dans les sous-stations de transformation. Leurs « cabines de transformateurs » standard familières sont dispersées en grand nombre dans les entreprises et les zones résidentielles. Après le poste de transformation, la tension est réduite à 220-380 V.

La tension entre les fils de ligne d’un système CA triphasé est appelée tension de ligne. La valeur nominale efficace de la tension secteur en Russie est égale à 380 V(volt). La tension entre le neutre et l’un des fils de ligne est appelée phase. C'est une racine trois fois inférieure à celle linéaire. Sa valeur nominale en Russie est 220 V.

La source d'énergie du système électrique est constituée de générateurs de courant alternatif triphasés installés dans les centrales électriques. Chacun des enroulements du générateur induit une tension de ligne. Les enroulements sont situés symétriquement autour de la circonférence du générateur. En conséquence, les tensions linéaires sont décalées les unes par rapport aux autres en phase. Ce déphasage est constant et égal à 120 degrés.

Riz. 1. Système CA triphasé

Après poste de transformation la tension est fournie aux consommateurs via des panneaux de distribution ou (dans les entreprises) des points de distribution.

Certains consommateurs (moteurs électriques, équipements industriels, ordinateurs centraux et équipements de communication de forte puissance) sont conçus pour être directement connectés à un réseau électrique triphasé. Quatre fils y sont connectés (sans compter la terre de protection).

Consommateurs de faible consommation (ordinateurs personnels, appareils électroménagers, matériel de bureau, etc.) sont conçus pour un réseau électrique monophasé. Deux fils y sont connectés (sans compter la terre de protection). Dans la grande majorité des cas, l’un de ces fils est linéaire et l’autre neutre. La tension entre eux selon la norme est de 220 V.

Les valeurs de tension effective ci-dessus n'épuisent pas complètement les paramètres du réseau électrique. Le courant électrique alternatif est également caractérisé par la fréquence. La valeur nominale de la fréquence standard en Russie est 50 Hz(Hertz).

Les valeurs réelles de tension et de fréquence du réseau électrique peuvent bien entendu différer des valeurs nominales.

De nouveaux consommateurs d'électricité sont constamment connectés au réseau (le courant ou la charge dans le réseau augmente) ou certains consommateurs sont déconnectés (en conséquence, le courant ou la charge dans le réseau diminue). Lorsque la charge augmente, la tension du réseau chute et lorsque la charge diminue, la tension du réseau augmente.

Pour réduire l'impact des changements de charge sur la tension, il existe un système de régulation automatique de la tension dans les sous-stations abaisseurs. Il est conçu pour maintenir une tension constante (dans certaines limites et avec une certaine précision) lorsque la charge du réseau change. La régulation s'effectue en recommutant les enroulements de puissants transformateurs abaisseurs.

La fréquence du courant alternatif est fixée par la vitesse de rotation des générateurs des centrales électriques. À mesure que la charge augmente, la fréquence a tendance à diminuer légèrement, le système de contrôle de la centrale électrique augmente le débit du fluide de travail à travers la turbine et la vitesse du générateur est rétablie.

Bien entendu, aucun système de régulation (tension ou fréquence) ne peut fonctionner parfaitement, et dans tous les cas, l'utilisateur du réseau électrique doit composer avec certains écarts des caractéristiques du réseau par rapport aux valeurs nominales.

En Russie, les exigences relatives à la qualité de l'énergie électrique sont normalisées. GOST 23875-88 définit les indicateurs de qualité de l'énergie et GOST 13109-87 établit les valeurs de ces indicateurs. Cette norme établit les valeurs des indicateurs aux points de raccordement des consommateurs d'électricité. Pour l'utilisateur, cela signifie qu'il peut exiger de l'organisme de fourniture d'énergie que les normes établies soient respectées non pas quelque part dans le système énergétique, mais directement à son point de vente.

La plupart indicateurs importants la qualité de l'énergie est l'écart de tension par rapport à la valeur nominale, le coefficient non sinusoïdal de tension, l'écart de fréquence par rapport à 50 Hz.

Selon la norme, pendant au moins 95 % du temps chaque jour, la tension de phase doit être comprise dans la plage 209-231 V(écart 5%), fréquence dans 49,8-50,2 Hz, et le coefficient non sinusoïdal ne doit pas dépasser 5 %.

Les 5 pour cent restants ou moins du temps de chaque jour, la tension peut varier de 198 à 242 V (écart de 10 %), la fréquence de 49,6 à 50,4 Hz et le coefficient non sinusoïdal ne doit pas dépasser 10 %. Des changements de fréquence plus importants sont également autorisés : de 49,5 Hz à 51 Hz, mais la durée totale de ces changements ne doit pas dépasser 90 heures par an.

Les situations d'urgence en matière d'alimentation électrique sont des situations dans lesquelles les indicateurs de qualité de l'énergie dépassent brièvement les limites établies. La fréquence peut s'écarter de 5 Hz de la valeur nominale. La tension peut chuter à zéro. À l'avenir, les indicateurs de qualité devraient être rétablis.

et la figure 8 montre un schéma fonctionnel d'un réel (ou du moins plus similaire à un réel) UPS avec commutation. De nouveaux éléments y sont apparus par rapport au schéma que nous avions imaginé dans le deuxième chapitre.

Le filtre d'impulsion d'entrée et le filtre de bruit améliorent la forme d'onde de tension lors du fonctionnement sur secteur. Le circuit d'analyse et de contrôle du réseau détermine les moments de commutation des modes de fonctionnement UPS, surveille la décharge de la batterie et exécute d'autres fonctions utiles.

Groupes de consommateurs

Selon Règles d'installation électrique (PUE) Tous les consommateurs d'électricité sont divisés en trois catégories.

La première catégorie comprend les consommateurs responsables. Ils sont alimentés en électricité par deux sources d’énergie indépendantes. Lorsque la tension sur l'une des sources disparaît, la charge passe automatiquement à l'alimentation de la deuxième source. Les sources indépendantes peuvent être les appareils de commutation de deux centrales électriques ou sous-stations non connectées entre elles. La commutation est effectuée commutateurs de transfert automatiques (ATS). Lorsque ces interrupteurs mécaniques (et parfois à thyristors) fonctionnent, le temps mort (la période pendant laquelle la charge reste sans alimentation) est de 10 à 3 000 ms.

De la première catégorie, on distingue un groupe de consommateurs particulièrement responsables. Leur alimentation est fournie par trois sources indépendantes. Un générateur diesel ou des batteries peuvent être utilisés comme troisième source.

La deuxième catégorie comprend les consommateurs moins responsables. Leur alimentation doit être assurée par deux sources d'alimentation indépendantes. Mais pour cette catégorie de consommateurs, une coupure de courant plus longue est acceptable, suffisante pour une commutation manuelle par le personnel opérationnel ou une équipe d'urgence mobile.

Tous les autres consommateurs appartiennent à la troisième catégorie. Leur alimentation électrique peut être assurée à partir d’une source unique, à condition que les interruptions d’alimentation électrique n’excèdent pas une journée. À ce stade, la réparation ou le remplacement de l'équipement défectueux est également inclus.

Les consommateurs de la première catégorie comprennent les autorités fédérales et régionales, les grandes banques anciennes, les hôpitaux, à commencer par les régionaux, certaines entreprises à cycle de production continu, les grands centres de communication, etc.

Mise à la terre

Lors de l'installation d'équipements industriels, une mise à la terre de protection est utilisée pour éviter les chocs électriques.

La mise à la terre de protection est la connexion intentionnelle à la terre de parties métalliques d'un équipement (généralement un châssis, un boîtier ou un boîtier de protection) qui ne sont normalement pas sous tension. Même si l'isolation électrique est endommagée (et même si les fusibles de protection ne fonctionnent pas), la tension sur les parties mises à la terre de l'équipement sera sûre, puisque la résistance de mise à la terre selon la norme ne doit pas dépasser 4 Ohms. Lors de l'organisation de réseaux informatiques locaux, une résistance de mise à la terre encore plus faible est recommandée - pas plus de 0,5 à 1 Ohm. Cependant, dans ce cas, la mise à la terre sert principalement à réduire les interférences qui se produisent lors du fonctionnement de divers équipements.

Pour fabriquer un dispositif de mise à la terre, des objets métalliques à surface développée sont placés dans le sol et connectés de manière fiable au bus de mise à la terre.

Auparavant, en Russie, la mise à la terre n'était pas utilisée pour connecter les appareils ménagers et de bureau. Dans la vie quotidienne et au bureau, on utilisait des prises à deux fils, conçues pour des tensions jusqu'à 250 V et des courants jusqu'à 6 A. L'un des contacts de cette prise est connecté au fil linéaire d'un circuit triphasé (ou, comme disent les électriciens, avec une « phase »), et l’autre au neutre.

Une exception a été faite uniquement pour les appareils électroménagers puissants, tels que les cuisinières et certaines machines à laver. Ces appareils étaient connectés à une prise spéciale avec mise à la terre (qui servait souvent de « neutre » du circuit électrique).

Avec l'avènement des ordinateurs personnels et d'un grand nombre d'appareils de bureau et électroménagers importés, une prise avec contacts de mise à la terre située dans la partie périphérique de la prise a commencé à être largement utilisée. Cette prise est conçue pour des tensions allant jusqu'à 250 V et courant jusqu'à 10 A(parfois jusqu'à 16 A). On l'appelle généralement prise « ordinateur », « européenne » ou « prise euro ».

Dans les pays européens, plusieurs types de prises sont utilisés (notamment la prise en question est utilisée en Allemagne), et il est tout aussi impossible de brancher un ordinateur utilisé par exemple en Suisse sur une prise anglaise que sur une prise japonaise. Par conséquent, à l’avenir, nous appellerons simplement cette prise une prise mise à la terre. Généralement, ce type de prise est utilisé pour connecter des ordinateurs et autres équipements de bureau d'une puissance allant jusqu'à 2 kVA (parfois jusqu'à 3 kVA).

En Russie, on utilise le plus souvent un réseau électrique triphasé à quatre fils avec un neutre solidement mis à la terre. Le fil neutre d'un tel réseau est mis à la terre à plusieurs endroits (dans les centrales électriques, les sous-stations, dans les lignes électriques).

Dans un réseau électrique avec un neutre solidement mis à la terre, au lieu d'une mise à la terre de protection, il est permis d'utiliser une « mise à la terre » de protection - reliant le corps de l'appareil à un fil neutre (et non à la terre). Dans l'industrie, ce type de protection contre les chocs électriques est le principal.

Dans certains pays, un réseau triphasé à cinq fils est utilisé. Dans celui-ci, le fil de terre et le neutre sont séparés l'un de l'autre. Un réseau à cinq fils est plus cher (plus de coûts pour le câble et son installation), mais est plus résistant aux interférences, notamment lors du fonctionnement d'équipements informatiques.

Comment fonctionne l'équipement

Les équipements électriques fabriqués en Russie sont naturellement conçus pour le réseau électrique russe et doivent fonctionner à des tensions de 198 à 242 V et fréquence de 49,5 à 51 Hz. En règle générale, la plage de tensions et de fréquences dans lesquelles l'équipement peut fonctionner est un peu plus large (typique, par exemple 187-242 V). Pour la plupart des appareils alimentés sur secteur, des variations de fréquence de 2 Hz (voire plus) par rapport à la valeur nominale sont acceptables.

La plupart du matériel de bureau utilisé en Russie est importé. Il n'est pas toujours conçu selon nos normes.

Par exemple, vous trouvez souvent des équipements conçus pour fonctionner à une tension nominale de 230 V et conçus pour un écart de tension admissible de 10 %. Un tel équipement a le droit de ne pas fonctionner dans des conditions tout à fait standards dans notre pays.

Réduisons la gamme d'équipements considérés aux ordinateurs et périphériques informatiques. Ces types d'appareils sont généralement équipés d'alimentations à découpage pouvant fonctionner sur une très large plage de tension. Les expériences montrent qu'un PC standard ( unité système avec un disque et des lecteurs de disque et un moniteur) avec une alimentation pas trop mauvaise peut fonctionner à très basse tension. Je ne voudrais pas donner de chiffres précis, car ils sont bien sûr différents selon les ordinateurs, mais nous pouvons dire avec certitude : 99 % des ordinateurs personnels vendus en Russie peuvent fonctionner de manière stable à des tensions. 170-180 V.

Lorsque la tension diminue, pour obtenir la même puissance nécessaire au fonctionnement de l'ordinateur, l'alimentation à découpage consomme plus de courant. Cela signifie que sa durée de vie à des tensions inférieures peut diminuer. De plus, si un ordinateur est équipé de nombreux appareils alimentés par son alimentation (disques, modems, etc.), alors la tension minimale à laquelle l'ordinateur peut fonctionner augmente.

En Russie, il existe une norme (GOST R 50628-93) qui définit les exigences relatives aux ordinateurs personnels en matière de résistance aux interférences électromagnétiques. Tous les ordinateurs fabriqués ou importés en Russie doivent être conformes à cette norme.

Les ordinateurs et périphériques sont divisés en deux groupes en fonction de leur immunité aux interférences. Le groupe est déterminé par le fabricant de l'ordinateur. Après des tests et une certification appropriés, il a le droit de déclarer que son ordinateur est conforme au groupe I ou II de GOST R 50628-93 pour l'immunité aux interférences électromagnétiques. Le tableau présente les paramètres du réseau électrique que les ordinateurs et équipement périphérique conformément à cette norme.

Tableau 1. Exigences de qualité du réseau électrique.

Type d'interférence externe Groupe
je II
Décharges électrostatiques :
- contact 2-4kV 4-6 kV
- air 2-4kV 4-8kV
Bruit impulsionnel nanoseconde :
- dans les circuits d'alimentation 0,5kV 1kV
- dans les circuits d'entrée-sortie 0,5kV 0,5kV
Modifications dynamiques de la tension d'alimentation :
- les creux de tension 154 V à 200 ms 154 V à 500 ms
- coupures de tension 0 V pendant 20 ms 0 V pendant 100 ms
- surtensions 264 V pendant 200 ms 264 V pendant 500 ms
Impulsions microsecondes de haute énergie 500 V 1000 V
Champs électromagnétiques radiofréquences 1 V/m 3 V/m

Pannes de courant

L’image merveilleuse du réseau électrique décrite au début du chapitre ne se trouve bien entendu que dans les livres. En effet, il existe différents types de pannes sur le réseau électrique. En Russie, les données d'études menées aux États-Unis par les Bell Labs et IBM sont désormais connues.

Selon ce dernier, tout le monde Ordinateur personnel exposé à 120 pannes d’électricité par mois.

Selon les Bell Labs, voici les pannes de courant les plus courantes observées aux États-Unis.

    1. Chutes de tension - chutes de tension à court terme associées à une forte augmentation de la charge dans le réseau en raison de l'inclusion de consommateurs puissants, tels que des équipements industriels, des ascenseurs, etc. Il s’agit du problème le plus courant du réseau électrique, survenant dans 87 % des cas.

    2. Impulsions haute tension - une très forte augmentation de tension à court terme (nanosecondes ou quelques microsecondes) associée à une décharge de foudre à proximité ou à la mise sous tension d'une sous-station après un accident. Cela représente 7,4 % de toutes les pannes de courant.

    3. Selon cette étude, une panne de courant complète est une conséquence d'accidents, de décharges de foudre et de fortes surcharges de la centrale électrique. Survient dans 4,7% des cas.

    4. Trop de tension - une augmentation à court terme de la tension dans le réseau associée à la déconnexion de consommateurs puissants. Survient dans 0,7% des cas.

Ce tableau peut apparemment être considéré comme typique de la plupart des pays développés. (Nous notons entre parenthèses que les alimentations sans interruption produites dans ces pays sont, dans la plupart des cas, orientées précisément vers un tel réseau électrique).

Malheureusement, cette image ne correspond pas toujours à notre réalité. La société "A and T Systems", à la demande de divers clients, a réalisé des enquêtes sur le réseau électrique d'entreprises situées dans différents endroits en Russie et à l'étranger. En outre, nous avons également reçu des informations indirectes sur l’état du réseau électrique dans différentes localités de l’ex-URSS. Il n'y avait pas tellement d'enquêtes de ce type qu'il était possible de tirer des conclusions statistiques professionnelles, mais quelque chose attire tout simplement l'attention.

Riz. 2. Types de pannes de courant.

Le problème le plus courant dans le réseau électrique, tout comme aux États-Unis, peut être considéré comme une basse tension dans le réseau. Cependant, ce type de panne de courant n’est pas du tout aussi dominant que les autres types de pannes.

Commençons par le fait que la haute tension dans le réseau se produit presque aussi souvent que la basse tension. De plus, différents endroits (villes, régions, entreprises) sont généralement caractérisés par un certain niveau de tension dans le réseau. Dans certains endroits, il peut être plutôt faible, dans d’autres, il peut être plutôt normal ou plutôt élevé. Ce niveau reste à peu près le même tout le temps. Dans ce contexte, des changements de tension cycliques se produisent en raison de changements de charge dans le réseau électrique.

Le cycle de changement de tension le plus court est quotidien. En figue. La figure 3 montre des graphiques réels des changements de tension en deux points de la Russie (à mille cinq cents kilomètres l'un de l'autre) au cours de la journée.

Riz. 3. Cycle quotidien des changements de tension dans le réseau.

La courbe inférieure de la Fig. 3 a été reçu dans un réseau à tension réduite. La tension nocturne stable est d'env. 215 V diminue en début de journée et augmente à nouveau le soir, lorsque la plupart des consommateurs s'éteignent.

La courbe médiane de la Fig. 3 a été obtenu dans un réseau électrique à tension augmentée. Ici, il existe une dépendance plus caractéristique de la tension en fonction de l'heure de la journée. Stable la nuit, la tension diminue le matin, atteignant un minimum en milieu de journée de travail, et augmente progressivement vers la fin.

Les deux graphiques décrits ont été obtenus en semaine. Le graphique du haut de la Fig. 3 a été reçu un jour férié au même endroit que la carte du milieu. Dans ce cas, la tension reste stablement élevée tout au long de la journée.

Si nous prenons en compte la tension le week-end, nous obtenons le prochain cycle le plus long de changements de tension dans le réseau électrique : une semaine. Apparemment, il existe des cycles de changements de tension de plus longue durée (par exemple, un cycle annuel), mais nous ne les avons jamais suivis.

En Russie, et surtout dans d’autres pays de la CEI, on observe un type de panne de courant totalement inconnu en Occident. C'est une fréquence instable. L’exemple le plus typique est celui de la Géorgie entre 1992 et 1994. Le système énergétique géorgien dans son ensemble était apparemment très surchargé. La fréquence du réseau pourrait donc chuter jusqu’à 42 Hz.

Le changement de fréquence en lui-même ne présente pas de danger significatif pour les équipements équipés d'une alimentation à découpage, mais il est très basse fréquence généralement accompagné d'une grave distorsion harmonique, qui peut nuire au fonctionnement non seulement de l'ordinateur, mais aussi de la plupart des alimentations sans interruption (UPS). De plus, beaucoup UPS la classe moyenne perçoit une forte diminution de fréquence comme une urgence et commence à consommer l'énergie de la batterie. La batterie se décharge au bout de quelques minutes et tout le travail s'arrête là.

En Russie, la fréquence réduite est assez rare. Cependant, même à Moscou, les employés de l'entreprise Merlin Gerin, selon eux, ont enregistré une fois une fréquence inférieure à 45 Hz. Lors de nos mesures, aucune fréquence inférieure à 49,5 Hz n'a été trouvée.

Un de plus trait distinctif La Russie est la cause (et, par conséquent, le nombre) de pannes de courant complètes. Les accidents et les catastrophes naturelles, qui provoquent des coupures de courant complètes dans les pays développés, se produisent ici à peu près à la même fréquence que là-bas. Mais en Russie, ces accidents ne sont pas les seules, ni même les principales raisons de la disparition complète des tensions. Le facteur humain parle avec assurance.

C'est une question de manque de connaissances. Les électriciens qui entretiennent un immeuble de bureaux comportant de nombreux ordinateurs n'ont généralement aucune idée des conséquences d'une panne de courant sur les ordinateurs et les données. Par conséquent, ils se comportent exactement de la même manière qu’il y a 20 ans.

En cas de problème d'alimentation électrique à l'étage (par exemple, un disjoncteur s'est déclenché), l'électricien commence à rechercher le disjoncteur responsable de la zone dans laquelle le problème s'est produit. Bien sûr, il ne recherche pas selon un modèle (cela prend beaucoup de temps, et il n’a probablement pas de modèle, ou très probablement pas). Il éteint simplement et rallume immédiatement toutes les machines du panneau et regarde le résultat. Dès l’instant où la lumière apparaît dans la pièce désirée, il considère sa mission accomplie.

Si la machine requise est la dernière, alors en une minute, chaque lampe électrique et chaque ordinateur au sol subira une panne de courant à court terme (moins d'une seconde). Pour l’éclairage, il ne se passe rien de grave ; les gens n’ont généralement même pas le temps d’avoir peur et se retrouvent momentanément dans le noir. Mais un deuxième arrêt suffit largement à perdre des données sur les ordinateurs.

De tels cas se produisent particulièrement souvent au printemps et en automne, lorsque la saison de chauffage se termine ou commence. Si le chauffage a déjà été éteint ou n'a pas encore été allumé et qu'il fait soudainement plus froid, les gens réagissent de la manière standard : ils allument les radiateurs électriques. Si le réseau électrique est fortement chargé, le raccordement de consommateurs supplémentaires (et puissants) peut provoquer le déclenchement du fusible automatique. Maintenant, revenez en arrière de deux paragraphes.

Ce cycle d'allumage et d'extinction peut être répété plusieurs fois par jour dans certaines organisations.

Sinon, le réseau électrique en Russie se comporte à peu près de la même manière qu’aux États-Unis.

Notez un autre type de distorsion d’alimentation non pris en compte par les Bell Labs. Nous parlons de distorsions de forme sinusoïdale associées au fonctionnement d'ordinateurs et d'autres charges non linéaires.

Lors du fonctionnement d'alimentations à découpage dans un réseau fortement surchargé, une distorsion de la forme d'onde de tension sinusoïdale peut se produire. Cela peut s'exprimer par la coupure du sommet de la sinusoïde et l'apparition d'harmoniques - des oscillations de fréquences multiples. Cette distorsion peut causer des problèmes avec d'autres équipements sensibles, tels que des instruments de mesure ou des équipements vidéo.

Les distorsions de la forme d'onde de tension sont aggravées par les propriétés spécifiques d'un réseau électrique triphasé, initialement conçu pour fonctionner uniquement avec des tensions et des courants sinusoïdaux. Le fonctionnement des ordinateurs dans un réseau électrique triphasé est abordé dans la section « Caractéristiques des alimentations sans coupure triphasées » du chapitre 8.

Pour les amateurs de compréhension émotionnelle des problèmes liés à l'électricité, ainsi que pour ceux qui ont souvent tendance à se plaindre de la qualité de l'énergie électrique, nous pouvons recommander l'un des meilleurs romans technologiques d'Arthur Haley : « Overload ». En le lisant, vous pourrez, en quelques heures, observer la situation du point de vue du producteur d'électricité.

Tableau 2. Types de pannes de courant

Type de panne de courant Cause de l'événement Conséquences possibles
Basse tension, chutes de tension Réseau surchargé, fonctionnement instable du système de régulation de tension du réseau, raccordement de consommateurs dont la puissance est comparable à la puissance du tronçon de réseau électrique Surcharges d'alimentation appareils électroniques et une diminution de leur ressource. Arrêter l'équipement lorsque la tension est insuffisante pour son fonctionnement. Panne des moteurs électriques. Perte de données dans les ordinateurs.
Surtension Réseau sous-utilisé, pas suffisant travail efficace systèmes de régulation, déconnexion des consommateurs puissants Panne d'équipement. Arrêt d'urgence des équipements avec perte de données sur les ordinateurs.
Impulsions haute tension Électricité atmosphérique, allumage et extinction de consommateurs puissants, mise en service d'une partie du système électrique après un accident. Panne d’équipement sensible.
Bruit électrique Allumer et éteindre des consommateurs puissants. Influence mutuelle des appareils électriques fonctionnant à proximité. Échecs lors de l'exécution du programme et du transfert de données. Images instables sur les écrans de contrôle et les systèmes vidéo.
Coupure de courant totale Déclenchement des fusibles lors de surcharges, actions non professionnelles du personnel, accidents sur les lignes électriques. Perte de données. Sur les très vieux ordinateurs, les disques durs tombent en panne.
Distorsion de tension harmonique Une part importante de la charge du réseau est constituée de consommateurs non linéaires équipés d'alimentations à découpage (ordinateurs, équipements de communication). Le réseau électrique fonctionnant avec des charges non linéaires est mal conçu, le fil neutre est surchargé. Interférence avec des équipements sensibles (radio et systèmes de télévision, systèmes de mesure, etc.)
Fréquence instable Forte surcharge du système énergétique dans son ensemble. Perte de contrôle du système. Surchauffe des transformateurs. Pour les ordinateurs, le changement de fréquence en lui-même n'est pas effrayant. Une fréquence instable est le meilleur indicateur d’un dysfonctionnement du système électrique ou d’une partie importante de celui-ci.

Surcharge

Essayons de systématiser légèrement ce qui a déjà été dit concernant l'évolution de la charge dans le réseau.

Des surcharges (c'est-à-dire des situations dans lesquelles le courant dans le réseau est supérieur au courant nominal ou maximum autorisé pour une section du réseau électrique) peuvent survenir sur différents niveaux systèmes d’alimentation électrique. Les conséquences sont donc différentes.

La surcharge locale est une surcharge du réseau dans la zone allant des consommateurs au fusible automatique le plus proche. Des surcharges dans une section du réseau peuvent provoquer le déclenchement de ce fusible et donc provoquer une coupure de courant locale.

Une surcharge locale se produit si toute la ligne allant des consommateurs au transformateur abaisseur est surchargée. La tension du réseau diminue. En cas de surcharges sévères et de défaillance des systèmes de protection locaux, le système de protection du poste peut être déclenché, accompagné également d'une panne de courant complète et temporaire. Cet arrêt s'applique à tous les consommateurs alimentés par ce transformateur.

Une surcharge générale se produit lorsque l'ensemble du système électrique ou une partie importante de celui-ci est surchargé. Dans ce cas, en plus d'une diminution de la tension, une diminution de la fréquence de la tension sinusoïdale peut également se produire. En cas de surcharges générales importantes, la protection de la centrale électrique peut être déclenchée et la tension dans l'ensemble du système peut être coupée. En Russie, de telles surcharges ne se produisent pas ou sont extrêmement rares. Le principal obstacle à l'apparition d'une telle surcharge est la gestion compétente d'une section du système électrique (déconnexion temporaire, y compris planifiée, de certains consommateurs et autres méthodes de réduction de charge).

Un cas classique de surcharge générale est un incident bien connu survenu à New York il y a quinze ans. Au plus fort de la journée de travail, en raison d'un accident survenu dans l'une des sous-stations de la ville, tous les consommateurs approvisionnés par celle-ci ont été déconnectés. Le système de contrôle automatique du système électrique a immédiatement rétabli l’alimentation des consommateurs, en les connectant à d’autres sous-stations. L'une des sous-stations était presque entièrement chargée, n'a pas pu supporter la charge supplémentaire et a été éteinte. Ses consommateurs étaient à nouveau automatiquement répartis entre les autres sous-stations. Une réaction en chaîne consistant à éteindre les sous-stations a commencé, balayant tout Manhattan – le centre d’affaires de New York. Le résultat d'un accident mineur, combiné à un système de gestion inachevé et à une formation insuffisante des répartiteurs, a été la plongée dans l'obscurité des bureaux de centaines des plus grandes entreprises mondiales.

Un cas très particulier de surcharge est la surcharge temporaire associée aux courants de démarrage qui se produisent lors du démarrage de presque tous les équipements. Le courant de démarrage peut dépasser courant nominal consommation d'un appareil électrique en unités, en dizaines et (heureusement très rarement) en centaines de fois. En fonction de l'ampleur du courant de démarrage, une surcharge temporaire peut se propager à une section plus ou moins grande du réseau. Le plus souvent, la mise sous tension d'équipements provoque des surcharges locales, mais il arrive parfois que la mise sous tension d'une unité très puissante provoque une surcharge du système énergétique de tout un pays.

Par exemple, en Mongolie, il existe une grande entreprise minière et de transformation Erdenet, un ancien « chantier de construction socialiste » et aujourd'hui une entreprise commune mongole-russe. Cette entreprise est la plus grande du pays et consomme environ un tiers de toute l'électricité mongole (selon environ 120 et 300 MW). La base du processus technologique est constituée de broyeurs à boulets, qui broient le minerai en fine poussière. Le tambour d'un tel moulin a un diamètre de 6 mètres et une longueur d'environ 18 mètres. Le moteur électrique qui fait tourner le tambour n'est pas non plus petit - sa puissance 5 MW.

Les usines fonctionnent 24 heures sur 24, pendant des mois. Chaque arrêt pour maintenance préventive (ou à l'inverse, mise en marche) est un événement majeur, planifié plusieurs mois à l'avance. Le fait est que le moteur du broyeur démarre sous charge (l'énorme inertie du tambour doit être surmontée) et les courants de démarrage peuvent dépasser de 10 fois les courants nominaux. UN 50 MW- cela représente près de 20 % de la puissance du système énergétique de la Mongolie. Le démarrage contrôlé (par exemple, à l'aide d'un entraînement à thyristors) d'un tel moteur n'est pas encore possible - la puissance est trop élevée.

Une fois, j'ai eu l'occasion de surveiller un tel lancement avec un oscilloscope entre les mains. Cela s'est très bien passé - la tension (apparemment dans tout le pays) n'a baissé que de 12 volts. Le raccordement temporaire du système énergétique de la Mongolie au système russe a eu un impact : Irkutskenergo a repris une partie de la charge de pointe.

Dans un réseau triphasé chargé principalement par des ordinateurs, un autre type de surcharge peut survenir : la surcharge du fil neutre due à une forme déformée de la courbe du courant de charge. Son danger particulier est dû principalement au fait qu'il ne peut pas être détecté par les appareils à panneau conventionnels et passe presque toujours inaperçu, ainsi qu'à l'absence de fusibles sur le fil neutre.

Fil neutre

Le fil neutre dans un système CA triphasé remplit une fonction très importante. Il sert à égaliser les tensions de phase dans les trois phases à différentes charges de phase (ou, comme disent les électriciens, à un déséquilibre de phase).

En cas de rupture du fil neutre avec des charges inégales dans les phases, les tensions de phase seront différentes. Dans les phases à forte charge (résistance plus faible), la tension sera inférieure à la normale, même si cette phase est très loin de la surcharge. Dans les phases avec moins de charge (résistance plus élevée), la tension deviendra supérieure à la normale.

Il est particulièrement dangereux court-circuit après la rupture du fil neutre. Dans ce cas, la tension sur les phases restantes non court-circuitées augmente de la racine de trois fois (par rapport à la normale 220V à 380V). Pour éviter une rupture, n'installez pas de fusibles ou d'interrupteurs sur le fil neutre. Ce type de panne de courant est l’un des plus dangereux, mais si le réseau électrique ou le système d’alimentation sans coupure est correctement conçu et exploité, il est très rare.

En Russie, un réseau électrique triphasé à quatre fils est utilisé. On l'appelle aussi réseau électrique avec un neutre solidement mis à la terre. Derrière ces mots se cache un fait très simple : le fil neutre du poste est mis à la terre et remplit pratiquement non seulement sa fonction « d'équilibrer » un réseau triphasé, mais est également utilisé comme mise à la terre de protection.

En Europe, un réseau électrique à cinq fils est généralement utilisé. Dans un tel réseau électrique, il existe un (cinquième) fil de terre séparé et le fil neutre ne remplit qu'une seule fonction. À propos, tous les triphasés occidentaux UPS sont destinés à être utilisés avec un tel réseau électrique.

Le fil neutre est conçu pour compenser efficacement les courants dans différentes phases dans le cas de courants sinusoïdaux dans un réseau électrique triphasé. Si de nombreux ordinateurs sont connectés au réseau électrique, la forme de la courbe de courant est déformée et l'efficacité du fil neutre est fortement réduite. Dans ce cas, des surcharges dangereuses du fil neutre et une distorsion de la forme d'onde de tension sont possibles. Ceci est abordé plus en détail au chapitre 8.

L’alimentation électrique des ordinateurs, ainsi que de tout autre équipement de haute technologie, ne serait pas une question aussi sensible si la qualité de l’électricité était toujours au même niveau élevé. Malheureusement, c'est loin d'être le cas dans la vie. En principe, il n’existe pas de protection à 100 %, mais vous pouvez réduire de plusieurs dizaines ou centaines de fois la dépendance de votre PC aux « maladies des prises de courant ». Heureusement, aujourd'hui, le marché regorge tout simplement de divers filtres, stabilisateurs, alimentations sans coupure et autres dispositifs créés uniquement pour protéger l'équipement principal. Dans le cadre de ce document, nous essaierons de décrire en détail toutes les « maladies » des réseaux électriques nationaux et de conseiller les meilleures options de protection.

Qualité de l'énergie électrique...

C'est avec cette formulation que commence la norme interétatique GOST 13109-97, le document principal selon lequel les réseaux d'alimentation électrique à usage général devraient fonctionner. La norme, comme nous l'avons déjà noté, est interétatique, donc tout ce qui est écrit ci-dessous est valable pour Fédération Russe, l'Ukraine, la Biélorussie, le Kazakhstan et un certain nombre d'autres pays. Pour notre part, nous ne citerons pas les définitions rigides et linguistiques de GOST de même qualité, mais nous essaierons de tout expliquer dans un langage plus compréhensible. Ainsi, la grande majorité des artefacts de tension secteur peuvent être divisés dans les groupes suivants :

Interférence d'impulsion

Interférence d'impulsion sont bien plus dangereux. En fait, ce sont de courtes pointes de tension qui se coincent dans une onde sinusoïdale normale. La durée de leur action n'est pas longue et se mesure en millisecondes, mais l'amplitude de tension peut atteindre des dizaines de kilovolts. La cause peut être des catastrophes naturelles, par exemple un orage, ou des facteurs d'origine humaine - des surtensions lors de la commutation de puissantes charges inductives dans les sous-stations et dans l'industrie. Une bonne impulsion avec un degré de probabilité élevé peut garantir l'échec de n'importe quel technologie moderne, les théières, les fers à repasser et les ampoules, bien sûr, ne comptent pas. Cependant, contre eux, des mesures de protection efficaces ont été inventées depuis longtemps, mises en œuvre dans les filtres domestiques et les rallonges. Lisez ci-dessous pour voir comment cela fonctionne.

Des baisses et des poussées à court terme les tensions peuvent être causées par tout un tas de raisons et peuvent bien sûr être qualifiées de phénomène tout à fait normal pour n'importe quel réseau, si le moment de leur action et le changement d'amplitude ne contredisent pas GOST. Les échecs sont plus fréquents parce que... ils sont provoqués par l’inclusion de consommateurs puissants. Si de tels problèmes sont persistants, périodiques ou présents en permanence, cela n'a pas un très bon effet sur le fonctionnement de l'équipement. L'écart maximal à long terme par rapport à la norme ne doit pas dépasser ± 10 %. Ceux. la tension dans nos prises peut facilement fluctuer de 207 à 253 V. En général, c'est le cas, et les appareils sont conçus pour cela. Cependant, parfois, les 10 % autorisés ne sont pas du tout maintenus et si, lorsque l'écart est négatif, l'alimentation électrique éteint simplement l'équipement, alors lorsque l'écart est positif, des choses imprévisibles peuvent se produire. Évidemment, dans de telles situations, vous devez utiliser une sorte de régulateur de tension, et ils sont disponibles. Les appareils conçus à cet effet sont appelés « régulateur de tension automatique », parfois simplement AVR comme abréviation de la version anglaise.

Pas de tension peut être causé par un accident ou un arrêt pour diverses raisons. La situation est assez désagréable, car... l'absence d'amplitude ou sa chute à une valeur extrêmement faible entraîne un arrêt immédiat de l'équipement lorsque l'ordinateur ne sauvegarde pas les données et que l'équipement de haute technologie ne termine pas le processus comme prévu. Dans ce cas, seule une alimentation électrique autonome, fournie par des alimentations sans interruption, sera utile.


Distorsion de forme

Enfin, le cas le plus rare - distorsion grave de la forme d'onde ou de la fréquence. Cela n’est possible qu’en raison des problèmes de l’organisation de l’approvisionnement en énergie. En général, les alimentations modernes ne sont pas très critiques à cet égard, mais si la distorsion est trop importante, elle ne peut pas être corrigée et vous devez encore une fois recourir à l'aide d'un UPS.

Comment ça fonctionne?

Il est facile de deviner que tout ce qui a été créé par l'homme appareils électriques, en particulier ceux évoqués dans cet article, fonctionnent en utilisant les propriétés typiques de certains radioéléments et circuits simples. Il est préférable de commencer l’analyse des équipements de protection en considérant les filtres d’extension. Qu'y a-t-il de si intéressant à installer à l'intérieur et en quoi diffèrent-elles des rallonges ordinaires ? Tout est très simple. De par leur nature, ces dispositifs sont capables de protéger les équipements contre les interférences impulsionnelles et haute fréquence, ainsi que contre les surtensions. La protection contre les impulsions est basée sur l'utilisation de varistances.


Varistances

Cet élément a une dépendance non linéaire du courant sur la tension appliquée. En termes simples, jusqu'à ce que la tension dépasse une certaine tolérance, un courant extrêmement faible circule dans la varistance. Dès que l'amplitude dépasse le seuil défini, la varistance « s'ouvre » et un courant énorme commence à la traverser. Un fusible est installé devant la varistance, qui dans la plupart des conceptions modernes est automatique et réutilisable, et dès que le courant dépasse la valeur nominale (généralement 10A), le fusible ouvre le circuit, déconnectant l'équipement du réseau. Ce type de protection est assez efficace, même s'il présente plusieurs inconvénients. Premièrement, l'équipement protégé est simplement éteint pendant le fonctionnement. Deuxièmement, avec une forte impulsion, les varistances peuvent griller, l'équipement restera normal et le filtre lui-même avec des éléments brûlés n'offrira plus de protection.


Le filtre le plus simple sur une varistance

Le filtre d'extension le plus simple est équipé d'au moins une varistance et d'un fusible ; les meilleurs appareils ont au moins trois varistances, qui sont connectées en triangle entre les lignes principales (phase, neutre et terre). Les interférences haute fréquence sont filtrées à l'aide de filtres inductifs-capacitifs (LC). Ils fonctionnent selon le principe dit du notch, ayant une résistance différente pour des signaux de fréquences différentes. Pour le réseau 50 Hz ils ne représentent aucun obstacle, mais pour le 1000 Hz ou 10000 Hz ils constituent une barrière pour les équipements alimentés. En règle générale, les fabricants honnêtes indiquent toujours l'atténuation du signal dans la bande de fréquence : plus elle est élevée, mieux c'est.


Filtre LC

Dans les cas plus complexes, lorsque la tension du réseau est périodiquement instable, il est conseillé d'utiliser des régulateurs de tension automatiques. Cet appareil simple contient un autotransformateur, une unité de relais et une unité de mesure de tension d'entrée. Simple circuit électrique surveille en permanence l'amplitude dans la prise, heureusement aujourd'hui la mise en œuvre d'un tel engin est très simple et peu coûteuse. Dès que la tension dépasse la tolérance spécifiée, le relais active l'enroulement élévateur ou abaisseur du transformateur. En moyenne, de tels appareils peuvent maintenir 230 ± 10 % V à la sortie, lorsque l'amplitude à l'entrée passe de 160 à 300 V. Les principaux paramètres ici sont le temps de mesure et de commutation et, bien sûr, la puissance.


Alimentations sans interruption

Les alimentations sans interruption constituent le type de protection le plus fiable, car... assurent une protection complète de l'équipement et contiennent à la fois tous les filtres nécessaires et un régulateur de tension. Aujourd'hui, deux classes principales d'onduleurs peuvent être distinguées : les onduleurs en ligne et les onduleurs en ligne.

Les sources linéaires interactives sont utilisées à des fins domestiques, où une protection est nécessaire, mais où des exigences trop strictes ne leur sont pas imposées. Le fonctionnement des sources du premier type se résume au fait qu'en présence de tension secteur, la charge est simplement alimentée depuis la prise via un filtre ; dès que l'amplitude du signal dépasse la limite admissible, la charge est instantanément déconnectée du secteur et commence à être alimenté par l'onduleur intégré, qui génère 230 V en utilisant l'énergie accumulée dans les batteries.


Batteries

Les sources interactives linéaires sont très populaires parce que... bon marché et fiables, cependant, même s'ils peuvent ne pas fonctionner dans certaines situations d'urgence. Lorsque cela est inacceptable, ils utilisent un UPS en ligne ou, comme on les appelle aussi, un UPS à double conversion. La tension du secteur diminue et est utilisée en permanence pour charger la batterie ; la batterie alimente l'onduleur auquel la charge est connectée. Il s'avère que nous isolons l'équipement du réseau et que même dans les situations d'urgence les plus difficiles, il restera intact. Les onduleurs en ligne sont nettement plus chers que les onduleurs interactifs en ligne, il est donc logique de les payer trop cher uniquement s'il existe un réel besoin. Lors du choix d'un tel appareil, vous rencontrerez involontairement de nombreuses caractéristiques techniques, vous ne devez prêter attention qu'aux principales, telles que : le temps de commutation, la puissance, la présence de l'AVR, les paramètres du filtre et la durée de vie de la batterie. Au fait, une dernière chose à propos du pouvoir. Les fabricants l'indiquent toujours en voltampères (VA), pour convertir les VA en W, il faut les multiplier par un facteur de 0,6...07, plus ajouter une marge de 25 %. Exemple : si votre ordinateur consomme 300 W, alors vous avez besoin d'un UPS (300/0,6)1,25=625 VA.

Modèles actuels de filtres-extenseurs réseau

Défenseur DFS 605 est l'un des filtres les plus simples, mais en même temps de haute qualité. Pour la fabrication du boîtier, on utilise du plastique ABS spécial, moins sensible à la combustion que le matériau conventionnel. L'appareil permet de connecter six consommateurs à la fois avec une puissance totale de 2,2 kW. L'énergie nominale d'absorption du bruit impulsif est de 220 J. Un bon avantage de ce modèle est le fait qu'il est possible de choisir la longueur du cordon : DFS 601 – 1,8 m, DFS 603 – 3 m, DFS 605 – 5 m.

SVEN OPTIMA là encore, c’est une solution très simple et peu coûteuse, ce qui ne l’empêche pas d’être très appréciée. Ce câble d'extension de filtre élémentaire permet le raccordement de six consommateurs et assure une protection contre les interférences pulsées et haute fréquence ; les paramètres ne sont pas exceptionnels : 150 J d'énergie absorbée et atténuation en HF de 10 fois. Cependant, même une telle protection est bien mieux que rien, d’autant plus qu’elle coûte très peu.

Cube de puissance RS-5 est une idée originale de la société nationale Abralan LLC, ce qui ne peut pas être désagréable. Le RS-5 est un produit représentant la caste la plus basse de ces appareils, l'énergie d'absorption nominale ne dépasse pas 90 J. Mais pour ses 10 $, il offre toujours une protection fiable et une facilité de connexion à un équipement qui peut être mis hors tension en appuyant sur un bouton. .

Défenseur DFS 805 appartient à une classe d'appareils complètement différente qui coûte un ordre de grandeur plus élevé que les modèles coûtant 3 à 7 dollars. Ce filtre possède non seulement des paramètres exceptionnels : absorption d'énergie d'impulsion - 714 J, réduction du bruit - 50 dB, mais met également en œuvre certains fonctionnalités intéressantes allumer l'équipement. On utilise donc ici un système maître/esclave, lorsqu'une des prises peut contrôler l'allumage de toutes les autres. Ceux. Si vous activez ce mode en appuyant sur un bouton, l'alimentation sera fournie à cinq prises uniquement lorsque la consommation d'énergie de la sixième principale commencera. C'est très pratique pour un complexe d'équipements, par exemple, nous allumons le téléviseur et l'amplificateur acoustique, le lecteur, etc. s'allume immédiatement, l'éteint - l'inverse est vrai.

Défenseur SMART 100 peut être classé comme un appareil haut de gamme, car a des paramètres et des fonctions avancés. La puissance de charge peut être de 3680 W, l'énergie dissipée est de 3672 J, l'atténuation des interférences RF peut atteindre 75 dB. Il est facile de remarquer que ce modèle a un design exceptionnel, et sur le devant se trouve un écran qui affiche la valeur de la charge actuelle connectée. Les prises sont situées à l'arrière, elles sont au nombre de huit au total : quatre d'entre elles sont connectées en permanence, les autres mettent en œuvre la fonction d'économie d'énergie. En conclusion, il convient de noter que le SMART 100 est également équipé de petites choses aussi agréables qu'un câble qui tourne à 90 degrés et la fonction d'allumage depuis n'importe quelle télécommande IR.

Le modèle haut de gamme de la société SVEN est le filtre Platine. Sa principale caractéristique est l'allumage séparé des consommateurs, lorsque chaque prise utilise son propre interrupteur séparé. De plus, le produit présente de bons paramètres techniques et est très pratique à utiliser. Le filtre peut simplement être posé au sol ou fixé au mur.

N'oubliez pas certains produits coûteux, par exemple, ARS PH6T3-RS. Oui, son prix est sensiblement différent de la moyenne, mais ça vaut le coup, car... APC offre une qualité de fabrication et une protection sans précédent. Un bel ajout cet échantillon est câble réseau, qui peut pivoter à 180 degrés, et un support pratique pour les fils.

Modèles actuels de stabilisateurs de réseau

APC Ligne-R 600 peut être considéré comme l'un des meilleurs régulateurs automatiques du marché, il est simple, mais extrêmement fiable et sans prétention. Son fonctionnement est basé sur la commutation des enroulements d'un transformateur à relais, qui sont contrôlés par un microcontrôleur populaire. Il y a trois indicateurs sur le panneau avant, afin que l'utilisateur sache toujours dans quel mode se trouve l'appareil. Si 600 VA est trop faible pour votre ordinateur, vous pouvez alors recourir à l’achat d’une option plus puissante de 1 200 VA.

Mustek PowerMate 625 est un régulateur de la catégorie « plus simple ». Cependant, pour son argent, il fournit une alimentation normale, dispose de deux prises pour connecter des équipements et d'une protection supplémentaire ligne téléphonique. La tension d'entrée est de 192 à 272 V et en sortie, nous obtenons 230 ± 10 % V.

Marque Krauler est arrivé sur le marché intérieur assez récemment, mais les produits vendus sous cette marque en valent très la peine. En particulier, le régulateur VR-N1000VA peut fonctionner dans la plage de tension d'entrée la plus large de 140 à 260 V, offrant une précision de sortie non inférieure à ± 8 %. Type de fonctionnement du relais. Un bon bonus est l'indicateur numérique d'amplitude de tension sur le panneau avant. Et le prix d'environ 35 $ pour 1 000 VA de puissance est plus qu'agréable.

SVEN NÉO R 1000– le modèle est assez ordinaire avec point technique vision, mais en même temps très pratique à utiliser. Le boîtier se présente sous la forme d'un petit cube qui se connecte au réseau et comprend également deux fiches de l'équipement protégé. La tension d'entrée peut être de 150 à 280 V et la tension de sortie de 195 à 248 V. Comme vous pouvez le constater, la limite inférieure peut s'écarter considérablement de la valeur nominale ; ce n'est pas aussi dangereux qu'un écart vers le haut, mais il ne faut quand même pas connecter à cet appareil des appareils qui ne tolèrent pas une éventuelle chute à 195 V.

Défenseur AVR iPOWER 1000 est l'un des produits les plus récents de l'entreprise et est conçu en tenant compte de toutes les tendances modernes. Le boîtier est fabriqué avec une conception sophistiquée évidente à partir de plastique ininflammable, et sur le panneau avant se trouve un indicateur LCD avec toutes les données nécessaires.

Modèles actuels d'alimentations sans interruption

SOCOMEC SICON NETYS PL 750- un produit d'un fabricant peu connu dans nos espaces ouverts, mais la qualité cette décision ne provoque aucune plainte. La source est rendue aussi pratique que possible, car Les six prises pour fiches standard sont situées sur le panneau arrière. Les caractéristiques techniques déclarées correspondent entièrement aux réelles. L'inconvénient de l'onduleur SOCOMEC SICON peut être considéré comme un logiciel extrêmement non fonctionnel et « défectueux ». Cependant, la surveillance des paramètres de fonctionnement n'est pas toujours nécessaire, vous pouvez donc souvent fermer les yeux sur un tel inconvénient.

IPPON Verso arrière ensemble avec Back-Office représentent une classe d'alimentations sans interruption exclusivement de bureau, comme en témoigne tout d'abord leur puissance. Les deux modèles sont disponibles en deux configurations, offrant une sortie de 400 ou 600 VA. C'est largement suffisant pour alimenter des machines à écrire peu exigeantes. La durée de vie de la batterie à une charge proche de la charge nominale ne dépasse pas plusieurs minutes, donc en cas de coupure de courant, tous les processus doivent être terminés immédiatement. Si vous avez besoin de la protection d’un équipement plus puissant, vous devriez alors vous tourner vers les gammes Smart Power Pro et Smart Winner du même fabricant.

La société SVEN propose une gamme solutions budgétaires, dont on peut considérer qu'il est assez réussi Puissance Pro+ 825. Ce modèle est fabriqué selon toutes les exigences modernes et est équipé d'un port USB pour connecter un ordinateur. Il se distingue de certains « camarades de classe » par une batterie de plus grande capacité (9 Ah contre 7 Ah standard), qui augmente la durée de vie de la batterie.

L'une des positions de leader sur le marché des UPS est occupée par la société APC, proposant non seulement des centaines de modèles différents, mais en général Une approche complexe pour résoudre les problèmes d'alimentation électrique et de protection des équipements. Pour la maison nous recommandons le modèle SAUVEGARDES APC 900. Il se distingue par une fabrication de la plus haute qualité et le niveau de technologie de circuit le plus moderne.

Powercom WOW-700U est un autre représentant des UPS pratiques, car Le corps de l'appareil est réalisé sous la forme d'une rallonge ordinaire. À tous autres égards, il s'agit d'une alimentation sans interruption standard, et avec des paramètres assez intéressants. La durée de vie de la batterie avec un ordinateur est d'environ 10 minutes, le temps de charge ne dépasse pas 6 heures.

La série est également de bonne qualité Étoile Noire Entreprise Powerman. Ici vous pouvez sélectionner une puissance de 400 à 1500 VA. Facilité d'utilisation grâce à l'installation prises régulières sur le panneau arrière du boîtier. Les modèles les plus faibles en ont deux, tandis que les plus puissants en ont trois.