Désactivation de Qos dans Windows 7. Le mythe sur le service QoS. Utilitaire NameBench pour améliorer le chargement des pages

Est-il possible d’accélérer Internet ? Facilement! Vous trouverez ci-dessous un ensemble simple de mesures qui peuvent augmenter considérablement la vitesse d'Internet sous Windows.

Potentiel d’accélération

Par exemple, si votre contrat avec votre fournisseur indique 10 mégabits par seconde, vous obtiendrez en réalité une vitesse de téléchargement d'environ 1 mégaoctet par seconde, voire inférieure. Le fait est que Windows dispose d'un service QoS, qui Peut être réservez jusqu'à 20% de vitesse pour vos tâches. Le navigateur attend également une réponse des serveurs DNS. Et dans les cas avancés, l'accélération matérielle du rendu des pages peut être désactivée dans le navigateur. Et puis la navigation sur le Web se transforme en torture. Par conséquent, si vous désactivez la QoS, activez la mise en cache des requêtes DNS et activez l'accélération matérielle dans le navigateur, votre vitesse Internet peut augmenter considérablement.

Le moyen le plus simple d'accélérer Internet sous Windows

Le moyen le plus simple et le plus sûr de désactiver la QoS et d'augmenter la vitesse de 20 % consiste à modifier la politique de sécurité. Vous n'avez pas besoin d'accéder au registre et de risquer les performances de l'ensemble de votre ordinateur ; décochez simplement une case dans l'éditeur de paramètres pratique.

Alors, cliquez sur « Démarrer » → « Exécuter » et entrez le nom : gpedit.msc. L'éditeur de politique de sécurité s'ouvrira. Nous suivons séquentiellement l'itinéraire suivant : « Configuration ordinateur » → « Modèles d'administration » → « Réseau » → « Planificateur de paquets QoS" Activez « Limiter la bande passante réservée » mais réglez la réserve à 0 %. Prêt.

Augmentation du cache DNS pour accélérer le réseau

Le rôle du cache DNS est de stocker les adresses IP de tous les sites Internet que vous visitez le plus souvent. Si vous avez tendance à visiter très souvent certaines ressources Internet (par exemple, les réseaux sociaux VK, Facebook, Twitter, divers blogs ou ressources multimédia YouTube, StumbleUpon), alors augmenter le cache DNS de votre navigateur devrait avoir un effet positif sur la vitesse de chargement de ces pages Internet. Pour augmenter la taille du cache, vous devez procéder comme suit :

Cliquez sur le bouton « Démarrer », tapez le mot « regedit » dans la recherche et appuyez sur la touche Entrée. L'éditeur de registre devrait démarrer. Ensuite, dans l'éditeur, vous devez accéder au chemin suivant :

HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\DNScache\Parameters

CacheHashTableBucketSize
TailleCacheHashTable
MaxCacheEntryTtlLimit
MaxSOACacheEntryTtlLimit

Et attribuez-leur les valeurs suivantes :

CacheHashTableBucketSize – définir la valeur sur 1
CacheHashTableSize – définir la valeur sur 384
MaxCacheEntryTtlLimit – définissez la valeur sur 64 000
MaxSOACacheEntryTtlLimit – définissez la valeur sur 301

Accélérez Internet en désactivant la QoS

À notre connaissance, sous XP, Vista, Windows 7, 8 et 10, il existe un système de réservation de largeur de canal Internet. Ce système (QoS Reserved Bandwidth Limit) limite spécifiquement votre trafic afin que les applications plus prioritaires, telles que le centre de mise à jour ou d'autres composants prioritaires, puissent fonctionner normalement et passer. La largeur du canal réservé est d'environ 20 % de la vitesse maximale de votre Internet. Autrement dit, avec cette limitation, vous n’utilisez en réalité que 80 % de la vitesse fournie par le fournisseur. Par conséquent, modifier ce pourcentage peut accélérer considérablement votre navigateur et le chargement des pages Internet. Afin de réduire la largeur du canal réservé dans Windows 7, vous devez effectuer les étapes suivantes :

Comme dans le cas précédent, cliquez sur le bouton « Démarrer », tapez le mot « regedit » dans la recherche et appuyez sur la touche Entrée. L'éditeur de registre devrait démarrer. Ensuite, dans l'éditeur, vous devez accéder au chemin suivant :

HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft

Maintenant, faites un clic droit sur la clé nouvellement créée dans la partie gauche de la fenêtre, créez un nouveau paramètre de type « DWORD » et donnez-lui le nom « NonBestEffortLimit ». Pour désactiver la réservation de chaînes, définissez la clé « NonBestEffortLimit » sur « 0 ».

Désactivation du réglage automatique TCP

Sous Windows 7, la fonctionnalité de réglage automatique est activée par défaut. Cette fonction peut être l'une des raisons pour lesquelles certains sites ou services Internet individuels peuvent se charger lentement, car cette fonction ne fonctionne pas efficacement avec un grand nombre de serveurs de vitesses d'accès différentes. Afin de désactiver le réglage automatique TCP, vous devez exécuter la ligne de commande en tant qu'administrateur et y saisir la commande suivante :

Interface Netsh TCP définie niveau d'autotuning global = désactivé

Afin de rétablir le réglage automatique TCP, vous devez entrer la commande suivante dans la ligne de commande (exécutée en tant qu'administrateur) :

Interface Netsh TCP définie niveau d'autoréglage global = normal

Et puis redémarrez également l'ordinateur.

Accélération matérielle du navigateur

Dans certains cas, vous avez peut-être remarqué que la navigation sur certaines pages Internet depuis votre navigateur est nettement plus lente que dans les versions précédentes de ce même navigateur. Cela peut être dû au fait que votre navigateur utilise actuellement par défaut le mode de rendu logiciel au lieu du mode de rendu GPU (c'est-à-dire le rendu utilisant l'accélération matérielle à l'aide du processeur graphique). Cela peut arriver aux utilisateurs qui disposent de cartes vidéo ou de pilotes obsolètes, qui à leur tour ne prennent pas en charge ou ont cessé de prendre en charge l'accélération matérielle GPU. Une solution possible à ce problème peut consister à installer le dernier pilote de carte vidéo prenant en charge l'accélération matérielle GPU.

Si ce problème n'a pas été résolu en installant le dernier pilote de carte vidéo, le seul moyen de sortir de cette situation peut être de remplacer la carte vidéo actuelle par une carte plus récente prenant en charge l'accélération matérielle à l'aide du GPU.

Mais vous pouvez vous assurer dans quel mode votre navigateur fonctionne. Cela se voit généralement dans les paramètres avancés du navigateur, et plus particulièrement dans l’option d’accélération matérielle.

Internet Explorer:

  1. Ouvrez Internet Explorer et allez dans le menu des paramètres « Outils -> Options Internet ».
  2. Dans l'onglet Avancé, vous devriez voir une option d'accélération graphique.

Assurez-vous maintenant que l'option « Utiliser le rendu logiciel au lieu du rendu GPU » est cochée. Si la case est cochée, alors Internet Explorer utilise le mode de rendu logiciel. Décochez la case si vous souhaitez qu'IE passe en mode de rendu GPU. Si cette option est grisée et ne change pas, cela signifie que votre carte vidéo ou son pilote ne prend pas en charge l'accélération matérielle pour le navigateur.

Un exemple de comment voir si l'accélération matérielle est activée pour Mozilla Firefox:

  1. Lancez Firefox et ouvrez les paramètres du navigateur en utilisant le menu « Outils -> Préférences ».
  2. Allez dans l'onglet « Avancé », où dans l'onglet « Général » vous devriez voir la section « Navigation ». Dans cette section, il y a une option appelée « Utiliser l'accélération matérielle lorsqu'elle est disponible ». Si cette option n'est pas cochée, votre navigateur utilise le mode de rendu logiciel. Cochez la case pour forcer Firefox à utiliser l'accélération matérielle si votre sous-système graphique la prend en charge.

Comment accélérer Internet sur Windows 8 à l'aide de NameBench

Lorsque votre navigateur tente d'accéder à un site Web, il contacte d'abord le serveur de noms DNS. Le problème est que ce serveur est physiquement situé chez votre FAI. Pourquoi les petites entreprises commerciales sont-elles célèbres ? C'est vrai - le désir d'économiser sur tout. Par conséquent, l’équipement acheté pour le service DNS est faible. Eh bien, vous essayez d’accéder à un site Web, le navigateur contacte le serveur DNS lent du fournisseur, et c’est à ce moment-là qu’un délai se produit, qui peut durer plusieurs secondes. N'oubliez pas maintenant que chaque page du site peut contenir des images, des vidéos, du Flash, etc. à partir d'autres sites. Ce sont encore des requêtes DNS vers un serveur lent. En conséquence, les pertes s’accumulent et le ralentissement devient perceptible. Ce qu'il faut faire? La réponse est évidente : vous devez utiliser les serveurs DNS les plus rapides. Le programme vous aide à les trouver NomBench.

Qu'est-ce qu'on attend? Téléchargez NameBench (gratuit) et exécutez-le. Aucune installation requise. Après le lancement, indiquez votre pays, le navigateur que vous utilisez et cliquez sur le bouton Démarrer le benchmark. Le programme essaiera plusieurs dizaines de serveurs DNS et sélectionnera le plus rapide juste pour vous. En moyenne, vous pouvez trouver un serveur qui fonctionne 2 à 3 fois plus rapidement que le DNS de votre fournisseur.

Une fois que NameBench a trouvé le DNS le plus rapide, l'adresse IP de ce serveur vous sera affichée. C'est ce qu'il faut préciser dans les paramètres de connexion. Tout est comme d'habitude :

Vous serez agréablement surpris lorsque vous remarquerez qu’Internet est devenu beaucoup plus rapide !

Personne n'aime quand il faut beaucoup de temps pour ouvrir une page Web lors du chargement et que le téléchargement des fichiers ne se produit pas au niveau auquel il le souhaiterait. Bien que lors de la commande d'un service auprès du fournisseur, celui-ci indiquait clairement 20 voire 100 Mb/s, mais en réalité, nous n'obtenons pas une telle vitesse.

Bien sûr, il y a une explication à cela. Premièrement, le système prend environ 20 % pour ses besoins, et deuxièmement, le navigateur reçoit une réponse des serveurs DNS, même si cela prend du temps.

Quoi qu'il en soit, nous allons maintenant découvrir comment augmenter plusieurs fois la vitesse d'Internet.

Désactiver la limitation de vitesse QoS

Généralement, le système impose une limite de vitesse de 20 %, bien qu'elle puisse être différente pour chacun. Pour augmenter la vitesse d'Internet, vous devez désactiver cette option. Pour ce faire, nous utiliserons les politiques de groupe locales. Malheureusement, cette fonctionnalité n'est disponible que sur les éditions Pro de Windows.

Ouvrez la fenêtre « Exécuter » en utilisant la combinaison Gagner+R et dans la fenêtre qui apparaît, écrivez la commande suivante : gpedit.msc .

Sur le côté gauche de la fenêtre qui s'ouvre, rendez-vous dans la rubrique : La configuration d'un ordinateurModèles d'administration- Filet - Planificateur de paquets QoSLimiter la bande passante réservée.

On y retrouve l'item « Limiter la bande passante de sauvegarde ». Double-cliquez dessus et définissez le paramètre sur "Activé", puis entrez le numéro “0” dans "Limitation de bande passante". Cliquez sur Appliquer.

Pour vérifier si un périphérique réseau fonctionne avec le planificateur de paquets QoS, vous devez accéder au Centre Réseau et partage. Vous pouvez y accéder en cliquant avec le bouton droit sur l'icône Wi-Fi dans la barre des tâches ou en cliquant avec le bouton droit sur une connexion filaire. Sur la gauche, accédez à la section « Modification des paramètres de l'adaptateur ». Faites un clic droit sur votre connexion et sélectionnez « Propriétés ». L'option devrait apparaître ici "Planificateur de paquets QoS", marqué d'une coche.

Désactivation de la QoS via le registre

Si vous disposez d'une version de Windows autre que PRO, cette instruction peut vous convenir. Allez dans le registre, pour cela nous utilisons la combinaison Win + R et entrons la commande regedit.

Passons à la section suivante :

HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft

Nous trouvons ici la section les fenêtres, faites un clic droit dessus et créez une nouvelle section avec le nom Psched.

Accédez à la section créée et à droite créez un paramètre DWORD 32 bits avec le nom NonBestEffortLimit. On attribue à ce paramètre la valeur «0» .


Une fois le travail terminé, redémarrez l'ordinateur.

Désactiver la limitation de vitesse Internet dans le logiciel

Il arrive que lorsque vous utilisez des programmes nécessitant Internet, par exemple des clients torrent, des fonctions de limitation de vitesse peuvent être actives pour vous.

Prenez un client torrent par exemple. Si vous faites un clic droit sur le téléchargement actif, il y a un élément "Restriction de réception". Pointez la souris dessus et regardez. Le mode doit être actif "Illimité".


C'est la même chose avec les autres clients torrent. Dans d’autres types de programmes, vous devrez fouiller et trouver quelque chose de similaire.

Comment augmenter le cache DNS pour augmenter la vitesse ?

Comme beaucoup d'entre vous le savent, le cache DNS vous permet de stocker les adresses IP des ressources que vous avez déjà visitées, et une nouvelle visite utilisera le cache DNS, ce qui vous permettra d'ouvrir les pages beaucoup plus rapidement. Malheureusement, son volume n’est pas infini, mais il peut être augmenté.

Aller! Appuyez sur Win+R et entrez la commande pour accéder au registre – regedit. Une fenêtre s'ouvre où nous devons accéder à cette section à gauche :

HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\DNScache\Parameters

Sur la droite, vous devez faire un clic droit sur l'espace vide et créer 4 paramètres « DWORD » et leur donner des noms comme celui-ci – CacheHashTableBucketSize, TailleCacheHashTable, MaxCacheEntryTtlLimit, MaxSOACacheEntryTtlLimit.

Chacun d'eux doit avoir ces valeurs (dans l'ordre de chacun) - 1, 384, 64 000 et 301.

Pour terminer le travail avec succès, redémarrez votre ordinateur.

Réglage automatique TCP - désactiver

Il existe une fonctionnalité dans le système qui peut ralentir le chargement des pages Web, et tout cela parce que son efficacité avec certains serveurs n'est pas très bonne. Nous allons donc simplement l'éteindre.

Pour effectuer cette tâche, nous devons ouvrir une invite de commande élevée et y exécuter la commande suivante :

Mode Turbo des navigateurs pour accélérer le chargement des sites

De nombreux navigateurs disposent d’une fonctionnalité « Mode Turbo » qui accélère l’ouverture des pages. Jusqu'à présent, il est disponible sur les navigateurs populaires suivants : Opera et Yandex. Pour les autres, vous pouvez télécharger des extensions spéciales.

Dans Opera, cette fonction est activée en cliquant sur le bouton « Opera » dans le coin supérieur gauche. Trouver la fonction "Opéra Turbo" et activez-le.

Dans le navigateur Yandex, cette fonction est activée dans les paramètres – Afficher les paramètres supplémentaires. À côté de la section « Turbo », nous mettons "Toujours activé".

Utilitaire NameBench pour améliorer le chargement des pages

De nombreux prestataires, notamment commerciaux, souhaitent toujours économiser de l'argent sur l'équipement. Et lorsque vous commencez à visiter des sites Web, les serveurs DNS (équipement du fournisseur) sont contactés. Si c'est bon marché, la vitesse de chargement de votre page sera très lente. Pour résoudre ce problème, nous avons besoin de serveurs DNS rapides, et le programme NameBench nous aidera à les trouver."Démarrer l'analyse comparative". Le programme commencera à tester un grand nombre de serveurs DNS et sélectionnera le plus rapide.

Lorsque NameBench trouve le serveur requis, il affichera son adresse IP, qui doit être saisie dans vos paramètres de connexion.

Mise à jour du firmware du routeur

C'est le dernier point, mais non moins important. Si vous utilisez un routeur dont le firmware est très obsolète, n'attendez pas de miracle de sa part. Recherchez sur Internet le micrologiciel de votre routeur et trouvez les instructions pour l'installer, ainsi que pour enregistrer l'ancien afin d'éviter les problèmes.

Ce sont en fait toutes les méthodes pouvant être utilisées sur les versions modernes de Windows. Mais il y a peut-être autre chose, et si cela apparaît, nous ne l’ignorerons pas.

L'une des tendances les plus en vogue en matière de réseaux aujourd'hui est la convergence de la voix et de la vidéo sur les réseaux de données traditionnels. L’un des problèmes de ce type de mixage est que pour que les paquets de données vidéo et audio fonctionnent correctement, ils doivent être transmis au destinataire de manière rapide et fiable, sans interruption ni retard excessif. Cependant, ce type de trafic ne doit pas interférer avec la transmission de paquets de données plus traditionnels.

Une solution possible à ce problème est la QoS. La QoS, ou qualité de service, est une technologie permettant d'attribuer des priorités aux paquets de données. QoS vous permet de transmettre des paquets sensibles au temps avec une priorité plus élevée que les autres paquets.

La QoS est une norme industrielle et non une norme propriétaire de Microsoft. Cependant, Microsoft a introduit cette norme QoS pour la première fois dans Windows 2000. La version Microsoft de la QoS a beaucoup évolué depuis, mais répond toujours aux normes de l'industrie.

Dans Windows XP Professionnel, la QoS fonctionne principalement comme un mécanisme de réservation de bande passante. Lorsque QoS est activé, une application est autorisée à réserver jusqu'à 20 % de la bande passante réseau totale fournie par la carte réseau de chaque machine. Cependant, la quantité de bande passante réseau réservée par une application peut être configurée. Je vais vous montrer comment modifier la quantité de bande passante que vous réservez dans la troisième partie.

Pour voir comment la bande passante disponible est utilisée, disons que vous disposez d'une application de visioconférence qui nécessite une bande passante prioritaire pour fonctionner correctement. En supposant que cette application ait QoS activé, nous pouvons dire qu'elle réserve 20 % de la bande passante totale de la machine, laissant 80 % de la bande passante pour le reste du trafic réseau.

Toutes les applications, à l'exception des applications de vidéoconférence, utilisent une technologie appelée « best effort delivery ». Cela signifie que les paquets sont envoyés avec la même priorité « premier paquet livré, premier servi, premier ». D’un autre côté, le trafic des applications de visioconférence aura toujours une priorité plus élevée que les autres trafics, mais l’application ne sera jamais autorisée à consommer plus de 20 % de la bande passante totale.

Cependant, ce n'est pas parce que Windows XP réserve une certaine bande passante pour le trafic prioritaire que les applications prioritaires normales ne pourront pas utiliser la bande passante disponible. Bien que les applications de visioconférence profitent d’une bande passante réservée à priorité plus élevée, les chances d’utilisation continue de ces applications sont très faibles. Dans ce cas, Windows autorise d'autres applications à utiliser la bande passante réservée et non réservée pour la meilleure diffusion possible, à condition que les applications pour lesquelles une partie de la bande passante réseau est réservée ne soient pas utilisées.

Dès le démarrage de l'application de visioconférence, Windows commence à forcer l'utilisation de la réservation. Mais même dans ce cas, la réserve n’est pas absolue. Supposons que Windows réserve 20 % de la bande passante du réseau à une application de visioconférence, mais que cette application n'a pas besoin de la totalité de ces 20 %. Dans ces cas, Windows autorise d'autres applications à utiliser la bande passante restante, mais surveillera en permanence les besoins de l'application ayant la priorité la plus élevée. Dans le cas où une application nécessite plus de bande passante, la bande passante lui sera allouée jusqu'à un maximum de 20 %.

Comme je l'ai déjà dit, la QoS est une norme industrielle et non une technologie Microsoft. En tant que telle, la QoS est utilisée dans Windows, mais Windows ne peut pas faire le travail lui-même. Pour que la QoS fonctionne, chaque élément matériel entre l'expéditeur et le destinataire doit prendre en charge la QoS. Cela signifie que les adaptateurs réseau, les commutateurs, les routeurs et tous les autres appareils utilisés doivent connaître la qualité de service, ainsi que les systèmes d'exploitation du destinataire et de l'expéditeur.

Au cas où vous vous poseriez la question, vous n'avez pas besoin d'installer une infrastructure réseau exotique et folle pour utiliser la QoS. Le mode de transfert asynchrone (ATM) est une excellente technologie réseau pour utiliser la QoS car il s'agit d'une technologie orientée connexion, mais vous pouvez utiliser la QoS avec d'autres technologies telles que Frame Relay, Ethernet et même Wi-FI (802.11 x).

La raison pour laquelle ATM est un choix si idéal pour la QoS est qu'il est capable de mettre en œuvre la réservation de bande passante et l'allocation de ressources au niveau matériel. Ce type de distribution dépasse les capacités d'Ethernet et des technologies de réseau similaires. Cela ne signifie pas que la QoS ne peut pas être utilisée. Cela signifie simplement que la QoS doit être appliquée différemment que dans un environnement ATM.

Dans un environnement ATM, les ressources sont allouées immédiatement, au niveau des appareils physiques. Étant donné qu'Ethernet et d'autres technologies similaires ne peuvent pas allouer les ressources de cette manière, ces types de technologies reposent sur la priorisation plutôt que sur une véritable allocation des ressources. Cela signifie que la réservation de bande passante s'effectue à un niveau supérieur du modèle OSI. Une fois la bande passante réservée, les paquets ayant des priorités plus élevées sont transmis en premier.

Une chose à considérer si vous envisagez de mettre en œuvre la QoS sur Ethernet, Wi-Fi ou d’autres technologies similaires est que ces technologies sont sans connexion. Cela signifie que l'expéditeur n'a aucun moyen de vérifier l'état du destinataire ou l'état du réseau entre l'expéditeur et le destinataire. Cela signifie que l'expéditeur peut garantir que les paquets ayant des priorités plus élevées seront envoyés en premier, mais ne peut pas garantir que ces paquets seront livrés dans un certain délai. En revanche, la QoS est capable d'apporter ce type de garantie sur les réseaux ATM, puisque l'ATM est une technologie orientée connexion.

Windows 2000 contre Windows Serveur 2003

J'ai mentionné plus tôt que Microsoft avait introduit la QoS pour la première fois dans Windows 2000 et que son utilisation avait considérablement évolué depuis. Je souhaite donc parler un peu des différences entre la QoS sous Windows 2000 et sous Windows XP et Windows Server 2003 (qui utilisent cette norme à peu près de la même manière).

Dans Windows 2000, la QoS était basée sur l'architecture Intserv, qui n'est pas prise en charge dans Windows XP ou Windows Server 2003. La raison pour laquelle Microsoft a décidé de ne pas utiliser une telle architecture était que l'API sous-jacente était difficile à utiliser et que l'architecture présentait des problèmes d'évolutivité. .

Certaines organisations utilisent encore Windows 2000, j'ai donc pensé vous expliquer brièvement le fonctionnement de l'architecture QoS de Windows 2000. Windows 2000 utilise un protocole appelé RSVP pour réserver les ressources de bande passante. Lorsque la bande passante est demandée, Windows doit déterminer quand les paquets peuvent être transmis. Pour ce faire, Windows 2000 utilise un protocole de signalisation appelé SBM (Sunbelt Bandwidth Manager) pour signaler à l'expéditeur qu'il est prêt à accepter les paquets. Le service de contrôle d'admission (ACS) vérifie que la bande passante effective est disponible, puis accorde ou refuse la demande de bande passante.

API de trafic

L'un des principaux problèmes liés à la priorisation du trafic réseau est que vous ne pouvez pas hiérarchiser le trafic en fonction de l'ordinateur qui le génère. Il est courant qu'un seul ordinateur exécute plusieurs applications et crée un flux de trafic distinct pour chaque application (et système d'exploitation). Lorsque cela se produit, chaque flux de trafic doit être priorisé individuellement. Après tout, une application peut nécessiter une bande passante disponible tandis qu’une autre application est parfaitement adaptée à une meilleure diffusion.

C’est là qu’intervient l’API Traffic Control (interface logicielle de contrôle du trafic). L'API Traffic Control est une interface de programmation d'application qui vous permet d'appliquer des paramètres QoS à des paquets individuels. L'API Traffic Control fonctionne en identifiant les flux de trafic individuels et en appliquant diverses méthodes de contrôle de la qualité de service à ces flux.

La première chose que fait l'API Traffic Control est de créer ce que l'on appelle une spécification de filtre. Un Filterspec est essentiellement un filtre qui détermine ce que signifie pour un paquet l'appartenance à un flux particulier. Certains des attributs utilisés par filterspec incluent l'adresse IP source et de destination du paquet et le numéro de port.

Une fois la filterspec définie, l'API permet de créer la flowspec. Flowspec définit les paramètres QoS qui seront appliqués à une séquence de paquets. Certains des paramètres définis par flowspec incluent le débit en bauds (taux de transmission autorisé) et le type de service.

Le troisième concept défini par l'API Traffic Control est le concept de flux. Un flux est une simple séquence de paquets soumis à une seule flowspec. En termes simples, filterspec détermine quels paquets seront inclus dans le flowspec. Flowspec détermine si les paquets seront traités avec des priorités plus élevées, et le flux est la transmission réelle des paquets soumis au traitement flowspec. Tous les paquets d'un flux sont traités de la même manière.

Il convient de mentionner que l'un des avantages de l'API Traffic Control par rapport à l'API générique QoS utilisée dans Windows 2000 est la possibilité d'utiliser l'agrégation. Si un nœud dispose de plusieurs applications qui envoient plusieurs flux de données vers une destination commune, ces paquets peuvent être combinés en un flux commun. Cela s'applique même si les applications utilisent des numéros de port différents, à condition que les adresses IP source et de destination soient les mêmes.

Classificateur de paquets générique

Dans la section précédente, j'ai parlé de la relation entre flowspec, filterspec et flow. Cependant, il est important de rappeler que l’API Traffic Control est simplement une interface de programmation d’application. En tant que tel, son travail consiste à identifier et à prioriser les flux de trafic, et non à créer ces flux.

Le classificateur de paquets générique est responsable de la création des flux. Comme vous vous en souvenez dans la dernière section, l'un des attributs définis dans le flowspec était le type de service. Le type de service détermine essentiellement la priorité du thread. Le classificateur de paquets générique est chargé de déterminer le type de service qui a été attribué à la flowspec, après quoi il place les paquets associés dans une file d'attente appropriée au type de service. Chaque thread est placé dans une file d'attente distincte.

Planificateur de paquets QoS (planificateur de paquets)

Le troisième composant QoS que vous devez connaître est le planificateur de paquets QoS. En termes simples, la tâche principale d'un planificateur de paquets QoS est de façonner le trafic. Pour ce faire, le planificateur de paquets reçoit des paquets de différentes files d'attente, puis marque ces paquets avec des priorités et des débits.

Comme je l'ai expliqué dans la première partie de cette série, pour que la QoS fonctionne correctement, les différents composants situés entre la source des paquets et leur destination doivent prendre en charge (c'est-à-dire en être conscients) la QoS. Si ces appareils doivent savoir comment gérer la QoS, ils doivent également savoir comment gérer le trafic régulier et non prioritaire. Pour rendre cela possible, la QoS utilise une technologie appelée marquage.

En fait, il existe ici deux types de marquages. Le planificateur de paquets QoS utilise les marquages ​​Diffserv, reconnus par les appareils de couche 3, et les marquages ​​802.1p, reconnus par les appareils de couche 2.

Configuration du planificateur de paquets QoS

Avant de vous montrer comment fonctionne le balisage, il convient de noter que vous devrez configurer un planificateur de paquets QoS pour que tout fonctionne. Dans Windows Server 2003, le planificateur de paquets QoS est un composant réseau facultatif, tout comme le client pour les réseaux Microsoft ou le protocole TCP/IP. Pour activer le planificateur de paquets QoS, ouvrez la page des propriétés de la connexion réseau de votre serveur et cochez la case en regard de Planificateur de paquets QoS, comme illustré dans la figure A. Si le planificateur de paquets QoS n'est pas répertorié, cliquez sur Installer et suivez les invites.

Figure A : Le planificateur de paquets QoS doit être activé avant de pouvoir utiliser QoS

Une autre chose que vous devez savoir sur le planificateur de paquets QoS est que pour qu'il fonctionne correctement, votre carte réseau doit prendre en charge le balisage 802.1p. Pour vérifier votre adaptateur, cliquez sur le bouton Configurer, Figure A, et Windows affichera les propriétés de votre adaptateur réseau. Si vous regardez dans l'onglet Avancé de la page des propriétés, vous verrez les différentes propriétés prises en charge par votre carte réseau.

Si vous regardez la figure B, vous verrez que l’une des propriétés répertoriées est le marquage VLAN 802.1Q/1P. Vous voyez également que cette propriété est désactivée par défaut. Pour activer le balisage 802.1p, activez simplement cette propriété et cliquez sur OK.

Figure B : Vous devez activer le balisage VLAN 802.1Q/1P

Vous avez peut-être remarqué dans la figure B que la fonctionnalité que vous avez activée est liée au balisage VLAN plutôt qu'au balisage des paquets. La raison en est que les marqueurs de priorité sont inclus dans les balises VLAN. La norme 802.1Q définit les VLAN et les balises VLAN. Cette norme réserve en fait trois bits dans le paquet VLAN qui servent à enregistrer le code de priorité. Malheureusement, la norme 802.1Q ne définit jamais ce que doivent être ces codes de priorité.

Le 802.1P a été créé en complément du 802.1Q. 802.1P définit un marquage prioritaire qui peut être inclus dans une balise VLAN.

Signal 802.1P

Comme je l'ai dit dans la partie précédente, la transmission du signal 802.1p s'effectue au niveau de la deuxième couche du modèle OSI. Cette couche est utilisée par les périphériques physiques tels que les commutateurs. Les appareils de couche 2 prenant en charge 802.1p peuvent afficher les marquages ​​de priorité attribués aux paquets, puis regrouper ces paquets dans des classes de trafic distinctes.

Sur les réseaux Ethernet, les marquages ​​de priorité sont inclus dans les balises VLAN. Les VLAN et les balises VLAN sont définis par la norme 802.1Q, qui définit un champ de priorité de trois bits, mais ne définit pas réellement la manière dont ce champ de priorité doit être utilisé. C’est là qu’intervient la norme 802.1P.

802.1P définit diverses classes de priorité qui peuvent être utilisées conjointement avec la norme 802.1Q. En fin de compte, le 802.1Q laisse le choix des marquages ​​prioritaires à l'administrateur, donc techniquement vous n'êtes pas obligé de suivre les directives du 802.1P, mais le 802.1P semble être ce que tout le monde choisit.

Bien que l'idée d'utiliser les normes 802.1P pour fournir le balisage de couche 2 semble probablement être une pure théorie, elle peut en réalité être déterminée via les paramètres de stratégie de groupe. La norme 802.1P propose huit classes de priorité différentes (allant de 0 à 7). Les paquets avec des classes de priorité plus élevées sont traités par QoS avec une priorité de livraison plus élevée.

Par défaut, Microsoft attribue les marquages ​​de priorité suivants :

Mais comme je l'ai mentionné plus tôt, vous pouvez modifier ces priorités en modifiant divers paramètres de stratégie de groupe. Pour ce faire, vous devez ouvrir l'éditeur de stratégie de groupe et accéder à l'arborescence de la console sous les branches Configuration ordinateur\Modèles d'administration\Réseaux\Planificateur de paquets QoS\Valeurs de priorité de deuxième niveau. Comme vous pouvez le voir sur la figure A, il existe des paramètres de stratégie de groupe correspondant à chacune des étiquettes de priorité répertoriées ci-dessus. Vous pouvez attribuer vos niveaux de marquage prioritaire à n’importe lequel de ces types de services. Cependant, gardez à l'esprit que ces paramètres de stratégie de groupe s'appliquent uniquement aux hôtes exécutant Windows XP, 2003 ou Vista.

Figure A : Vous pouvez utiliser l'éditeur de stratégie de groupe pour configurer l'indicateur de priorité de deuxième niveau.

Services différenciés

Comme je l'ai expliqué dans un article précédent, QoS effectue des marquages ​​de priorité aux couches deux et trois du modèle OSI. Cela garantit que les priorités sont prises en compte tout au long du processus de livraison des colis. Par exemple, les commutateurs fonctionnent au niveau de la couche 2 du modèle OSI, mais les routeurs fonctionnent généralement au niveau de la couche 3. Ainsi, si les paquets utilisaient uniquement les marquages ​​de priorité 802.1p, le commutateur attribuerait des priorités à ces paquets, mais ces priorités seraient ignorées par les routeurs du réseau. Pour lutter contre cela, QoS utilise le protocole de services différenciés (Diffserv) pour prioriser le trafic au niveau de la couche 3 du modèle OSI. Les marquages ​​Diffserv sont inclus dans les en-têtes IP des paquets utilisant TCP/IP.

L'architecture utilisée par Diffserv a été définie à l'origine par la RFC 2475. Cependant, de nombreuses spécifications d'architecture ont été réécrites dans la RFC 2474. La RFC 2474 définit l'architecture Diffserv pour IPv4 et IPv6.

La chose intéressante à propos de l'utilisation d'IPv4 dans la RFC 2474 est que même si Diffserv a été complètement remplacé, il est toujours rétrocompatible avec la spécification RFC 2475 d'origine. Cela signifie que les anciens routeurs qui ne prennent pas en charge les nouvelles spécifications peuvent être capables de reconnaître les priorités attribuées.

L'implémentation actuelle de Diffserv utilise les octets de type de service des paquets Type de service (TOS) pour stocker la valeur Diffserv (appelée valeur DSCP). Dans cet octet, les six premiers bits stockent la valeur DSCP et les deux derniers bits ne sont pas utilisés. La raison pour laquelle ces marquages ​​sont rétrocompatibles avec la spécification RFC 2475 est que la RFC 2475 exigeait que les trois premiers bits du même octet soient utilisés dans les informations de séquence IP. Bien que les valeurs DSCP comportent six bits, les trois premiers bits reflètent toujours la séquence IP.

Comme pour le balisage 802.1p que j'ai démontré précédemment, vous pouvez configurer les priorités Diffserv via divers paramètres de stratégie de groupe. Avant de vous montrer comment procéder, je vais vous présenter les priorités Diffserv standard utilisées sous Windows :

Vous avez peut-être remarqué que les marquages ​​de priorité Diffserv utilisent une plage complètement différente de celle du 802.1P. Au lieu de prendre en charge une plage de 0 à 7, Diffserv prend en charge une plage de marquage de priorité de 0 à 63, les nombres plus grands ayant des priorités plus élevées.

Comme je l'ai dit, Windows vous permet de définir les marquages ​​de priorité Diffserv via les paramètres de stratégie de groupe. Sachez cependant que certains routeurs plus avancés attribueront leurs propres valeurs Diffserv aux paquets, indépendamment des valeurs attribuées par Windows.

Dans cet esprit, vous pouvez configurer les marquages ​​de priorité Diffserv en ouvrant l'éditeur de stratégie de groupe et en accédant à Configuration ordinateur\Modèles d'administration\Réseau\Planificateur de paquets QoS dans l'arborescence de la console.

Si vous regardez la figure B, vous remarquerez qu'il existe deux onglets liés au DSCP situés sous l'onglet Planificateur de paquets QoS. L'un de ces onglets vous permet d'attribuer des marquages ​​de priorité DSCP aux paquets qui correspondent à la flowspec, et le second vous permet d'attribuer des marquages ​​de priorité DSCP aux paquets qui ne correspondent pas. Les paramètres eux-mêmes sont similaires pour les deux onglets, comme le montre la figure C.

Figure B : Windows gère les marquages ​​de priorité DSCP séparément pour les paquets qui correspondent à la flowspec et ceux qui ne correspondent pas.

Figure C : Vous pouvez attribuer manuellement des marquages ​​de priorité DSCP à différents types de services.

Divers paramètres de stratégie de groupe

Si vous regardez la figure B, vous remarquerez qu'il existe trois paramètres de stratégie de groupe dont je n'ai pas parlé. Je voulais mentionner brièvement quelles sont ces options et ce qu'elles font pour ceux qui pourraient être intéressés.

Le paramètre Limit Outstanding Packets est essentiellement une valeur de seuil de service. Si le nombre de paquets excessifs atteint une certaine valeur, la QoS interdira toute allocation de bande passante supplémentaire à la carte réseau jusqu'à ce que la valeur tombe en dessous du seuil maximum autorisé.

Le paramètre Limiter la bande passante réservable contrôle le pourcentage de bande passante totale que les applications compatibles QoS peuvent réserver. Par défaut, les applications compatibles QoS peuvent réserver jusqu'à 80 % de la bande passante du réseau. Bien entendu, toute partie de la bande passante réservée et non actuellement utilisée par les applications QoS peut être utilisée par d'autres applications.

Le paramètre Set Timer Resolution contrôle les unités de temps minimales (en microsecondes) que le planificateur de paquets QoS utilisera pour planifier les paquets. Essentiellement, ce paramètre contrôle la fréquence maximale à laquelle les paquets peuvent être mis en file d'attente pour être livrés.

QoS et modems

À l’ère de la disponibilité quasi universelle des technologies à large bande, le simple débat sur les modems semble étrange. Cependant, de nombreuses petites entreprises et utilisateurs particuliers utilisent encore des modems comme mécanisme de connexion Internet. Récemment, j'ai même vu une grande entreprise utiliser des modems pour communiquer avec des bureaux satellites situés dans des endroits éloignés où il n'y a pas d'accès à la technologie haut débit.

Bien entendu, le plus gros problème lié à l’utilisation des modems est la bande passante limitée dont ils disposent. Un problème moins évident mais tout aussi important est que les utilisateurs ont tendance à ne pas modifier leur comportement en ligne lorsqu'ils utilisent des connexions commutées. Bien sûr, les utilisateurs peuvent être moins enclins à télécharger des fichiers volumineux lorsqu'ils sont connectés à Internet via un modem, mais le comportement des autres utilisateurs reste le même que s'ils étaient connectés via une connexion haut débit.

En règle générale, les utilisateurs ne se soucient pas trop de garder Microsoft Outlook ouvert en permanence ou de naviguer pendant le téléchargement de fichiers en arrière-plan. Certains utilisateurs gardent également leur système de messagerie instantanée ouvert à tout moment. Le problème avec ce type de comportement est que chacune de ces applications ou tâches consomme une certaine quantité de bande passante de connexion Internet.

Pour voir comment la QoS peut aider, regardons ce qui se passe dans des conditions normales lorsque la QoS n'est pas utilisée. En règle générale, la première application qui tente d'accéder à Internet dispose du plus grand nombre de droits pour utiliser la connexion. Cela ne signifie pas que d'autres applications ne peuvent pas utiliser la connexion, mais plutôt que Windows suppose que d'autres applications n'utiliseront pas la connexion.

Une fois la connexion créée, Windows commence à ajuster dynamiquement la taille de la fenêtre de réception TCP. La taille de la fenêtre de réception TCP correspond à la quantité de données qui peuvent être envoyées avant d'attendre la confirmation que les données ont été reçues. Plus la taille de la fenêtre de réception TCP est grande, plus les paquets que l'expéditeur peut transmettre avant d'attendre la confirmation de la livraison réussie sont grands.

La taille de la fenêtre de réception TCP doit être ajustée avec soin. Si la fenêtre de réception TCP est trop petite, l'efficacité en souffrira car TCP nécessite des accusés de réception très fréquents. Cependant, si la fenêtre de réception TCP est trop grande, la machine peut alors transmettre trop de données avant de se rendre compte qu'il y a un problème lors de la transmission. En conséquence, une grande quantité de données doit être retransmise, ce qui a également un impact sur l’efficacité.

Lorsqu'une application commence à utiliser une connexion Internet commutée, Windows ajuste dynamiquement la taille de la fenêtre de réception TCP à mesure que les paquets sont envoyés. L'objectif de Windows ici est d'atteindre un état stable dans lequel la taille de la fenêtre de réception TCP est configurée de manière optimale.

Supposons maintenant que l'utilisateur ouvre une deuxième application qui nécessite également une connexion Internet. Une fois cela fait, Windows lance l'algorithme de démarrage lent TCP, qui est l'algorithme chargé de définir la taille de la fenêtre de réception TCP à la valeur optimale. Le problème est que TCP est déjà utilisé par l’application qui s’exécutait auparavant. Cela affecte la deuxième application de deux manières. Premièrement, la deuxième application met beaucoup plus de temps à atteindre la taille optimale de sa fenêtre de réception TCP. Deuxièmement, le taux de transfert de données de la deuxième application sera toujours plus lent que la vitesse de transfert de l'application en cours d'exécution.

La bonne nouvelle est que vous pouvez éviter ces problèmes sous Windows XP et Windows Server 2003 en exécutant simplement le planificateur de paquets QOS. Le QOS Packet Scheduler utilisera alors automatiquement une technologie appelée Deficit Round Robin chaque fois que Windows détecte une vitesse de connexion lente.

Le fonctionnement de Deficit Round Robin consiste à créer dynamiquement des files d'attente distinctes pour chaque application nécessitant un accès à Internet. Windows gère ces files d'attente de manière circulaire, ce qui améliore considérablement l'efficacité de toutes les applications devant accéder à Internet. Au cas où vous vous poseriez la question, Deficit Round Robin est également disponible dans Windows 2000 Server, mais n'est pas automatiquement activé.

Partage de connexion Internet

Sous Windows XP et Windows Server 2003, QoS facilite également le partage de connexion Internet. Comme vous le savez probablement, le partage de connexion Internet est une option simplifiée pour créer un routeur basé sur NAT. L'ordinateur auquel la connexion Internet est physiquement connectée joue le rôle de routeur et de serveur DHCP pour les autres ordinateurs du réseau, leur fournissant ainsi un accès à Internet via cet hôte. Le partage de connexion Internet n'est généralement utilisé que dans les petits réseaux peer-to-peer dépourvus d'infrastructure de domaine. Les réseaux plus importants utilisent généralement des routeurs de périphériques physiques ou des services de routage et d'accès à distance.

Dans la section ci-dessus, j'ai déjà expliqué comment Windows ajuste dynamiquement la taille de la fenêtre de réception TCP. Cependant, une telle configuration dynamique peut poser des problèmes lors du partage d'une connexion Internet. La raison en est que la connexion entre les ordinateurs d’un réseau local est généralement relativement rapide. Généralement, une telle connexion consiste en une connexion Ethernet 100 Mb ou une connexion sans fil 802.11G. Bien que ces types de connexions soient loin d’être les plus rapides, ils sont bien plus rapides que la plupart des connexions Internet disponibles aux États-Unis. C'est là où se trouve le problème.

L'ordinateur client doit communiquer via Internet, mais ne peut pas le faire directement. Au lieu de cela, il utilise l'hôte de partage de connexion Internet comme module d'accès. Lorsque Windows calcule la taille optimale de la fenêtre de réception TCP, il le fait en fonction de la vitesse de connexion entre la machine locale et la machine de partage de connexion Internet. La différence entre la quantité de données qu'une machine locale peut réellement obtenir d'Internet et la quantité qu'elle pense pouvoir obtenir en fonction de la vitesse de sa connexion à l'hôte de partage de connexion Internet peut poser des problèmes. Plus précisément, les différences de vitesse de connexion peuvent potentiellement provoquer des situations dans lesquelles les données sont sauvegardées dans une file d'attente connectée à une connexion à faible débit.

C'est là que la QoS entre en jeu. Si vous installez le planificateur de paquets QOS sur un hôte de partage de connexion Internet, l'hôte de partage de connexion Internet désactive la taille de la fenêtre de réception TCP. Cela signifie que l'hôte de partage de connexion Internet définira la taille de la fenêtre de réception TCP pour les hôtes locaux sur la même valeur que celle qu'ils auraient s'ils étaient connectés directement à Internet. Cela élimine les problèmes causés par des vitesses de connexion réseau inadaptées.

Conclusion

Dans cette série d'articles, j'ai parlé de la QoS et de la façon dont elle peut être utilisée pour façonner le flux de trafic sur différents types de connexions réseau. Comme vous pouvez le constater, la QoS peut rendre un réseau beaucoup plus efficace en façonnant le trafic de manière à pouvoir profiter des périodes les plus chargées du réseau et à garantir que le trafic de priorité plus élevée soit acheminé rapidement.

Brian Posey

Dans la première partie de cette série d'articles, j'ai parlé de ce que fait la QoS et à quoi elle sert. Dans cette partie, je continuerai la conversation en expliquant comment fonctionne la QoS. En lisant cet article, sachez que les informations présentées ici sont basées sur l'implémentation de la QoS de Windows Server 2003, qui est différente de l'implémentation de la QoS dans Windows 2000 Server.

API de trafic

L'un des principaux problèmes liés à la priorisation du trafic réseau est que vous ne pouvez pas hiérarchiser le trafic en fonction de l'ordinateur qui le génère. Il est courant qu'un seul ordinateur exécute plusieurs applications et crée un flux de trafic distinct pour chaque application (et système d'exploitation). Lorsque cela se produit, chaque flux de trafic doit être priorisé individuellement. Après tout, une application peut nécessiter une bande passante disponible tandis qu’une autre application est parfaitement adaptée à une meilleure diffusion.

C’est là qu’intervient l’API Traffic Control (interface logicielle de contrôle du trafic). L'API Traffic Control est une interface de programmation d'application qui vous permet d'appliquer des paramètres QoS à des paquets individuels. L'API Traffic Control fonctionne en identifiant les flux de trafic individuels et en appliquant diverses méthodes de contrôle de la qualité de service à ces flux.

La première chose que fait l'API Traffic Control est de créer ce que l'on appelle une spécification de filtre. Une spécification de filtre est essentiellement un filtre qui détermine ce que signifie pour un paquet l'appartenance à un flux particulier. Certains des attributs utilisés par filterspec incluent l'adresse IP source et de destination du paquet et le numéro de port.

Une fois la filterspec définie, l'API permet de créer la flowspec. Flowspec définit les paramètres QoS qui seront appliqués à une séquence de paquets. Certains des paramètres définis par flowspec incluent le débit en bauds (taux de transmission autorisé) et le type de service.

Le troisième concept défini par l'API Traffic Control est le concept de flux. Un flux est une simple séquence de paquets soumis à une seule flowspec. En termes simples, filterspec détermine quels paquets seront inclus dans le flowspec. Flowspec détermine si les paquets seront traités avec des priorités plus élevées, et le flux est la transmission réelle des paquets soumis au traitement flowspec. Tous les paquets d'un flux sont traités de la même manière.

Il convient de mentionner que l'un des avantages de l'API Traffic Control par rapport à l'API générique QoS utilisée dans Windows 2000 est la possibilité d'utiliser l'agrégation. Si un nœud dispose de plusieurs applications qui envoient plusieurs flux de données vers une destination commune, ces paquets peuvent être combinés en un flux commun. Cela s'applique même si les applications utilisent des numéros de port différents, à condition que les adresses IP source et de destination soient les mêmes.

Classificateur de paquets générique

Dans la section précédente, j'ai parlé de la relation entre flowspec, filterspec et flow. Cependant, il est important de rappeler que l’API Traffic Control est simplement une interface de programmation d’application. En tant que tel, son travail consiste à identifier et à prioriser les flux de trafic, et non à créer ces flux.

Le classificateur de paquets générique est responsable de la création des flux. Comme vous vous en souvenez dans la dernière section, l'un des attributs définis dans le flowspec était le type de service. Le type de service détermine essentiellement la priorité du thread. Le classificateur de paquets générique est chargé de déterminer le type de service qui a été attribué à la flowspec, après quoi il place les paquets associés dans une file d'attente appropriée au type de service. Chaque thread est placé dans une file d'attente distincte.

Planificateur de paquets QoS (planificateur de paquets)

Le troisième composant QoS que vous devez connaître est le planificateur de paquets QoS. En termes simples, la tâche principale d'un planificateur de paquets QoS est de façonner le trafic. Pour ce faire, le planificateur de paquets reçoit des paquets de différentes files d'attente, puis marque ces paquets avec des priorités et des débits.

Comme je l'ai expliqué dans la première partie de cette série, pour que la QoS fonctionne correctement, les différents composants situés entre la source des paquets et leur destination doivent prendre en charge (c'est-à-dire en être conscients) la QoS. Si ces appareils doivent savoir comment gérer la QoS, ils doivent également savoir comment gérer le trafic régulier et non prioritaire. Pour rendre cela possible, la QoS utilise une technologie appelée marquage.

En fait, il existe ici deux types de marquages. Le planificateur de paquets QoS utilise les marquages ​​Diffserv, reconnus par les appareils de couche 3, et les marquages ​​802.1p, reconnus par les appareils de couche 2.

Configuration du planificateur de paquets QoS

Avant de vous montrer comment fonctionne le balisage, il convient de noter que vous devrez configurer un planificateur de paquets QoS pour que tout fonctionne. Dans Windows Server 2003, le planificateur de paquets QoS est un composant réseau facultatif, tout comme le client pour les réseaux Microsoft ou le protocole TCP/IP. Pour activer le planificateur de paquets QoS, ouvrez la page des propriétés de la connexion réseau de votre serveur et cochez la case en regard de Planificateur de paquets QoS, comme illustré dans la figure A. Si le planificateur de paquets QoS n'est pas répertorié, cliquez sur Installer et suivez les invites.

Figure A : Le planificateur de paquets QoS doit être activé avant de pouvoir utiliser QoS

Une autre chose que vous devez savoir sur le planificateur de paquets QoS est que pour qu'il fonctionne correctement, votre carte réseau doit prendre en charge le balisage 802.1p. Pour vérifier votre adaptateur, cliquez sur le bouton Configurer, Figure A, et Windows affichera les propriétés de votre adaptateur réseau. Si vous regardez dans l'onglet Avancé de la page des propriétés, vous verrez les différentes propriétés prises en charge par votre carte réseau.

Si vous regardez la figure B, vous verrez que l’une des propriétés répertoriées est le marquage VLAN 802.1Q/1P. Vous voyez également que cette propriété est désactivée par défaut. Pour activer le balisage 802.1p, activez simplement cette propriété et cliquez sur OK.

Figure B : Vous devez activer le balisage VLAN 802.1Q/1P

Vous avez peut-être remarqué dans la figure B que la fonctionnalité que vous avez activée est liée au balisage VLAN plutôt qu'au balisage des paquets. La raison en est que les marqueurs de priorité sont inclus dans les balises VLAN. La norme 802.1Q définit les VLAN et les balises VLAN. Cette norme réserve en fait trois bits dans le paquet VLAN qui servent à enregistrer le code de priorité. Malheureusement, la norme 802.1Q ne définit jamais ce que doivent être ces codes de priorité.

Le 802.1P a été créé en complément du 802.1Q. 802.1P définit un marquage prioritaire qui peut être inclus dans une balise VLAN. Je vous parlerai du principe de fonctionnement de ces deux normes dans la troisième partie.

Conclusion

Dans cet article, nous avons abordé certains concepts de base de l'architecture QoS de Windows Server 2003. Dans la troisième partie, j'entrerai plus en détail sur la façon dont le planificateur de paquets QoS marque les paquets. Je parlerai également du fonctionnement de la QoS dans les environnements réseau à faible bande passante.

Le mythe de la QoS

Il n’y a pas une seule personne qui n’ait pas lu au moins une fois une FAQ sur Windows XP. Et si tel est le cas, alors tout le monde sait qu'il existe un service de qualité de service si nocif - QoS en abrégé. Il est fortement recommandé de le désactiver lors de la configuration de votre système car il limite la bande passante réseau de 20 % par défaut, et ce problème semble également exister sous Windows 2000.

Voici les lignes :
" Q : Comment désactiver complètement le service QoS (Qualité de Service) ? Comment le configurer ? Est-il vrai que cela limite la vitesse du réseau ?
R : En effet, par défaut, la Qualité de Service réserve 20 % de la capacité du canal pour ses besoins (n'importe quel canal – même un modem 14400, même un gigabit Ethernet). De plus, même si vous supprimez le service QoS Packet Scheduler de la connexion Propriétés, ce canal n'est pas libéré. Vous pouvez libérer un canal ou simplement configurer la QoS ici. Lancez l'applet de stratégie de groupe (gpedit.msc). Dans la stratégie de groupe, recherchez la stratégie de l'ordinateur local et cliquez sur Modèles d'administration. Sélectionnez Réseau - Planificateur de paquets QoS. Activez Limiter la bande passante réservable. Maintenant, nous réduisons la limite de bande passante de 20 % à 0 % ou la désactivons simplement. Si vous le souhaitez, vous pouvez également configurer ici d'autres paramètres QoS. Pour activer les modifications apportées, il suffit de redémarrer."
20 %, c’est évidemment beaucoup. En réalité, Microsoft est Mazda. Des déclarations de ce type vont de FAQ en FAQ, de forum en forum, de média en média, sont utilisées dans toutes sortes de "tweaks" - des programmes pour "régler" Windows XP (en passant, ouvrez "Stratégies de groupe" et "Local Politiques de sécurité », et aucun tweaker ne peut se comparer à eux en termes de richesse d’options de personnalisation). Les allégations non fondées de ce type doivent être soigneusement exposées, et c’est ce que nous allons faire maintenant, en utilisant une approche systématique. Autrement dit, nous étudierons en profondeur la question problématique, en nous appuyant sur des sources primaires officielles.

Qu'est-ce qu'un réseau avec un service de qualité ?
Acceptons la définition simplifiée suivante d'un système de réseau. Les applications s'exécutent et s'exécutent sur des hôtes et communiquent entre elles. Les applications envoient des données au système d'exploitation pour les transmettre sur le réseau. Une fois les données transférées vers le système d’exploitation, elles deviennent du trafic réseau.
La qualité de service du réseau repose sur la capacité du réseau à traiter ce trafic de manière à garantir que certaines demandes d'application sont satisfaites. Cela nécessite un mécanisme fondamental de traitement du trafic réseau, capable d'identifier le trafic éligible à un traitement spécial et le droit de contrôler ces mécanismes.
La fonctionnalité QoS est conçue pour satisfaire deux parties prenantes du réseau : les applications réseau et les administrateurs réseau. Ils ont souvent des désaccords. L'administrateur réseau limite les ressources utilisées par une application particulière, tandis que l'application tente en même temps de récupérer autant de ressources réseau que possible. Leurs intérêts peuvent être alignés, en tenant compte du fait que l'administrateur réseau joue un rôle dominant par rapport à toutes les applications et utilisateurs.

Paramètres QoS de base
Différentes applications ont des exigences différentes pour gérer leur trafic réseau. Les applications sont plus ou moins tolérantes aux retards et aux pertes de trafic. Ces exigences ont trouvé application dans les paramètres suivants liés à la QoS :
Bande passante - la vitesse à laquelle le trafic généré par une application doit être transmis sur le réseau ;
Latence : délai qu'une application peut tolérer lors de la livraison d'un paquet de données.
Jitter - changer le temps de retard.
Perte - pourcentage de données perdues.
Si des ressources réseau infinies étaient disponibles, alors tout le trafic des applications pourrait être transmis à la vitesse requise, avec une latence nulle, une variation de latence nulle et une perte nulle. Toutefois, les ressources du réseau ne sont pas illimitées.
Le mécanisme QoS contrôle l'allocation des ressources réseau au trafic des applications pour répondre aux exigences de transmission.

Ressources QoS fondamentales et mécanismes de traitement du trafic
Les réseaux qui connectent les hôtes utilisent divers périphériques réseau, notamment des adaptateurs réseau hôtes, des routeurs, des commutateurs et des hubs. Chacun d'eux dispose d'interfaces réseau. Chaque interface réseau peut recevoir et transmettre du trafic à un débit fini. Si la vitesse à laquelle le trafic est envoyé vers une interface est plus rapide que la vitesse à laquelle l'interface transmet le trafic, une congestion se produit.
Les périphériques réseau peuvent gérer les conditions de congestion en mettant le trafic en file d'attente dans la mémoire (tampon) de l'appareil jusqu'à ce que la congestion soit résolue. Dans d'autres cas, les équipements réseau peuvent rejeter le trafic pour réduire la congestion. En conséquence, les applications subissent des changements de latence (à mesure que le trafic est stocké dans des files d'attente sur les interfaces) ou une perte de trafic.
La capacité des interfaces réseau à transférer le trafic et la disponibilité de la mémoire pour stocker le trafic dans les périphériques réseau (jusqu'à ce que le trafic ne puisse plus être envoyé) constituent les ressources fondamentales requises pour fournir la QoS aux flux de trafic applicatif.

Répartition des ressources QoS sur les périphériques réseau
Les appareils prenant en charge la QoS utilisent intelligemment les ressources du réseau pour transmettre le trafic. Autrement dit, le trafic des applications plus tolérantes à la latence est mis en file d'attente (stocké dans un tampon en mémoire), tandis que le trafic des applications critiques en termes de latence est transmis.
Pour effectuer cette tâche, le périphérique réseau doit identifier le trafic en classant les paquets, et également disposer de files d'attente et de mécanismes pour les gérer.

Mécanisme de traitement du trafic
Le mécanisme de traitement du trafic comprend :
802.1p
Comportements de services différenciés par saut (diffserv PHB).
Services intégrés (intserv).
Distributeur automatique de billets, etc.
La plupart des réseaux locaux sont basés sur la technologie IEEE 802, notamment Ethernet, Token Ring, etc. 802.1p est un mécanisme de traitement du trafic permettant de prendre en charge la qualité de service dans de tels réseaux.

802.1p définit un champ (couche 2 dans le modèle de réseau OSI) dans l'en-tête du paquet 802 qui peut transporter l'une des huit valeurs de priorité. En règle générale, les hôtes ou les routeurs, lors de l'envoi de trafic vers un réseau local, marquent chaque paquet envoyé en lui attribuant une certaine valeur de priorité. Les périphériques réseau tels que les commutateurs, les ponts et les hubs doivent traiter les paquets de manière appropriée à l'aide de mécanismes de mise en file d'attente. La portée du 802.1p est limitée au réseau local (LAN). Une fois que le paquet traverse le réseau local (via OSI Layer 3), la priorité 802.1p est supprimée.
Diffserv est un mécanisme de couche 3. Il définit un champ dans l'en-tête de couche 3 des paquets IP appelé point de code diffserv (DSCP).
Intserv est toute une gamme de services qui définit un service garanti et un service de gestion des téléchargements. Un service garanti promet d’acheminer une certaine quantité de trafic avec une latence mesurable et limitée. Le service qui gère le téléchargement s'engage à acheminer une partie du trafic avec « une légère congestion du réseau ». Il s'agit de services quantifiables dans le sens où ils sont définis pour fournir une qualité de service mesurable à une certaine quantité de trafic.

Étant donné que la technologie ATM fragmente les paquets en cellules relativement petites, elle peut offrir une latence très faible. Si un paquet doit être envoyé de manière urgente, l'interface ATM peut toujours être libérée pour la transmission aussi longtemps que nécessaire pour envoyer une cellule.
La QoS repose sur de nombreux mécanismes plus complexes qui font fonctionner cette technologie. Notons juste un point important : pour que la QoS fonctionne, la prise en charge de cette technologie et une configuration appropriée sont nécessaires tout au long de la transmission, du point de départ au point d'arrivée.

Pour plus de clarté, considérons la Fig. 1.
Nous acceptons ce qui suit :
Tous les routeurs sont impliqués dans la transmission des protocoles requis.
Une session QoS nécessitant 64 Kbps est initiée entre l'hôte A et l'hôte B.
Une autre session nécessitant 64 Kbps est initiée entre l'hôte A et l'hôte D.
Pour simplifier le schéma, nous supposons que les routeurs sont configurés de manière à pouvoir réserver toutes les ressources du réseau.
Dans notre cas, une demande de réservation de 64 Kbps atteindrait trois routeurs sur le chemin de données entre l'hôte A et l'hôte B. Une autre demande de 64 Kbps atteindrait trois routeurs entre l'hôte A et l'hôte D. Les routeurs honoreraient ces demandes de réservation de ressources. car ils ne dépassent pas le maximum. Si, à la place, chacun des hôtes B et C initiait simultanément une session QoS de 64 Kbps avec l'hôte A, alors le routeur desservant ces hôtes (B et C) refuserait l'une des connexions.

Supposons maintenant que l'administrateur réseau désactive le traitement QoS dans les trois routeurs en aval desservant les hôtes B, C, D, E. Dans ce cas, les demandes de ressources jusqu'à 128 Kbps seraient satisfaites quel que soit l'emplacement de l'hôte impliqué dans la connexion. Cependant, l’assurance qualité serait faible car le trafic vers un hôte mettrait en danger le trafic vers un autre. La qualité de service pourrait être maintenue si le routeur supérieur limitait toutes les requêtes à 64 Kbps, mais cela entraînerait une utilisation inefficace des ressources réseau.
D'autre part, le débit de toutes les connexions réseau pourrait être augmenté jusqu'à 128 Kbps. Mais la bande passante accrue ne sera utilisée que lorsque les hôtes B et C (ou D et E) demanderont simultanément des ressources. Si ce n’est pas le cas, les ressources du réseau seront à nouveau utilisées de manière inefficace.

Composants Microsoft QoS
Windows 98 contient uniquement des composants QoS au niveau utilisateur, notamment :
Composants d'application.
API GQoS (partie de Winsock 2).
Fournisseur de services QoS.
Le système d'exploitation Windows 2000/XP/2003 contient tout ce qui est décrit ci-dessus ainsi que les composants suivants :
Fournisseur de services de protocole de réservation de ressources (Rsvpsp.dll) et services RSVP (Rsvp.exe) et QoS ACS. Non utilisé sous Windows XP, 2003.
Gestion du trafic (Traffic.dll).
Classificateur de paquets générique (Msgpc.sys). Le classificateur de paquets détermine la classe de service à laquelle appartient le paquet. Dans ce cas, le paquet sera placé dans la file d'attente appropriée. Les files d'attente sont gérées par le planificateur de paquets QoS.
Planificateur de paquets QoS (Psched.sys). Définit les paramètres QoS pour un flux de données spécifique. Le trafic est marqué d'une valeur de priorité spécifique. Le planificateur de paquets QoS détermine le calendrier de file d'attente pour chaque paquet et gère les demandes concurrentes entre les paquets en file d'attente qui doivent accéder au réseau en même temps.

Le diagramme de la figure 2 illustre la pile de protocoles, les composants Windows et leur interaction sur l'hôte. Les éléments utilisés dans Windows 2000 mais non utilisés dans Windows XP/2003 ne sont pas affichés dans le diagramme.
Les candidatures se situent en haut de la pile. Ils peuvent ou non connaître la QoS. Pour exploiter toute la puissance de la QoS, Microsoft recommande d'utiliser les appels API génériques QoS dans vos applications. Ceci est particulièrement important pour les applications qui nécessitent des garanties de service de haute qualité. Certains utilitaires peuvent être utilisés pour invoquer la QoS au nom d'applications qui ne connaissent pas la QoS. Ils fonctionnent via l'API de gestion du trafic. Par exemple, NetMeeting utilise l'API GQoS. Mais pour de telles applications, la qualité n'est pas garantie.

Le dernier clou
Les points théoriques ci-dessus n'apportent pas de réponse claire à la question de savoir où vont les fameux 20 % (que, je le souligne, personne n'a encore mesuré avec précision). Compte tenu de ce qui précède, cela ne devrait pas se produire. Mais les opposants avancent un nouvel argument : le système QoS est bon, mais sa mise en œuvre est erronée. Par conséquent, 20 % sont encore « gros ». Apparemment, le problème touche également le géant du logiciel, puisqu’il a réfuté séparément ces fabrications il y a longtemps.
Cependant, donnons la parole aux développeurs et présentons des points sélectionnés de l'article « 316666 - Améliorations et comportement de la qualité de service (QoS) de Windows XP » en russe littéraire :
"Cent pour cent de la bande passante du réseau est disponible pour être distribuée entre tous les programmes, sauf si un programme demande explicitement une bande passante prioritaire. Cette bande passante "réservée" est disponible pour d'autres programmes, sauf si le programme qui l'a demandé n'envoie pas de données.

Par défaut, les programmes peuvent réserver jusqu'à 20 % de la vitesse de connexion principale sur chaque interface informatique. Si le programme qui a réservé la bande passante n'envoie pas suffisamment de données pour les utiliser en totalité, la partie inutilisée de la bande passante réservée est disponible pour d'autres flux de données.
Divers articles techniques et groupes de discussion ont affirmé que Windows XP réserve toujours 20 % de la bande passante disponible pour la QoS. Ces déclarations sont incorrectes. »
Si maintenant quelqu'un consomme encore 20 % de sa bande passante, eh bien, je peux vous conseiller de continuer à utiliser davantage de modifications de toutes sortes et de pilotes réseau tordus. Il ne s'agira pas non plus de « faire grossir ».
Ça y est, le mythe de la QoS, mourez !

Youri Trofimov,