Cet article explique comment le moteur QoS de Cato fonctionne et vous aide considérablement à améliorer l'utilisation de la bande passante et optimiser les performances du réseau.
Dans l'application de gestion Cato, utilisez les profils de gestion de la bande passante pour configurer les priorités QoS pour les différents types de trafic. Chaque profil contient à la fois la priorité QoS et les limites de bande passante du trafic. Vous pouvez ensuite attribuer le profil de gestion de la bande passante à une règle réseau et prioriser le type de trafic spécifique.
Vous pouvez définir des valeurs de priorité entre 2 et 255 où 0 et 1 sont réservés pour le trafic administratif de Cato et 255 est réservé comme la plus basse priorité. Si vous configurez le profil de bande passante avec priorité P10, le trafic correspondant a une priorité plus élevée que le trafic avec priorité P20. Vous pouvez fournir une priorité différente à différentes applications et atteindre les performances requises pour ce type de trafic. Nous vous recommandons d'assigner une valeur de priorité plus basse à un type de trafic plus important. Par exemple, si le trafic VoIP est plus important pour votre compte que RDP, attribuez une priorité plus élevée aux règles de réseau VoIP qu'aux règles RDP.
Remarque : Si vous configurez un renvoi de port distant (RPF) pour votre compte, le trafic RPF est automatiquement attribué avec la priorité la plus basse de 255. Pour plus de détails sur le RPF, voir Configuration du Renvoi de Port Distant pour le Compte.
Cato Networks utilise une technique standard de shaping du trafic pour optimiser les performances du réseau en contrôlant le taux moyen de Téléchargement et Téléversement.
Le diagramme suivant montre comment le moteur de QoS assigne une priorité aux différents types de trafic.
Cato utilise l'algorithme du Seau Percé pour mesurer les limites de la bande passante et l'explosivité. La mise en œuvre du Seau Percé comme un régulateur de trafic signifie que lorsque le taux de paquets entrants est supérieur au taux sortant, comme lors d'une congestion du réseau, les paquets entrent dans la file d'attente et sont écartés une fois que la file est pleine. Lorsqu'ils sont transmis, les paquets sont retirés de la file d'attente, selon un ordre premier entré, premier sorti (FIFO) et de nouveaux paquets peuvent alors entrer dans la file.
L'algorithme du Seau Percé mesure la vitesse du trafic et identifie quand le seau est plein. Il utilise ces métriques pour envoyer le trafic prioritaire en utilisant l'exemple de remplir un seau d'eau :
-
Taux moyen - la limite réelle de la bande passante. Le taux d'eau qui fuit du seau à chaque tic d'horloge.
-
Capacité de Rafale - la taille du seau. La quantité totale d'eau que le seau peut transporter avant qu'il ne commence à écarter les paquets.
-
Taux de Rafale – pendant une rafale de trafic, le taux auquel l'eau est autorisée à entrer dans le seau. Le taux de rafale n'est pas limité, et n'importe quelle rafale peut entrer dans le seau.
Si le seau n'est pas plein, tous les paquets sont envoyés. Cependant, lorsque le seau est plein, les paquets sont mis en file d'attente. Chaque priorité a une file d'attente différente et les paquets sont envoyés par ordre (FIFO) selon les priorités. Lorsque toutes les files d'attente sont pleines, de nouveaux paquets sont écartés.
Cependant, Cato implémente la Détection Précoce Aléatoire Pondérée (WRED) pour éviter d'écarter un nombre massif de paquets. Pour le trafic TCP, Cato écarte les paquets de données et non les paquets ACK afin de déclencher l'algorithme de congestion de l'expéditeur. En réponse, l'expéditeur réduit le taux auquel il envoie des paquets.
Le Socket envoie les paquets depuis les files d'attente prioritaires en deux itérations : itération de limite stricte et itération de meilleur effort. Le régulateur de trafic envoie d'abord les paquets selon les limites de bande passante configurées, puis fait de son mieux pour envoyer les paquets restants. Pendant chaque tick de 1 ms, il effectue les deux itérations :
-
Itération de Limites Strictes – dans cette itération, la séquence consiste à évaluer chaque file d'attente en commençant par la priorité la plus élevée jusqu'à la priorité la plus basse. Pour chaque file d'attente prioritaire, le Socket envoie les paquets selon leurs limites QoS configurées. Pendant cette itération, si la limite totale de bande passante du lien est dépassée, le Socket cesse d'envoyer des paquets.
-
Itération de Meilleur Effort – si les paquets transmis dans l'Itération de Limites Strictes n'excèdent pas la limite totale de bande passante, alors dans cette itération, le Socket évalue chaque file d'attente à nouveau. En commençant par la priorité la plus élevée jusqu'à la plus basse, il envoie les paquets restants. La motivation est d'utiliser toute la bande passante du lien sans dépasser la limite totale de bande passante.
Cette section montre un exemple de la façon dont le moteur QoS de Cato priorise les paquets dans les files d'attente de trafic.
Cinq Files d'Attente Prioritaires avec Paquets
Le diagramme ci-dessus montre les paquets dans 5 files d'attente prioritaires avant que le Socket ne commence les itérations.
QoS – Itération de Limites Strictes
Ce diagramme montre la première itération, qui est l'Itération de Limites Strictes. En commençant par P10, P20, P30, P40 et enfin P255. La bande passante disponible pour chaque file d'attente est : deux paquets de la file P10, un paquet de P20, un paquet de P30, deux paquets de P40 et un paquet de la file P255.
QoS – Itération de Meilleur Effort
Ce diagramme montre la deuxième itération, qui est l'Itération de Meilleur Effort. Dans cette itération, trois paquets ont été envoyés de P10, et un de chaque à partir de P20, P30, P40 et enfin P255. Dans ce cas, toute la bande passante disponible est utilisée et un paquet dans la file P255 reste pour le prochain tic. Ensuite, de nouveaux paquets arrivent dans les files d'attente et l'algorithme exécute à nouveau les deux itérations et envoie le paquet restant.
0 commentaire
Vous devez vous connecter pour laisser un commentaire.