Cet article discute de la façon dont le Cato Cloud accélère et optimise le trafic. Pour en savoir plus sur la configuration de ces paramètres, consultez Configuration des règles réseau.
Cato permet l'accélération pour le trafic TCP. Vous pouvez configurer les paramètres système par défaut pour l'accélération et, grâce aux règles réseau, remplacer le paramètre par défaut d'accélération du système.
Chaque PoP de Cato peut agir comme un serveur proxy TCP, réduisant la latence. Le serveur proxy fait effectivement croire aux clients et serveurs TCP que leurs destinations sont plus proches qu'elles ne le sont vraiment, leur permettant de définir une fenêtre TCP plus grande. De plus, la version avancée du contrôle de congestion TCP du Socket permet aux points de connexion reliés au Socket d'envoyer et de recevoir plus de données avant d'attendre un accusé de réception. Cela augmente le débit total tout en réduisant le temps nécessaire pour remédier aux erreurs telles que la perte de paquets.
Vous pouvez définir et gérer vos paramètres d'accélération depuis un emplacement centralisé avec autant de granularité que nécessaire dans le cadre des règles réseau.
Lorsque l'accélération TCP est activée pour un flux, Cato établit un proxy entre le client et le PoP (dernière étape), entre les PoPs (étape intermédiaire), et enfin sort le PoP vers la destination.
Par exemple, considérez un flux TCP entre Londres et New York via Internet dans lequel un paquet n'a pas atteint sa destination (perdu). Si le proxy est désactivé, lorsque la destination reçoit le paquet suivant, elle comprend qu'un paquet est perdu et demande au client de retransmettre ce paquet (selon le protocole TCP). Cela coûtera un RTT complet entre Londres et New York avant que la transmission du flux puisse continuer.
Avec Cato, le RTT est considérablement réduit en raison de la segmentation multiple du chemin de trafic jusqu'à l'étape finale et intermédiaire. Dans l'exemple ci-dessus, au lieu de la retransmission de paquets perdus entre Londres et New York, le paquet perdu est détecté, par exemple, entre Londres et le PoP de Londres de Cato.
Comme Cato utilise de grands liens de premier niveau pour transporter le trafic sur l'étape intermédiaire, la perte de paquets est rare sur ce segment.
Le mécanisme d'optimisation du Cato Socket atténue la perte de paquets par la duplication de paquets. Étant donné que cela augmente le débit total, l'optimisation ne doit être utilisée que sur les flux critiques qui sont sensibles à la perte de paquets (comme le trafic vocal et vidéo).
Vous pouvez définir et gérer vos paramètres d'optimisation depuis un emplacement centralisé avec autant de granularité que nécessaire dans le cadre des règles réseau.
Lorsque vous activez l'optimisation, Cato effectue l'une des méthodes d'optimisation suivantes en fonction de la topologie du site et des connexions existantes :
-
Duplication de paquets - utilisé lorsque plus d'un lien actif est disponible. Avec cette technique, Cato envoie des paquets dupliqués sur un autre lien actif tout en réassemblant les paquets à l'autre extrémité. Étant donné qu'un paquet redondant est envoyé pour tout paquet donné, l'atténuation de la perte de paquets augmente même si un paquet est perdu sur l'un des liens.
-
Retransmission UDP - utilisé lorsqu'un seul lien actif est disponible. Avec cette technique, Cato retransmet des paquets UDP (attendant 5 ms avant la retransmission). Étant donné qu'un paquet redondant est envoyé pour tout paquet donné, l'atténuation de la perte de paquets augmente même si un paquet est perdu.
Remarque
Remarque : Comme TCP effectue la retransmission dans le cadre de son protocole, la retransmission UDP atténue efficacement la perte de paquets pour les autres protocoles couramment utilisés.
0 commentaire
Vous devez vous connecter pour laisser un commentaire.