Acelerando y Optimizando el Tráfico

Este artículo discute cómo Cato Cloud acelera y optimiza el tráfico. Para más información sobre cómo configurar estas configuraciones, vea Configuración de Reglas de Red.

Acelerando el Tráfico

Cato permite la aceleración para el tráfico TCP. Puede configurar las configuraciones del sistema por defecto para la aceleración, y mediante reglas de red puede sobrescribir el valor por defecto de aceleración del sistema.

Cada PoP de Cato puede actuar como un servidor proxy TCP, reduciendo la latencia. El servidor proxy efectivamente hace que los clientes y servidores TCP crean que sus destinos están más cerca de lo que realmente están, permitiéndoles establecer una ventana TCP más grande. Además, la versión avanzada del control de congestión TCP del Socket permite a los puntos finales conectados al Socket enviar y recibir más datos antes de esperar un acuse de recibo. Esto aumenta el rendimiento total mientras reduce el tiempo necesario para remediar errores como la pérdida de paquetes.

Puede definir y gestionar sus configuraciones de aceleración desde una ubicación centralizada con tanta granularidad como sea necesario como parte de las reglas de red.

¿Cómo Funciona la Aceleración de Cato?

Cuando se habilita la aceleración TCP para un flujo, Cato establece un proxy entre el cliente y el PoP (última milla), entre los PoPs (milla intermedia) y eventualmente el PoP sale hacia el destino.

¿Por qué Esto Mejora Su Rendimiento?

Como ejemplo, considere un flujo TCP entre Londres y Nueva York a través de internet en el cual un paquete no llegó a su destino (perdido). Si el proxy está deshabilitado, cuando el destino recibe el siguiente paquete, entiende que un paquete se ha perdido y solicita al cliente que retransmita ese paquete (según el protocolo TCP). Esto costará un RTT completo entre Londres y Nueva York antes de que la transmisión del flujo pueda continuar.

Con Cato, el RTT se reduce significativamente debido a la segmentación múltiple de la ruta de tráfico hasta la última y milla intermedia. En el ejemplo anterior, en lugar de la retransmisión de paquetes perdidos entre Londres y Nueva York, el paquete perdido se detecta, por ejemplo, entre Londres y el PoP de Londres de Cato.

Como Cato utiliza grandes enlaces de Tier-1 para transportar tráfico a través de la milla intermedia, la pérdida de paquetes es rara en este segmento.

Optimizando el Tráfico

El mecanismo de optimización del Socket de Cato mitiga la pérdida de paquetes mediante la duplicación de paquetes. Debido a que esto aumenta el rendimiento total, la optimización debe utilizarse solo en flujos críticos que son sensibles a la pérdida de paquetes (como el tráfico de voz y video).

Puede definir y gestionar sus configuraciones de optimización desde una ubicación centralizada con tanta granularidad como sea necesario como parte de las reglas de red.

¿Cómo Funciona la Optimización de Cato?

Cuando habilita la optimización, Cato realiza uno de los siguientes métodos de optimización en función de la topología del sitio y las conexiones existentes:

  • Duplicación de paquetes - se utiliza cuando hay más de un enlace activo disponible. Con esta técnica, Cato envía paquetes duplicados sobre otro enlace activo mientras vuelve a ensamblar los paquetes en el otro extremo. Dado que se envía un paquete redundante para cualquier paquete dado, la mitigación de pérdida de paquetes aumenta incluso si un paquete se pierde en uno de los enlaces.

  • Retransmisión de UDP - se utiliza cuando solo hay un único enlace activo disponible. Con esta técnica, Cato retransmite paquetes UDP (esperando 5 msec antes de la retransmisión). Dado que se envía un paquete redundante para cualquier paquete dado, la mitigación de pérdida de paquetes aumenta incluso si un paquete se pierde.

Nota

Nota: Como TCP realiza retransmisiones como parte de su protocolo, la retransmisión de UDP mitiga efectivamente la pérdida de paquetes para los otros protocolos comúnmente usados.

¿Fue útil este artículo?

Usuarios a los que les pareció útil: 4 de 4

0 comentarios