Parte 3: A Priorização do Tráfego de Socket e QoS

Este artigo explica como o motor QoS da Cato funciona e ajuda significativamente a melhorar a utilização da largura de banda da rede e otimizar o desempenho da rede.

Gerenciando Largura de Banda com QoS da Cato

No Aplicativo de Gerenciamento Cato, use perfis de gerenciamento de Largura de Banda para configurar as prioridades QoS para os diferentes tipos de tráfego. Cada perfil contém tanto a prioridade QoS quanto os limites de largura de banda do tráfego. Você pode então atribuir o perfil de gerenciamento de Largura de Banda a uma regra de rede e priorizar o tipo específico de tráfego.

Você pode definir valores de prioridade entre 2 e 255, onde 0 e 1 são reservados para o tráfego administrativo da Cato e 255 é reservado como a prioridade mais baixa. Se você configurar o perfil de largura de banda com prioridade P10, o tráfego correspondente terá uma prioridade mais alta sobre o tráfego com prioridade P20. Você pode atribuir uma prioridade diferente para diferentes aplicações e alcançar o desempenho necessário para este tipo de tráfego. Recomendamos que você atribua um valor de prioridade mais baixo para um tipo de tráfego mais significativo. Por exemplo, se o tráfego VoIP é mais importante para sua conta do que o RDP, atribua um valor de prioridade mais alto para as regras de rede VoIP do que para as regras RDP.

Nota: Se você configurar um Encaminhamento de Porta Remota (RPF) para sua conta, o tráfego RPF é automaticamente atribuído com a menor prioridade de 255. Para mais detalhes sobre o RPF, consulte Configurar o Encaminhamento de Porta Remota para a Conta.

Como a Cato Envia Tráfego com Base na Política de Gerenciamento de Largura de Banda

A Cato Networks usa uma técnica padrão de modelagem de tráfego para otimizar o desempenho da rede, controlando a taxa média de Upload e Download.

O diagrama a seguir mostra como o motor de QoS atribui prioridade a diferentes tipos de tráfego.

mceclip0.png

Implementando o Algoritmo de Gerenciamento de Largura de Banda

A Cato usa o algoritmo Leaky Bucket para medir os limites de largura de banda e explosão. Implementar o Leaky Bucket como um modelador de tráfego significa que, quando a taxa de pacotes de entrada é maior que a taxa de saída, como em um congestionamento de rede, os pacotes entram na fila e são descartados quando a fila está cheia. Quando os pacotes são transmitidos, eles são removidos da fila, primeiro a entrar, primeiro a sair (FIFO) e novos pacotes podem então entrar na fila.

Por Dentro - Como o Tráfego É Enviado de Acordo com as Prioridades

O algoritmo Leaky Bucket mede a taxa de tráfego e identifica quando o bucket está cheio. Ele usa essas métricas para enviar o tráfego priorizado usando o exemplo de água preenchendo um bucket:

  • Taxa média - o limite real de largura de banda. A taxa de água que vaza do bucket a cada tique do relógio.

  • Capacidade de estouro - o tamanho do bucket. A quantidade total de água que o bucket pode carregar antes que comece a descartar pacotes.

  • Taxa de estouro – durante um estouro de tráfego, a taxa que a água é permitida no bucket. A taxa de estouro não é limitada, e qualquer estouro pode entrar no bucket.

Se o bucket não estiver cheio, todos os pacotes são enviados. No entanto, quando o bucket está cheio, os pacotes são enfileirados. Cada prioridade tem uma fila diferente e os pacotes são enviados por ordem (FIFO) com base nas prioridades. Quando todas as filas estão cheias, novos pacotes são descartados.

No entanto, a Cato implementa a Detecção Précoce Aleatória Ponderada (WRED) para evitar descartar um grande número de pacotes. Para tráfego TCP, a Cato descarta os pacotes de dados e não os pacotes ACK, a fim de acionar o algoritmo de congestionamento do remetente. E, em resposta, o remetente reduz a taxa na qual envia pacotes.

Como o Tráfego É Enviado das Filas Prioritárias

O Socket envia os pacotes das filas prioritárias em duas iterações: iteração de limite rígido e iteração de melhor esforço. O modelador de tráfego primeiro envia os pacotes de acordo com os limites de Largura de Banda configurados e depois faz o melhor esforço para enviar os pacotes restantes. Durante cada tique de 1ms, ele executa ambas as iterações:

  1. Iteração de Limites Rígidos – nesta iteração, a sequência é avaliar cada fila começando da prioridade mais alta para a prioridade mais baixa. Para cada fila prioritária, o Socket envia os pacotes de acordo com seus limites de QoS configurados. Durante esta iteração, se o limite total de largura de banda do link for excedido, o Socket para de enviar pacotes.

  2. Iteração de Melhor Esforço – se os pacotes transmitidos na Iteração de Limites Rígidos não excederem o limite total de largura de banda, então nesta iteração o Socket avalia cada fila novamente. Começando pela prioridade mais alta até a mais baixa, ele envia os pacotes restantes. A motivação é utilizar toda a largura de banda do link sem exceder o limite total de largura de banda.

Exemplo das Iterações do Modelador de Tráfego

Esta seção mostra um exemplo de como o motor de QoS da Cato prioriza os pacotes nas filas de tráfego.

Cinco Filas de Prioridade com Pacotes

qos_queues.png

O diagrama acima mostra os pacotes em 5 filas prioritárias antes de o Socket iniciar as iterações.

QoS – Iteração de Limites Rígidos

Limites_rígidos_de_QoS.png

Este diagrama mostra a primeira iteração, que é a Iteração de Limites Rígidos. Começando de P10, P20, P30, P40 e por último P255. A largura de banda disponível para cada fila é: dois pacotes da fila P10, um pacote de P20, um pacote de P30, dois pacotes de P40 e um pacote da fila P255.

QoS – Iteração de Melhor Esforço

qos_melhor_esforço.png

Este diagrama mostra a segunda iteração, que é a Iteração de Melhor Esforço. Nesta iteração, três pacotes foram enviados de P10, e um de cada de P20, P30, P40 e por último P255. Neste caso, toda a largura de banda disponível é usada e um pacote na fila P255 permanece para o próximo tic. Em seguida, novos pacotes chegam às filas e o algoritmo executa novamente as duas iterações e envia o pacote restante.

Esse artigo foi útil?

Usuários que acharam isso útil: 8 de 9

0 comentário