Engenharia de tráfego para redes com QoS

Ver PDF | Ver Impressão
por: ant.mac Total leituras: 252 Nº de Palavras: 10075 Data: Wed, 15 Aug 2012 Hora: 7:48 AM 0 comentários

 

I.           Introdução

Faz parte do discurso recorrente da área comercial dos operadores de redes modernas, que a qualidade do serviço fornecido deve ser proporcional ao valor pago pelo cliente, deixando para a área de engenharia o problema de criação dos mecanismos e métricas que possam acomodar objetivamente esse discurso, tornando mensuráveis palavras como qualidade e serviço que em si mesmo são definições imprecisas e muitas vezes egoístas, variando em função de necessidades pessoais ou momentâneas. [1]

Apesar dessas imprecisões, é possível recorrendo ao senso comum, perceber que não deve ser tomado por igual, aquilo que é na realidade diferente. Os serviços de dados, voz ou vídeo não têm necessidades de recursos iguais, baseada nesta premissa a IETF reuniu os esforços de várias equipas para a criação de várias métricas que associam a qualidade de serviço a aspetos mensuráveis, tais como o atraso, o jitter (variação do atraso) e a largura de banda, criando assim as bases da qualidade de serviço e a necessidade da engenharia de tráfego para a sua implementação, permitindo dinamicamente efetuar a distribuição de tráfego na rede, minimizando os congestionamentos e instabilidades. [2]

Para fornecer estes serviços com garantia de qualidade, existe a necessidade de mecanismos e protocolos, que atendam aos novos requisitos. Foi proposta uma arquitetura de engenharia de tráfego que dá suporte ao encaminhamento de pacotes baseada em etiquetas numa plataforma aberta e interoperável entre redes de diversas topologias, designada por MPLS (MultiProtocol Label Switching). Esta engenharia é tão mais importante quanto a dispersão de redes em que o serviço tem de ser distribuído, e não é mais do que a manipulação feita ao tráfego de modo a encaixá-lo nos recursos existentes.  

O MPLS pode ser utilizado para estabelecer caminhos que emulam as conexões ponto-a-ponto da camada dois, estabelecendo circuitos virtuais ou túneis, oferecendo um caminho alternativo para o encaminhamento de dados, sem o overhead das redes virtuais privadas.

A engenharia de tráfego não é igual em todos os pontos da rede. Se tomarmos em consideração o MPLS por exemplo, o seu objetivo não é estar presente em sistemas finais, mas sim no núcleo da rede de trânsito.

 

II.         Qualidade de Serviço

A.    Parâmetros de Qualidade de Serviço

Os principais parâmetros que são normalmente definidos para o QoS (qualidade de serviço), são essencialmente quatro: Atraso, Variação do Atraso, Perda de Pacotes e Largura de Banda. Existem parâmetros além dos já referidos anteriormente que podem ser adicionados ao SLA (Service Level Agreement) que é celebrado entre o ISP (operador) e o cliente que requisita o serviço.

1)       Atraso

 A forma como o atraso é definido depende do tipo de tráfego a ser transmitido. Se for em tempo real define-se como one way delay, ou seja, apenas é quantificado o tempo num sentido, se for em aplicações suportadas em TCP a forma de cálculo utiliza o RTT (Round Trip Time). Para as aplicações multimédia, o atraso em tempo real é o mais importante e pode ser discriminado de quatro maneiras diferentes:

a)       Atraso de propagação

 É a soma de todos os tempos que demora um bit a passar desde a saída de um router até à entrada do próximo. A distância entre routers e o meio onde se propaga tem aqui a maior influência.

b)       Atraso de Comutação

É o tempo que demora desde a entrada do pacote no router até estar disponível para ser calendarizado. O tempo de processamento é mais rapido se for realizado por Hardware em vez de Software e anda na ordem dos 10 a 20 µS.

c)       Atraso de Calendarização

É o tempo que leva entre o pacote estar pronto a ser distribuido e o início da sua saida do router.

d)       Atraso de transmissão

É o tempo que leva ao pacote sair por completo do router. Este atraso é mais acentuado em transmissões de baixa velocidade.

2)       Variação do atraso

O jitter pode ser definido como uma variação estatística do atraso na entrega de dados numa rede, ou seja, pode ser definido como a medida de variação do atraso entre os pacotes sucessivos de dados. Uma das formas de minimizar a variação de atraso é utilizando buffers, os quais armazenam os dados à medida que eles chegam e vão sendo encaminhados para a aplicação de uma forma regular.

3)       Perda de Pacotes

Este parâmetro de qualidade de serviço observa a perda de pacotes que acontece entre um determinado ponto de saída na rede e um determinado ponto de entrada dessa mesma rede. Considera-se que houve perda de pacotes quando um pacote não aparece na saída dentro de certo período de tempo. A origem da perda de pacotes pode estar relacionada com o congestionamento na rede, com erros nas camadas um e dois, com a falha de elementos de rede e até com problemas nos sistemas terminais.

4)        Largura de Banda e Débito

A largura de banda corresponde à capacidade total da ligação. O débito para uma dada aplicação é inferior à largura de banda, pois tem que se levar em consideração o overhead introduzido pelas diferentes camadas dos protocolos.

 

B.    Mecanismos para introdução de QoS

O desenvolvimento do suporte de QoS nas redes IP proporcionou à IETF a proposta de alguns métodos, nomeadamente: o IntServ (Serviços Integrados) através das RFC 1633 e 1994, o DiffServ (Serviços Diferenciados) através das RFC 1998 e 2475, e o MPLS através das RFC 2001 e 3031, dando origem posteriormente à Engenharia de Tráfego na RFC 3272.

1)       Serviços Integrados

O IntServ através da reserva de recursos baseada no protocolo RSVP (Resource Reservation Protocol) permite ao emissor reservar um canal na rede para garantir a largura de banda e especificar exigências de atraso e variação de atraso. Através do protocolo de sinalização RSVP podemos fazer a configuração dos caminhos e a reserva dos recursos. [4] Foi projetado para funcionar com protocolos de encaminhamento unicast e multicast. Os componentes do RSVP são os transmissores, os clientes, os Hosts e os routers entre eles. O transmissor permite que o cliente saiba que dados serão enviados e que QoS ele necessita, o cliente envia um aviso  aos hosts ou routers para eles se prepararem para receber os dados. Para garantir a reserva, os hosts e routers afetados comprometem-se a fornecer esses recursos. Se um deles não é capaz de os fornecer, ou os recursos não estão disponíveis, pode recusar a reserva, sendo a aplicação notificada imediatamente de que a rede não a pode suportar.

figura 1 - Reserva RSVP

a)       Vantagens

·         Cria um método seguro para implementar os SLA;

·         O protocolo é aberto, robusto e difundido;

·         Utiliza equipamentos existentes, sem necessitar de uma nova classe de hardware, havendo no entanto necessidade de a suportar.

b)       Inconvenientes

·         No caso geral, existem processamentos sempre repetidos no estabelecimento da sessão RSVP. Na maior parte dos casos, é sempre o mesmo caminho que é estabelecido.

 

2)       Serviços Diferenciados

O DiffServ representado na figura 2 permite tratar cada classe de tráfego de forma diferente, uma classe de tráfego em tempo real pode atravessar a rede mais rapidamente do que uma de transferência de ficheiros. No cabeçalho do pacote IP, existe um campo denominado de TOS (Type of Service) que pode identificar o tipo de serviço. Os serviços diferenciados ampliam a representação de serviços e o tratamento que pode ser dado para encaminhar um pacote através da definição de um novo layout para o TOS. Este layout é denominado de DS Field (Differentiated Service Field), e nele são codificadas as classes para serviços diferenciados. Cada campo DS corresponde a um tratamento diferente de encaminhamento chamado PHP (Per Hop Behavior) em cada nó.

a)       Vantagens

·         Uma forma simples de diferenciação das classes de serviços para um ISP que poderá ter como base uma tarifa também diferenciada;

·         A gestão de classes de tráfego aplicada aos fluxos agregados que não requer a utilização explícita de nenhum protocolo de sinalização;

·         Resolução dos problemas de escalabilidade do IntServ em relação aos encaminhadores do núcleo da rede e em relação às funções complexas que são realizadas apenas na periferia da rede.

 

b)       Desvantagens

·         A complexidade crescente das técnicas de configuração e do dimensionamento do núcleo da rede;

·         Falta de maturidade destas técnicas;

·         As garantias de QoS são relativas a uma classe de tráfego agregada e não a um fluxo de dados.

 

figura 2 – Modelo DiffServ

 

3)       MPLS

Em ambientes de routing convencionais, a decisão sobre o encaminhamento de cada pacote é realizada em cada router da infraestrutura, para permitir o estabelecimento prévio da rota a ser seguida pelos pacotes nos routers de fronteira. O MPLS por seu lado insere rótulos nos pacotes que entram no domínio, associando-os a uma FEC (Forward Equivalence Class), que representa o caminho ponto a ponto que o pacote deverá percorrer no domínio. Uma FEC é definida como sendo uma classe correspondente a um conjunto de pacotes encaminhados de uma mesma forma através da rede.

O MPLS normalmente não é utilizado em toda a rede, mas sim no núcleo para evitar o seu congestionamento, através da sua técnica de encaminhamento mais rápida e eficaz, comparativamente ao encaminhamento habitual numa rede IP [3]

 

figura 3 – Esquema de funcionamento do MPLS

a)       Vantagens

·         Orientação a conexão em redes IP;

·         Menor complexidade de decisões de encaminhamento nos routers;

·         Permite Engenharia de tráfego;

·         Eliminação de múltiplas camadas;

·         Ajuda a garantir a QoS;

b)       Desvantagens

·         Circuito moroso de manusear – usa-se Software de gestão ou configuração manual;

·         QoS e SLAs são geridos individualmente

 

                                                                                                                                                          III.        Protocolo MPLS

O MPLS funciona tal como descrito na figura 3, cada pacote recebe um rótulo (label) de um determinado router LER (Label Edge Router). Os pacotes são encaminhados por um caminho comutado por rótulos LSP (Label Switch Path), formado por routers de comutação de rótulos LSR (Label Switch Routers), cada LSR toma as decisões de encaminhamento baseado apenas no rótulo do pacote. [3]

Os protocolos de sinalização mais comuns do MPLS são: LDP (Label Distribution Path), o CR-LDP (Constraint-based Routing Label Distribution Protocol) e o RSVP-TE (Resource Reservation Protocol – Traffic Engineering). Estes protocolos têm como objetivo distribuir os rótulos e estabelecer os caminhos LSP. [5] O CR-LDP evoluiu de maneira inversa ao RSVP. A principal diferença em relação ao RSVP-TE é que o CR-LDP é do tipo Hard State (uma vez estabelecido o circuito virtual, ele não será desfeito até que um pedido de desconexão seja enviado), ao passo que o RSVP-TE é do tipo Soft State (mensagens de verificação do estado operacional do circuito virtual são trocadas periodicamente).

 Entretanto, em virtude da baixa utilização do CR-LDP e da duplicação de esforços, o grupo de trabalho de MPLS do IETF decidiu não direcionar novos esforços ao CR-LDP e concentrou seu trabalho no desenvolvimento do RSVP-TE, como o protocolo de sinalização para aplicações que requeiram engenharia de tráfego.

 Com a implementação de QoS sobre o MPLS, conseguimos diferenciar diversos tipos de tráfegos e tratá-los de forma distinta, dando prioridades às aplicações mais sensíveis.

 

A.    Rótulos

Na forma mais simples, um rótulo pode ser visto como uma forma abreviada para o cabeçalho do pacote, de forma a indicar ao pacote a decisão de remessa que um router faria. O cabeçalho MPLS com 32 bits fica posicionado depois do cabeçalho da camada 2 e antes do cabeçalho da camada três. O IETF definiu que sempre que possível, o MPLS deveria usar os formatos existentes de rótulos. Por essa razão, são suportados três tipos diferentes. Em ATM usam-se os rótulos VCI e VPI, em Frame Relay utiliza-se o rótulo DLCI, nos outros casos utiliza-se um rótulo novo conhecido como Shim representado na figura 4. Como o MPLS permite criar novos formatos de rótulos sem ter que trocar os protocolos de routing, é relativamente simples estender a tecnologia para formas de transporte mais emergentes, como DWDM e comutação ótica. [5]

 

figura 4 – Colocação do cabeçalho Shim num pacote Ethernet

 

B.    Label Stack

A comutação de rótulos foi projetada para ser usada em redes de grande porte, o MPLS suporta comutação de rótulos com operações hierárquicas, baseadas na capacidade de o pacote carregar mais de um rótulo. O empilhamento de rótulos permite que os routers designados troquem informações entre si e ajam como nós de fronteira para um domínio de redes e para outros routers. Estes são nós internos ao domínio, e não se preocupam com as rotas interdomínio, nem com os rótulos associados a cada uma dessas rotas. O processamento de um pacote rotulado é completamente independente do nível de hierarquia, ou seja, o nível do rótulo é irrelevante para o LSR. O processamento é sempre baseado no rótulo do topo, abstraindo-se dos outros rótulos que podem haver abaixo deste.

 

C.    FEC

Uma FEC consiste num conjunto de pacotes que serão encaminhados da mesma maneira numa rede MPLS, os pacotes de um mesmo fluxo de dados geralmente pertencem à mesma FEC. A FEC é representada por um rótulo, e cada LSP é associado a uma FEC. Ao receber um pacote, o LER verifica a qual FEC ele pertence e encaminha-o através do LSP correspondente. Existe portanto uma associação conjunta de pacote-rótulo-FEC-LSP. A associação pacote-FEC acontece apenas uma vez, quando o pacote entra na rede MPLS proporcionando assim grande flexibilidade e escalabilidade.

 

D.    LSR

Os LSR são os routers de comutação habilitados para implementar MPLS. São equipamentos situados normalmente no núcleo da rede, e a sua função é encaminhar os pacotes baseados apenas no rótulo de cada pacote. Ao receber um pacote, cada LSR troca o rótulo existente por outro, passando o pacote para o próximo router e assim por diante.

E.    LER

O LER é um router que fica na periferia da rede, e é responsável por inserir ou remover pilhas inteiras de rótulos dos pacotes, dependendo se estes estão a entrar ou a sair da rede. Servem também para se poder conectar com redes de diferentes tipos, já que fazem a fronteira entre o domínio MPLS e as restantes redes. Na realidade são LSR que têm a capacidade de fazer fronteira com outras redes, tais como Ethernet, Frame Relay, ATM, etc.

 

F.    LSP

O LSP consiste num caminho comutado por um rótulo, ou seja, um caminho através de uma sequência ordenada de LSR, estabelecido entre uma origem e um destino. Um LSP é sempre unidirecional, logo são necessários dois LSP para uma comunicação entre duas entidades. [6] A rota é estabelecida inicialmente com os protocolos de encaminhamento convencionais, ficando o caminho definido. Os pacotes pertencentes a esse caminho deixam de necessitar de novo encaminhamento, sendo apenas comutados com base nos seus rótulos. Estes rótulos são distribuídos entre os LSR no momento do estabelecimento do LSP.

 

G.    LDP

Tal com já foi referido, a arquitetura MPLS não define um único método de distribuição de rótulos, por isso a IETF propôs o LDP, uma especificação que permite a um LSR distribuir rótulos. Quando um LSR atribui um rótulo a uma FEC é preciso que os outros saibam desse rótulo e qual o seu significado. O LDP ajuda no estabelecimento de um LSP através do uso de um conjunto de procedimentos para distribuir os rótulos entre os LSR. O LDP e os rótulos são a base da comutação de rótulos e possui as seguintes características básicas:

·         Oferece um mecanismo de descoberta dos LSR para permitir que os LSR se encontrem uns aos outros e estabeleçam a comunicação;

·         Define as classes de mensagem: DISCOVERY, ADJACENCY, LABEL, ADVERTISEMENT, e NOTIFICATION;

·         Funciona em cima de TCP para proporcionar confiança nas mensagens.

 

H.    RSVP-TE

Criado inicialmente para aplicações em serviços integrados, o RSVP foi desenvolvido para ser um mecanismo de sinalização com o objetivo de reservar recursos através de uma rede, permitindo especificar uma determinada requisição de serviço para um certo fluxo na rede.

As extensões do RSVP para engenharia de tráfego proporcionam uma excelente adequação deste para a distribuição de rótulos MPLS, de forma otimizada. Através da RFC 4875 foi definido que o RSVP seria utilizado para sinalização em MPLS-TE. [8]

O RSVP-TE funciona sobre IP puro, é um protocolo estável e permite compartilhamento de recursos (criação de LSR sobre caminhos existentes), tornando-o muito atrativo.

                                                                                                                                                    IV.        Sinalização RSVP-TE

O RSVP-TE reutiliza todas as sete mensagens RSVP: Path (pedido de reserva - cliente), Revs (confirmação da reserva - servidor), ResvConf (Confirmação pelo cliente), PathTear (desistência pelo cliente), RevsTear (desistência pelo servidor), ResvErr (notificação de erro ao receber pedido de reserva) PathErr (notificação de erro ao receber pedido de reserva).

Cada sessão RSVP estabelecida na rede, dependendo da sua necessidade de qualidade de serviço, possui um estilo de reserva de recursos apropriado. Existem três estilos definidos:

·          FF (Fixed Filter): neste estilo de reserva os recursos são alocados para um único par origem – destino, não sendo compartilhados com nenhuma outra estação da rede. Portanto, a quantidade total de banda reservada no estilo FF num circuito de comunicação será igual à soma das reservas de cada sessão RSVP.

·         SE (Shared Explicit): este estilo de reserva permite a um originador especificar os elementos de rede que compartilham um determinado recurso reservado. Como os diferentes elementos de rede podem possuir requisitos diferentes de quantidade de recursos a serem alocados, a reserva é feita pelo de maior necessidade. Esse estilo de reserva é utilizado em aplicações multicast ou em rerouting de LSP, utilizando o make before break.

·         WF (Wildcard Filter): neste estilo, um único recurso reservado pode ser compartilhado por vários originadores de sessão, não havendo, portanto, manutenção de QoS para uma determinada aplicação. Portanto, pela falta de aplicabilidade para engenharia de tráfego, o WF não é utilizado pelo RSVP-TE.

Um dos requisitos para se fazer engenharia de tráfego, é a capacidade de reencaminhar LSP já estabelecidos na rede, sob certas condições, ou políticas administrativas. Por exemplo, uma determinada política pode estabelecer que um LSP deverá ser reencaminhado quando um caminho melhor se tornar disponível. Outra característica importante é quando um LSP é reencaminhado devido a uma falha num circuito de comunicação, e quando essa falha estiver resolvida, o LSP deverá ser reestabelecido pelo caminho original.

 É absolutamente desejável que quando houver necessidade de reencaminhamento de LSP não haja interrupção de tráfego. Para se realizar esse processo sem quedas de tráfego ou queda de performance, é necessário estabelecer um novo LSP para que o tráfego seja transferido antes de desativar o primeiro. Este conceito é chamado make before break.

 Para suportar este conceito é necessário que os recursos alocados para o antigo LSP não sejam libertados antes que todo o tráfego seja transferido para o novo caminho, e as reservas feitas para o estabelecimento do novo LSP não deverão ser duplicadas, pois, dessa forma, pode haver problemas de conexões rejeitadas por falta de recursos.

 

                                                                                                                                                 V.         engenharia de Tráfego

Pode-se definir engenharia de tráfego como o processo de organização do tráfego que flui através da rede para evitar congestionamentos causados por uma utilização desigual da rede permitindo utilizar todos os recursos existentes de forma balanceada.

A.    Objetivos da Engenharia de Tráfego

Ao utilizar a engenharia de tráfego estamos a favorecer indiretamente a QoS, pois possibilitamos que sejam dadas prioridades às aplicações e que o seu encaminhamento seja alterado para outro com melhores condições de desempenho de tráfego. Esta engenharia divide o tráfego nas possíveis ligações e consequentemente evita deixar os caminhos desocupados, utilizando princípios científicos e tecnológicos para a modelação, medição, caracterização e o controlo da rede. Os principais objetivos podem ser classificados como:

·         Orientados aos recursos: pretende-se que exista uma otimização da utilização dos recursos da rede de maneira a que não haja congestionamento nem que exista uma sobrecarga ou pouca utilização de certas partes da rede. Uma das principais funções da engenharia de tráfego é gerir a largura de banda da rede da maneira mais eficiente possível.

·         Orientados ao tráfego: engloba aspetos relacionados com a QoS do tráfego. Melhora as medidas de desempenho, tais como a variação de atraso, o atraso, a perda de pacotes e o débito efetivo. Aqui a minimização da perda de pacotes é o grande objetivo.

  Um dos principais objetivos de desempenho, do ponto de vista do tráfego e dos recursos, é minimizar o congestionamento. [6] O congestionamento acontece porque os recursos de rede são insuficientes ou inadequados para atender aos pedidos. Neste caso, pode-se expandir a capacidade da rede, aplicar mecanismos clássicos de controlo de congestionamento ou ambos, de modo a que o tráfego seja encaminhado de maneira eficiente nos recursos disponíveis. A Engenharia de Tráfego é útil para conseguir encaminhar o tráfego de maneira diferente do encaminhamento produzido por protocolos baseados em SPF (Shortest Path First), por realizar um melhor balanceamento de carga.

Não tem sido fácil a implementação da Engenharia de Tráfego nas redes IP. Esta situação deve-se às limitações das funcionalidades das tecnologias IP convencionais. Outro problema que se encontra nos sistemas IP são as limitações das funções de controlo de encaminhamento interno. Os protocolos de encaminhamento interno baseados no algoritmo SPF, fazem encaminhamento de acordo com as decisões efetuadas recorrendo à instância local de uma tabela de estados. O seleção de encaminhamento é sempre baseado na menor distância.

As estratégias de encaminhamento são classificadas de acordo com os mecanismos que acionam, com a procura de caminhos que satisfazem o constrangimento solicitado e com o valor do estado mantido. O mecanismo que aciona a procura de caminhos, denominado de encaminhamento DV (Distance Vector) em protocolos como o RIPv2, distribui o seu cálculo do caminho entre os routers da rede. Cada router troca, periodicamente, informações dos vetores de distância com os seus vizinhos e utiliza a informação dos vetores de distância para calcular os caminhos. A limitação desta abordagem é a falta de conhecimento global da rede o que provoca uma convergência lenta e loops de encaminhamento. O mecanismo que aciona a procura de caminhos, denominado de encaminhamento LS (Link State), em protocolos como o OSPF, distribui periodicamente o estado de todas as ligações locais a todos os routers da rede. Este tipo de encaminhamento tem vantagens ao nível da simplicidade, da exatidão e evita a existência de loops. As desvantagens encontram-se ao nível do elevado armazenamento, na elevada computação exercida e na atualização do estado no cabeçalho. [7]

Esta abordagem é largamente escalável e distribuída, mas envolve falhas. Estas falhas devem-se com o facto de não serem consideradas as características do tráfego nem as restrições de capacidades da rede ao fazer as decisões, levando ao congestionamento de algumas ligações, enquanto outros caminhos permanecem subaproveitados. A Engenharia de Tráfego através do encaminhamento CBR (Constraint Based Routing) procura resolver este tipo de problema, pois é exercida uma pressão sobre o fluxo de dados (restrições) com o objetivo de otimizar a eficiência da rede. [8] O CBR considera fluxos agregados, também conhecidos por “fluxos macro”, e não os fluxos individuais ou micro fluxos.

 A função do CBR é selecionar o caminho de acordo com os critérios de encaminhamento. Existem dois critérios de encaminhamento, o QBR (Qos-Based Routing) e o PBR (Policy-Based Routing):

·         QBR - consiste em realizar encaminhamentos com base na restrição de Qualidade de Serviço (atraso, largura de banda, perda de pacotes ou variação de atraso) solicitada, onde requer a classificação de fluxos e escolhas de caminhos distintos para cada classe.

·         PBR - consiste em escolher caminhos com base em decisões administrativas e nos SLA celebrados com os clientes onde é possível, por exemplo, proibir o tráfego comercial de utilizar certos troços da rede. Os encaminhamentos que satisfazem as restrições têm como objetivo reduzir os custos, balancear a carga da rede e aumentar a segurança.  

B.    Componentes da Engenharia de Tráfego

Destacamos como componentes da Engenharia de Tráfego, os associados ao MPLS para o encaminhamento de pacotes, a distribuição das informações, a seleção do caminho e a seleção da sinalização.

O encaminhamento do pacote ocorre da mesma forma do que no MPLS. A questão essencial fica por conta da escolha de uma LSP que representa o caminho mais curto para alcançar o destino.

 A componente responsável pela distribuição das informações é fundamental na estrutura da Engenharia de Tráfego baseada no MPLS, isto porque é necessário ter um conhecimento sobre a topologia, assim como informações dinâmicas sobre a carga da rede. A implementação deste elemento dá-se através das extensões ao protocolo de modo que os atributos das ligações sejam incluídos nas mensagens de anúncio distribuídas nos encaminhadores.

A seleção do caminho a ser tomado pelos LSP é baseada num algoritmo denominado CSPF (Constraint Shortest Path First). Este algoritmo baseia-se em restrições que são atribuídas aos elementos da rede, para determinar um caminho para o LSP. Para isto, é necessário que os atributos associados ao LSP sejam respeitados.

 A sinalização é responsável pelo estabelecimento dos LSP e pela distribuição dos rótulos no MPLS. Estes são nomeadamente, o LDP e o RSVP-TE. [8]

 

                                                                                                                                                           VI.        Exemplo prático

 

Figura 5 – Exemplo de um domínio MPLS com RSVP-TE

Como exemplo prático do exposto até aqui podemos analisar o domínio MPLS mostrado na Figura 5, onde os pacotes destinados ao utilizador B são enviados a partir do LSR1 pelo utilizador A utilizando uma taxa de 40 Mbps. A largura de banda reservada em cada ligação significa que já existem LSP estabelecidas neste domínio e os valores mostrados estão disponíveis para serem utilizados apenas por estas LSP. Se no domínio fosse utilizado o routing IP padrão, o tráfego seria encaminhado através da ligação 1-3. Isto ocorre pelas seguintes razões:

·          A ligação 1-3 é o menor caminho entre o LSR1 e o ponto B, necessitando de apenas dois saltos para alcançar o destino;

·          O valor da métrica deste caminho é igual a um (m =1).

Com a utilização deste tipo de routing IP padrão ocorreria uma grande perda de pacotes e um alto atraso entre os dois pontos, uma vez que a ligação entre o LSR1 e LSR3 não possui folga de largura de banda suficiente.

Com a implementação da engenharia de tráfego através da utilização de MPLS com RSVP-TE, o problema do congestionamento pode ser resolvido. Neste caso, um LSP pode ser estabelecido através do caminho formado pelas ligações 1-2-3. A folga da largura de banda neste caminho é de 55 Mbps, no troço com maior congestão, sendo suficiente para as necessidades da aplica

Sobre o Autor

António Machado é licenciado em Engenharia Electrónica, Telecomunicações e Computadores, pelo Instituto Superior de Engenharia de Lisboa, e está a finalizar o mestrado em Telecomunicações e Computadores. É um apaixonado por segurança em redes fixas e móveis.




Pontuação: Não pontuado ainda


Comments

No comments posted.

Add Comment