UTILIZE A PESQUISA!

Mostrando postagens com marcador Protocolos. Mostrar todas as postagens
Mostrando postagens com marcador Protocolos. Mostrar todas as postagens

Métrica do OSPF

A métrica do OSPF é chamada de custo. Da RFC 2328: "Um custo está associado com o lado de saída de cada interface do roteador. Este custo é configurável pelo administrador do sistema. Quanto menor o custo, mais provável será o uso da interface para encaminhar o tráfego de dados."

Note que o RFC 2328 não especifica quais valores devem ser utilizados para determinar o custo.
O Cisco IOS utiliza as larguras de banda cumulativas das interfaces de saída do roteador para a rede de destino como o valor de custo. Em cada roteador, o custo para uma interface é calculado como 10 à 8a potência dividido pela largura de banda em bps. Isto é conhecido como largura de banda de referência. Divide-se 10 à 8a potência pela largura de banda da interface de modo que as interfaces com os valores de largura de banda mais altos tenham um menor custo calculado. Lembre-se de que, nas métricas de roteamento, a rota de custo mais baixo é a rota preferida (por exemplo, com RIP, 3 saltos é melhor que 10).
 A figura abaixo mostra os custos de OSPF padrão para vários tipos de interfaces.
Largura de Banda de Referência

A largura de banda de referência é padronizada em 10 à 8a potência, 100.000.000 bps ou 100 Mbps. Isto resulta em interfaces com uma largura de banda de 100 Mbps ou maiores tendo o mesmo custo de OSPF de 1. A largura de banda de referência pode ser modificada para acomodar redes com links mais rápidos que 100.000.000 bps (100 Mbps), usando o comando OSPF auto-cost reference-bandwidth. Quando este comando for necessário, recomenda-se que ele seja utilizado em todos os roteadores de modo que a métrica de roteamento OSPF permaneça consistente.
 

O OSPF acumula custos

O custo de uma rota OSPF é o valor acumulado de um roteador para a rede de destino. Por exemplo, na figura, a tabela de roteamento em R1 mostra um custo de 65 para alcançar a rede 10.10.10.0/24 em R2. Uma vez que o 10.10.10.0/24 está conectado a uma interface FastEthernet, R2 atribui o valor 1 como o custo para 10.10.10.0/24. R1 adiciona então o valor de custo adicional de 64 para enviar dados pelo link T1 padrão entre R1 e R2.


Largura de banda padrão em Interfaces Seriais

Você pode utilizar o comando show interface para exibir o valor de largura de banda utilizado por uma interface. Nos roteadores Cisco, o valor de largura de banda em muitas interfaces seriais padroniza-se em T1 (1.544 Mbps). Porém, algumas interfaces seriais podem padronizar-se a 128 kbps. Portanto, nunca suponha que o OSPF está utilizando um valor de largura de banda específico. Sempre verifique o valor padrão com o comando show interface.

Este valor de largura de banda não afeta realmente a velocidade do link; ele é utilizado por alguns protocolos de roteamento para computar a métrica do roteamento. Mais provavelmente, em interfaces seriais, a velocidade real do link é diferente da largura de banda padrão. É importante que o valor de largura de banda reflita a velocidade real do link de forma que a tabela de roteamento tenha informações precisas sobre o melhor caminho. Por exemplo, você pode estar pagando somente por uma conexão T1 fracionária de seu provedor de serviços, um quarto de uma conexão T1 inteira (384 kbps). Porém, para propósitos de protocolo de roteamento, o IOS assume um valor de largura de banda T1, muito embora a interface esteja enviando e recebendo de fato somente um quarto de uma conexão T1 inteira (384 kbps).

A figura mostra a saída de comando para a interface Serial 0/0/0 em R1. A topologia também reflete agora a largura de banda real do link entre os roteadores. Observe que o valor de largura de banda padrão na saída de comando para R1 é de 1544 kbps. Entretanto, a largura de banda real deste link é de 64 kbps. Isto significa que o roteador possui informações de roteamento que não refletem precisamente a topologia de rede. 
 
 
A figura mostra a tabela de roteamento para R1. R1 acredita que ambas as suas interfaces seriais estão conectadas a links de T1, embora um dos links seja um link de 64 kbps e o outro seja um link de 256 kbps. Isto resulta na tabela de roteamento de R1 tendo dois caminhos de custos iguais à rede 192.168.8.0/30, quando o Serial 0/0/1 é, de fato, o melhor caminho.

O 192.168.10.8 [110/128] por 192.168.10.6, 00:03:41, Serial0/0/1
[110/128] por 192.168.10.2, 00:03:41, Serial0/0/0
 

 
O custo de OSPF calculado de uma interface pode ser verificado com o comando show ip ospf interface. Na figura, é possível verificar que R1 está de fato atribuindo um custo de 64 à interface Serial 0/0/0. Embora você possa pensar que este é o custo correto porque esta interface está conectada a um link de 64 kbps, lembre-se de que este custo é derivado da fórmula de custo. O custo de um link de 64 kbps é de 1562 (100.000.000/64.000). O valor de 64 exibido corresponde ao custo de um link T1.


Fonte: Texto e imagens retirados do material CCNA Exploration 4.0 na seção de Protocolos e Conceitos de Roteamento.
 
 

O que é MPLS


O Multiprotocol Label Switching (em português, "Comutação de Rótulos Multiprotocolo") é um mecanismo em redes de telecomunicações de alto desempenho que direciona dados de um nó da rede para o próximo nó baseado em rótulos de menor caminho em vez de endereços de rede longos, evitando consultas complexas em uma tabela de roteamento. Os rótulos identificam enlaces virtuais (caminhos) entre nós distantes em vez de pontos terminais. O MPLS pode encapsular pacotes de vários protocolos de rede. O MPLS suporte uma série de tecnologias de acesso, incluindo T1/E1, ATM, Frame Relay e DSL.
O protocolo MPLS é definido pelo IETF (Internet Engineering Task Force) proporciona o encaminhamento e a comutação eficientes de fluxos de tráfego através da rede, apresentando-se como uma solução para diminuir o processamento nos equipamentos de rede e interligar com maior eficiência redes de tecnologias distintas. O termo "Multiprotocol" significa que esta tecnologia pode ser usada sob qualquer protocolo de rede. Considerando a Internet e a importância de seus protocolos nas varias WAN’s publicas e privadas, tem-se aplicado o estudo e implementação do MPLS basicamente para redes IP.

Este protocolo disponibiliza os serviços de QoS, Engenharia de Tráfego (Traffic Engineering) e VPN para uma rede baseada em IP. Em relação a aplicações que exigem tempo real, a rede MPLS oferece a implementação de QoS que não pode ser implementada em rede IP. Com a implementação do QoS podemos diferenciar diversos tipos de tráfegos e tratá-los de forma distinta, dando prioridades às aplicações mais sensíveis (rede escalonável).

Como Funciona

Redes baseadas em IP geralmente deixam a desejar no quesito qualidade de serviço, que são características disponíveis nas redes baseadas em circuitos como ATM, com as quais as empresas estão mais acostumadas. O MPLS traz a sofisticação do protocolo orientado à conexão para o mundo IP sem conexão. É esse o segredo que torna as redes IP tão convenientes para as aplicações empresariais. Com base em avanços simples no roteamento IP básico, o MPLS proporciona melhor performance e capacidade de criação de serviços para a rede.

Em uma rede IP convencional, os pacotes de dados são roteados com base nas informações contidas em seus cabeçalhos (headers) e nas informações que cada roteador dispõe sobre o a alcance e a disponibilidade dos outros roteadores da rede. Nas redes MPLS, os pacotes são rotulados assim que entram na rede, sendo encaminhados apenas com base no conteúdo desses rótulos. Capacitando os roteadores a decidir o encaminhamento mais adequado com base em tais rótulos, o MPLS evita o esquema de intenso processo de pesquisa de dados utilizado no roteamento convencional.

Encaminhar pacotes com base em seus rótulos, em vez de roteá-los com base nos cabeçalhos, traz inúmeras e significativas vantagens: os pacotes são processados mais rapidamente, porque o tempo gasto para encaminhar um rótulo é menor do que o gasto para rotear um header de pacote; pode-se atribuir prioridade aos rótulos, o que torna possível garantir a qualidade de serviço de Frame Relay e de ATM; os pacotes percorrem a rede pública através de caminhos estáticos do tipo circuito, que são a base para Redes Virtuais Privadas (VPN’s); A carga útil dos pacotes não é examinada pelos roteadores de encaminhamento, permitindo diferentes níveis de criptografia e o transporte de múltiplos protocolos.

Em resumo, O MPLS propõe um método para gerar uma estrutura de comutação sob qualquer rede de datagramas, criando circuitos virtuais a partir das rotas organizadas pelos protocolos de roteamento da camada de rede. A informação é então processada e dividida em classes de serviço (recebe labels) e os dados encaminhados através de rotas estabelecidas anteriormente por essas classes, sendo feita apenas a comutação. O nível de enlace é preservado, sendo possível aplicar o MPLS em redes Ethernet, ATM e Frame Relay, por exemplo.
Figura 1 - Exemplo de rede utilizando MPLS

Na figura anterior temos o funcionamento básico do protocolo MPLS, através do trajeto percorrido pelo pacote IP. Verificamos que o pacote recebe um label quando ingressa na nuvem MPLS, passa por comutadores dentro da rede da operadora, sendo que este label é retirado na saída da nuvem. 


Protocolo rlogin

O rlogin é um sistema oferecido por sistemas Berkeley 4BSD Unix e definida na RFC 1258 BSD - Rlogin em setembro de 1991. É um serviço de login remoto que conecta a máquina cliente na máquina servidora de forma que a sua utilização é transparente para o usuário (Figura 01). Com isso, o usuário pode executar comandos interativos como se estivesse na máquina servidora. O rlogin possui um pacote incluso chamado de rsh que funciona como um deamon do xinetd, logo pode ser inicializado pelo inetd.

Neste contexto, a máquina remota é o servidor utilizando o programa login, e os clientes que acessam o servidor utilizam o programa rlogin, o sistema assim requer a utilização do protocolo TCP e da porta 513 como padrão dando suporte ao controle de fluxo dos dados.
                                                                      (Figura 01)


As principais características que diferenciam o protocolo Telnet do protocolo rlogin são: 
a) O servidor é sempre informado sobre o tipo de terminal com o cliente de trabalho sem negociação.

b) O servidor também é informado sobre a identidade do utilizador no sistema de cliente, que pode ser usada para automatizar o processo de autenticação. 

c) Se você alterar o tamanho da janela do terminal de exibição, ele pode enviar automaticamente um sinal para o servidor notificar.Atividade Com algumas implementações Unix do cliente Telnet, você pode usar os comandos de alternância netdata.

d)
Na transmissão de dados, sempre 8 bits de cada byte pode ser usado.

Noções básicas de protocolo rlogin


O protocolo rlogin usa conexões TCP. O nome oficial do serviço prestado por este protocolo é login e o número da porta designado para este serviço é o 513.Quando o cliente estabelece uma conexão com o servidor, primeiro envia quatro cordas, cada um terminou com uma NUL (código 0). São os seguintes textos: 

• Uma sequência vazia (contém apenas NUL).
• O nome do usuário no sistema cliente.
• O nome de usuário que você deseja estabelecer uma sessão de trabalho no sistema do servidor.
• O tipo de terminal e separadas com velocidade "/" (por exemplo, VT100 / 9600).

Quando tiver recebido estas quatro cordas, o servidor envia um caractere NUL e iniciar a transferência de dados entre cliente e servidor em modo de controle de fluxo. Neste modo, o cliente envia os caracteres o usuário digita que você chegar, personagens DC3 exceto controle ("^ S") e DC1 ("^ Q"), que significa "suspender a transmissão 'e' retomar ' respectivamente.Por outro lado, o cliente apresenta os dados enviados a partir do servidor que chegar. O cliente pode também receber mensagens de controlo a partir do servidor, que são representados por um código de bytes de dados enviados num urgente TCP. O cliente deve responder a essas mensagens imediatamente e suspender temporariamente o tratamento de outros dados que possam ter recebido.

Por definição o rlogin não permite o login remoto do usuário root, neste caso o usuário de utilizar outro usuário para ser o administrador do sistema, mas sempre terá poderes menores que o do root.
Host Confiáveis (Trusted Hosts)
Se um host confia em um outro host, então os usuários que tenham o mesmo username em ambos os hosts podem logar de um host em outro sem ter que digitar a senha utilizando algum programa de acesso remoto, por exemplo o rlogin.
Usuários Confiáveis (Trusted Users)

Os Usuários confiáveis são como os hosts confiáveis só que se referem a usuários que pretendem fazer um login. Se for configurado que um usuário de outro computador seja um usuário confiável com a sua conta, então ele pode logar na sua conta sem ter que digitar a senha.


Fontes: Projeto de RedesRedes de computadores - Universitat Oberta de Catalunya
 

TFTP

O TFTP, ou Trivial File Transfer Protocol, é um protocolo de alto nível simples para a transferência de servidores de dados usar para inicializar estações de trabalho sem disco, X-terminais e roteadores usando Protocolo de Dados do Usuário (UDP).Embora possa parecer semelhante, TFTP funciona de forma diferente do que FTP (File Transfer Protocol) e HTTP (HyperText Transfer Protocol). Embora TFTP também é baseado em tecnologia de FTP, TFTP é um protocolo completamente diferente. Entre as diferenças é que protocolo de transporte de TFTP usa UDP que não é seguro enquanto FTP usa Transmission Control Protocol (TCP) para proteger as informações.TFTP foi projetado principalmente para ler ou escrever arquivos usando um servidor remoto. No entanto, o TFTP é um protocolo multi-purpose que pode ser aproveitada para uma variedade de tarefas diferentes.
Os profissionais de TI e Sys Admins normalmente usam configuração TFTP para:

    
Transferência de arquivos
    
Remote-booting sem discos rígidos
    
Códigos Atualizando
    
Fazer o backup de configurações de rede
    
Fazer o backup de arquivos de configuração do roteador
    
Guardar imagens ISO


    
Iniciando PCs sem um discoDepois de uma estação de trabalho foi iniciado a partir de uma ROM da placa de rede, a instalação TFTP irá baixar um programa e, em seguida, executá-lo a partir de um servidor central.


Modos de protocolo de transferência de TFTPHá três modos de transferência atualmente suportados pelo protocolo TFTP:

    netascii
    octet
    mail

 
Modos adicionais também podem ser definidos por pares de hospedeiros cooperantes.Usando o protocolo TFTP, uma transferência será iniciado com um pedido para ler ou escrever um arquivo ao mesmo tempo, solicitando uma conexão.

IPv6

IPv6 é a versão mais atual do IP (Internet Protocol). Originalmente oficializada em 6 de junho de 2012, é fruto do esforço do IETF para criar a "nova geração do IP" (IPng: Internet Protocol next generation).

O principal motivo para a implantação do IPv6 na Internet é a necessidade de mais endereços, porque a disponibilidade de endereços livres IPv4 terminou.
Para entender as razões desse esgotamento, é importante considerar que a Internet não foi projetada para uso comercial. No início da década de 1980, ela poderia ser considerada uma rede predominantemente acadêmica, com poucas centenas de computadores interligados. Apesar disso, pode-se dizer que o espaço de endereçamento do IP versão 4, de 32 bits, não é pequeno: 4 294 967 296 de endereços.
Ainda assim, já no início de sua utilização comercial, em 1993, acreditava-se que o espaço de endereçamento da Internet poderia se esgotar num prazo de 2 ou 3 anos. Isso não ocorreu por conta da quantidade de endereços, mas sim por conta da política de alocação inicial, que não foi favorável a uma utilização racional desses recursos. Dividiu-se esse espaço em três classes principais (embora existam a rigor atualmente cinco classes), a saber:
  • Classe A: com 128 segmentos, que poderiam ser atribuídos individualmente às entidades que deles necessitassem, com aproximadamente 16 milhões de endereços cada. Essa classe era classificada como /8, pois os primeiros 8 bits representavam a rede, ou segmento, enquanto os demais poderiam ser usados livremente. Ela utilizava o espaço compreendido entre os endereços 00000000.*.*.* (0.*.*.*) e 01111111.*.*.* (127.*.*.*).
  • Classe B: com aproximadamente 16 mil segmentos de 64 mil endereços cada. Essa classe era classificada como /16. Ela utilizava o espaço compreendido entre os endereços 10000000.0000000.*.* (128.0.*.*) e 10111111.11111111.*.* (191.255.*.*).
  • Classe C: com aproximadamente 2 milhões de segmentos de 256 endereços cada. Essa classe era classificada como /24. Ela utilizava o espaço compreendido entre os endereços 11000000.0000000.00000000.* (192.0.0.*) e 11011111.11111111.11111111.* (213.255.255.*).
Os 32 blocos /8 restantes foram reservados para Multicast e para a IANA (Internet Assigned Numbers Authority).
O espaço reservado para a classe A atenderia a apenas 128 entidades, no entanto, ocupava metade dos endereços disponíveis. Não obstante, empresas e entidades como HP, GE, DEC, MIT, DISA, Apple, AT&T, IBM, USPS, dentre outras, receberam alocações desse tipo.

IPv6 e IPv4

O elevadíssimo número de endereços IPv6 permite que apenas este protocolo seja utilizado na internet. Acontece que essa mudança não pode acontecer de uma hora para outra. Isso porque roteadores, servidores, sistemas operacionais, entre outros precisam estar plenamente compatíveis com o IPv6, mas a internet ainda está baseada no IPv4. Isso significa que ambos os padrões vão coexistir por algum tempo.
Seria estupidez criar dois "mundos" distintos, um para o IPv4, outro para o IPv6. Portanto, é necessário não só que ambos coexistam, mas também se que comuniquem. Há alguns recursos criados especialmente para isso que podem ser implementados em equipamentos de rede:
- Dual-Stack (pilha dupla): faz com que um único dispositivo - um roteador, por exemplo - tenha suporte aos dois protocolos;
- Tunneling (tunelamento): cria condições para o tráfego de pacotes IPv6 em redes baseadas em IPv4 e vice-versa. Há várias técnicas disponíveis para isso, como Tunnel Broker e 6to4, por exemplo;
- Translation (tradução): faz com que dispositivos que suportam apenas IPv6 se comuniquem com o IPv4 e vice-versa. Também há várias técnicas para tradução, como Application Layer Gateway (ALG) e Transport Relay Translator (TRT).
Felizmente, praticamente todos os sistemas operacionais da atualidade são compatíveis com ambos os padrões. No caso do Windows, por exemplo, é possível contar com suporte pleno ao IPv6 desde a versão XP (com Service Pack 1); versões posteriores, como Windows 7 e Winodws 8, contam com suporte habilitado por padrão. Também há compatibilidade plena com o Mac OS X, Android e versões atuais de distribuições Linux, entre outros.

Fontes: http://pt.wikipedia.org/wiki/IPv6 ; http://www.infowester.com/ipv6.php

Protocolo Bootp

O Bootp (Bootstrap Protocol) é um protocolo obsoleto, cuja ideia central é poder fornecer  ao cliente TCP/IP  um endereço IP. Este processo era comumente usado por estações diskless (sem disco), na aquisição de endereço IP. Posteriormente este processo era comum para estações de trabalho com disco e geralmente com um sistema operacional, como o Windows 2000 Professional. Atualmente este processo é realizado pelo DHCP.

Seu processo acontece basicamente na seguinte forma:

1. A estação é ligada, e um broadcast Bootp é enviado para a rede.
2. O servidor Boot ouve a requisição e verifica o endereço MAC do cliente no arquivo Bootp.
3. Se a entrada adequada for encontrada ele responde para  a estação dizendo qual o endereço IP dela. Geralmente esse processo acontece com o uso do TFTP.

O protocolo HTTP

O protocolo HTTP define como os navegadores Web (clientes) requisitam páginas de servidores Web. Quando um usuário requisita um objeto, por exemplo clicando em uma referência de uma
página Web, o navegador envia mensagens de requisição HTTP para o servidor Web. O servidor
recebe a requisição e responde com uma mensagem de resposta HTTP que contém os objetos solicitados.
Há duas versões do protocolo HTTP implementadas pelos navegadores, o HTTP/1.0
e o HTTP/1.1 e ambas as versões usam como protocolo de transporte o TCP. Para requisitar uma
página Web, o cliente HTTP primeiramente abre uma conexão TCP com o servidor. Uma vez aberta a conexão TCP o cliente e o servidor podem trocar mensagens através das suas portas de interface. A porta 80 é o padrão para a aplicação WWW.
O HTTP/1.0 usa o que se chama conexões não persistentes, onde após a requisição de cada objeto, o servidor responde e encerra a conexão TCP. Por exemplo, para uma página Web composta de um arquivo base HTML e mais 5 imagens JPEG, após a recepção de cada arquivo, a conexão TCP é encerrada e deverá ser reaberta para cada novo objeto requisitado (isto é feito automaticamente pelo agente usuário).
O HTTP/1.1 permitiu melhorar o desempenho dos navegadores Web através do uso de conexões
persistentes, onde o servidor mantém a conexão TCP aberta após o envio da resposta. Desta forma, as requisições e as respostas subsequentes entre o mesmo par cliente/servidor podem utilizar a mesma conexão já aberta, eliminando o tempo de abertura de conexão. Caso a conexão deixe de ser utilizada por um certo tempo o servidor se encarrega de liberar a conexão.

Formato das mensagens HTTP

O protocolo HTTP é baseado no paradigma pedido/resposta , havendo dois tipos de mensagens:
mensagens de requisição e mensagens de resposta.
A mensagens de requisição (request) tem a seguinte estrutura:
GET /diretorio/pagina.html
Host: www.escolatecnica.edu.br
Connection: close
User-agent: Mozilla/4.0
Accept-language:pt
(extra carriage return, line feed)
A primeira linha apresenta o comando básico para requisição de uma página Web, seguido pela
parte do URL que indica o caminho e o nome do objeto que se deseja (GET /diretorio/pagina.html). As linhas seguintes, chamadas de cabeçalho, são opcionais. A segunda linha (Host: www.escolatecnica.edu.br) indica o nome computador onde reside o objeto; a terceira linha (Connection: close) informa para fechar a conexão após envio daresposta; a quarta linha (User-agent: Mozilla/4.0) indica o tipo do agente usuário utilizado e a linha (Accept-language:pt) indica que o português é a língua preferencial.
Do ponto de vista do usuário o mesmo só “enxerga” o endereço URL que digitou e o navegador monta e envia as mensagens HTTP de forma transparente.
A mensagens de resposta (response) tem a seguinte estrutura:
HTTP/1.1 200 OK
Connection: close
Date: Thu, 06 Aug 1998 12:00:15 GMT
Server: Apache/1.3.0 (Unix)
Last-Modified: Mon, 22 Jun 1998 09:23:24 GMT
Content-Length: 6821
Content-Type: text/html
(data data data data data...)
A resposta tem três partes, uma primeira linha informando o estado (status) da solicitação, seis
linhas de cabeçalho e os dados que compõe objeto solicitado. A primeira linha indica a versão do
protocolo, o código e estado da mensagem (HTTP/1.1 200 OK). A segunda linha (Connection:
close) indica que a conexão será encerrada; a terceira linha (Date: Thu, 06 Aug 199812:00:15 GMT)
informa a data da última modificação no objeto solicitado, utilizada por servidores proxy; a quarta linha (Server: Apache/1.3.0 (Unix)) indica o tipo do servidor, a quinta linha (Content-Length: 6821)
indica o tamanho do objeto em bytes e a última linha (Content-Type: text/html) informa o conteúdo da mensagem. Os dados vem em seguida.

Os códigos de estado (status) mais comuns são:
200 OK: Requisição OK e o objeto solicitado vai em anexo.
301 Moved Permanently: O objeto solicitado foi movido para outra URL.
400 Bad Request: Requisição não entendida pelo servidor.
404 Not Found: O objeto requisitado não existe no servidor.
505 HTTP Version Not Supported: Esta versão do protocolo HTTP não é suportada pelo servidor.

Fonte: http://www.das.ufsc.br/~montez/Disciplinas/materialRedes/ApostilaCantu.pdf

Protocolo SMRP

O Protocolo de roteamento simples (SMRP) é um protocolo da camada de transporte, desenvolvido para o roteamento de fluxos de dados de mídia sobre redes AppleTalk. É compatível com a tecnologia QuickTime Conferencing (QTC) da Apple Computer. O protocolo SMRP proporciona, independente de conexão, uma entrega com o melhor esforço de datagramas multicast e utiliza os serviços dos protocolos SMRP facilita a transmissão de dados a partir de uma única origem para vários destinos.
Ao criar o protocolo SMRP, a Apple pegou emprestadas várias estratégias e conceitos de outros protocolos e tecnologias. Dessa maneira, muitos termos foram adaptados para significados específicos no ambiente SMRP da Apple.

[Retirado da página 448 do livro Internetworking: Manual de Tecnologias - Tradução da 2ª edição - Editora Campus]

Protocolo EIGRP

O EIGRP (Enhanced Interior Gateway Routing Protocol) é um protocolo de roteamento por vetor da distância proprietário da Cisco.
Suas características são:

- Algoritmo – atualização por difusão (Dual)
- Principais características:
· Protocolo avançado de routing por vetor da distância.
· Usa balanceamento de carga com custos (métricas) desiguais.
· Usa características combinadas de vetor da distância e estado dos links.
· Usa o DUAL (Diffusing Update Algorithm - Algoritmo de Actualização Difusa) para calcular o caminho mais curto.
· Routing Interno (utilizados para comunicação entre routers de um mesmo sistema independente) e Dinâmico (ajusta automaticamente para manter informação e encaminhamento para a topologia de tráfego ou de mudanças).

- Vantagens:
· Compatibilidade e interoperação directa com os routers IGRP;
· Redistribuição automática permite que os routers IGRP sejam incorporados para EIGRP e vice-versa;
· Combina protocolos de routing baseados em Distance-Vector Routing Protocols com os mais recentes protocolos baseados no algoritmo de Estado de Enlace (Link-State);
· Proporciona economia de tráfego por limitar a troca de informações de routing àquelas que foram alteradas;
· Suporta VLSM (Variable Length Subnet Mask);
· É menos complicado de configurar em relação ao seu antecessor (IGRP).

- Desvantagens:
· é de propriedade da Cisco Systems, nao é amplamente disponível fora dos equipamentos deste fabricante.
· Forma de Atualização da Tabela:
· As atualizações de routing são enviadas por multicast usando 224.0.0.10 e são disparadas por alterações da topologia.

Point-to-Point Tunneling Protocol (PPTP)

O Protocolo de Tunelamento Ponto-a-Ponto (PPTP), desenvolvido por um forum de empresas (Microsoft, Ascend Communications, 3Com, ECI Telematics e US Robotics), foi um dos primeiros protocolos de VPN a surgirem.

Ele tem sido uma solução muito utilizada em VPNs discadas desde que a Microsoft incluiu suporte para Servidores Windows NT 4.0 e ofereceu um cliente PPTP num service pack para Windows 95, o que praticamente assegura seu uso continuado nos próximos anos. O protocolo mais difundido para acesso remoto na Internet é o PPP (Point-to-Point Protocol), o qual originou o PPTP. O PPTP agrega a funcionalidade do PPP para que o acesso remoto seja tunelado através da Internet para um site de destino.

O PPTP encapsula pacotes PPP usando uma versão modificada do protocolo de encapsulamento genérico de roteamento (GRE), que dá ao PPTP a flexibilidade de lidar com outros tipos de protocolos diferentes do IP, como o IPX e o NetBEUI.

Devido a sua dependência do PPP, o PPTP se baseia nos mecanismos de autenticação do PPP, os protocolos PAP e CHAP. Entretanto, este protocolo apresenta algumas limitações, tais como não prover uma forte criptografia para proteção de dados e não suportar qualquer método de autenticação de usuário através de token.


Conexão

Numa conexão PPTP, existem três elementos envolvidos: o Cliente PPTP, o Servidor de Acesso a Rede (NAS - Network Acess Server) e o Servidor PPTP. O cliente se conecta a um NAS, através de um PoP em um ISP local. Uma vez conectado, o cliente pode enviar e receber pacotes via Internet. O NAS utiliza TCP/IP para todo o tráfego de Internet.

Depois do cliente ter feito a conexão PPP inicial com o ISP, uma segunda chamada dial-up é realizada sobre a conexão PPP existente. Os dados desta segunda conexão são enviados na forma de datagramas IP que contém pacotes PPP encapsulados. É esta segunda conexão que cria o túnel com o servidor PPTP nas imediações da LAN corporativa privada.

O esquema desta conexão pode ser visto na imagem abaixo:

Protocolo OSPF

O OSPF é um protocolo de roteamento feito para redes com protocolo IP; foi desenvolvido pelo grupo de trabalho de IGPs (Interior Gateway Protocol) da IETF (Internet Engineering Task Force). Este grupo de trabalho foi criado em 1988, para projetar um IGP baseado no algoritmo Shortest Path First (SPF, menor rota primeiro), voltado para uso na Internet. Similar ao Interior Gateway Routing Protocol (IGRP), protocolo proprietário da Cisco, o OSPF foi criado, pois, na metade dos anos 80, o Routing Information Protocol (RIP) mostrou-se cada vez menos capaz de atender redes largas e heterogêneas.

O OSPF resultou de diversas pesquisas: a de Bolt, Berenek e Newman (BBN), que desenvolveram o algoritmo SPF em 1978, para a ARPANET (o marco inicial das redes de comutação de pacotes, criada no início dos aos 70 por BBN); a de Radia Perlman, a respeito da tolerância a erros de transmissão no roteamento de informação (de 1988); e a de BBN sobre roteamento local (1986), uma versão inicial do protocolo de roteamento OSI entre camadas intermediárias.

Há duas características principais no OSPF. A primeira, é um protocolo aberto, o que significa que suas especificações são de domínio público; suas especificações podem ser encontradas na RFC (Request For Comments) número 1247. A segunda, é um protocolo baseado no algoritmo SPF, também chamado de algoritmo de Dijkstra, nome de seu criador.

OSPF é um protocolo de roteamento do tipo link-state, que envia avisos sobre o estado da conexão (link-state advertisements, LSA) a todos os outros roteadores em uma mesma área hierárquica. Informações sobre interfaces ligadas, métrica usada e outras variáveis são incluídas nas LSAs. Ao mesmo tempo em que o roteador OSPF acumula informações sobre o estado do link, ele usa o algoritmo SPF para calcular a menor rota para cada nó.

Diferenças RIP - BGP - OSPF

Aqui está um pequeno resumo que mostra de forma não aprofundada algumas das principais diferenças entre os protocolos de roteamento RIP (Routing Information Protocol), OSPF (Open Shortest Path First) e BGP (Border Gateway Protocol):

RIP - Só conhece o próximo passo na rede, limita saltos entre hosts à 15.

OSPF - Cada roteador só conhece sua própria AS*. Os roteadores de borda conhecem a sua própria rede mais o broadcast.

BGP - Reconhce até 6 níveis de profundidade, e prevê os próximos passos dele e dos seus vizinhos.


*AS é a sigla de autonomous system, também conhecido como um domínio de roteamento É um conjunto de roteadores sob a mesma administração. Por exemplo a rede interna de uma empresa e a rede de um provedor de Internet.

RIP (Routing Information Protocol)

O RIP foi desenvolvido pela Xerox Corporation no início dos anos 80 para ser utilizado nas redes Xerox Network Systems (XNS), e, hoje em dia, é o protocolo intradominio mais comum, sendo suportado por praticamente todos os fabricantes de roteadores e disponível na grande maioria das versões mais atuais do sistema operacional UNIX.

Um de seus beneficios é a facilidade de configuração. Além disso, seu algoritmo não necessita grande poder de computação e capacidade de memória em roteadores ou computadores.

O protocolo RIP funciona bem em pequenos ambientes, entretanto apresenta sérias limitações quando utilizado em redes grandes. Ele limita o numero de saltos (hops) entre hosts a 15 (16 é considerado infinito). Outra deficiência do RIP é a lenta convergência, ou seja, leva relativamente muito tempo para que alterações na rede fiquem sendo conhecidas por todos os roteadores. Esta lentidão pode causar loops de roteamento (por exemplo um mesmo pacote fica passando entre os roteadores A, B e C até acabar o TTL), por causa da falta de sincronia nas informacões dos roteadores.

O protocolo RIP é também um grande consumidor de largura de banda, pois, a cada 30 segundos, ele faz um broadcast de sua tabela de roteamento, com informações sobre as redes e sub-redes que alcanca.

Por fim, o RIP determina o melhor caminho entre dois pontos, levando em conta somente o numero de saltos (hops) entre eles. Esta técnica ignora outros fatores que fazem diferença nas linhas entre os dois pontos, como: velocidade, utilização das mesmas (tráfego) e toda as outras métricas que podem fazer diferenca na hora de se determinar o melhor caminho entre dois pontos.

Protocolo de gateway de borda (BGP)

O roteamento envolve duas atividades básicas: a determinação dos melhores caminhos de roteamento e o transporte de grupos de informação (tipicamente chamados de pacotes) em uma internetwork. O transporte de pacotes pela internetwork é relativamente direto. Por outro lado, a determinação do caminho pode se tornar muito complexa. Um protocolo destinado à tarefa de determinação do caminho nas redes atuais é o Protocolo de Gateway de Borda (BGP).
O Protocolo BGP executa o roteamento entre domínios em redes TCP/IP. O BGP é um protocolo de gateway externo (EGP), siginificando que executa o roteamento entre vários domínios ou sistemas autônomos e faz o intercâmbio com outros sistemas de BGP de informações sobre roteamento e sobre a capacidade de determinados destinos.
O protocolo BGP foi desenvolvido para substituir seu antecessor, o agora obsoleto Protocolo de Gateway externo (EGP), como padrão de protocolo de roteamento de gateway externo utilizado na Internet global. O BGP soluciona, de maneira mais eficaz, sérios problemas com o EGP e asescalas para um crescimento mais eficiente na Internet.

Extraído da página 373 do livro INTERNET WORKING MANUAL DE TECNOLOGIAS - Tradução da Segunda Edição

Protocolo de gerenciamento SNMP

Definição

O protocolo SNMP (Simple Network Management Protocol) tem como premissa à flexibilidade e a facilidade de implementação, também em relação aos produtos futuros.
O SNMP é um protocolo de gerência definido a nível de aplicação, é utilizado para obter informações de servidores SNMP - agentes espalhados em uma rede baseada na pilha de
protocolos TCP/IP. Os dados são obtidos através de requisições de um gerente a um ou mais
agentes utilizando os serviços do protocolo de transporte UDP - User Datagram Protocol para
enviar e receber suas mensagens através da rede. Dentre as variáveis que podem ser requisitadas utilizaremos as MIBs podendo fazer parte da MIB II, da experimental ou da privada.
O gerenciamento da rede através do SNMP permite o acompanhamento simples e fácil
do estado, em tempo real, da rede, podendo ser utilizado para gerenciar diferentes tipos de sistemas.
Este gerenciamento é conhecido como modelo de gerenciamento SNMP, ou
simplesmente, gerenciamento SNMP. Portanto, o SNMP é o nome do protocolo no qual as informações são trocadas entre a MIB e a aplicação de gerência como também é o nome deste
modelo de gerência.
Os comandos são limitados e baseados no mecanismo de busca/alteração. No mecanismo de busca/alteração estão disponíveis as operações de alteração de um valor de um objeto, de obtenção dos valores de um objeto e suas variações.
A utilização de um número limitado de operações, baseadas em um mecanismo de
busca/alteração, torna o protocolo de fácil implementação, simples, estável e flexível. Como
conseqüência reduz o tráfego de mensagens de gerenciamento através da rede e permite a
introdução de novas características.
O funcionamento do SNMP é baseado em dois dispositivos o agente e o gerente. Cada
máquina gerenciada é vista como um conjunto de variáveis que representam informações referentes ao seu estado atual, estas informações ficam disponíveis ao gerente através de consulta e podem ser alteradas por ele. Cada máquina gerenciada pelo SNMP deve possuir um agente e uma base de informações MIB.

O Agente

É um processo executado na máquina gerenciada, responsável pela manutenção das
informações de gerência da máquina. As funções principais de um agente são:
* Atender as requisições enviadas pelo gerente;
*Enviar automaticamente informações de gerenciamento ao gerente, quando previamente
programado.

O agente utiliza as chamadas de sistema para realizar o monitoramento das informações
da máquina e utiliza as RPC (Remote Procedure Call) para o controle das informações da máquina.


O Gerente

É um programa executado em uma estação servidora que permite a obtenção e o envio
de informações de gerenciamento junto aos dispositivos gerenciados mediante a comunicação com um ou mais agentes.


Esta figura mostra como funciona o relacionamento de um gerente com o objeto gerenciado


O gerente fica responsável pelo monitoramento, relatórios e decisões na ocorrência de problemas enquanto que o agente fica responsável pelas funções de envio e alteração das informações e também pela notificação da ocorrência de eventos específicos ao gerente.

Esta figura mostra o relacionamento entre gerente e agente baseado no modelo TCP/IP

NCP

NCP é sigla de network control protocol, primeiro protocolo servidor a servidor da ARPANET (é a rede de compartilhamento de computadores da ARPA - Advanced Research Projects Agency, que mais tarde evoluiu para a Internet). Ele foi criado em dezembro de 1971, pelo Network Working Group (NWG).

O NCP é composto por uma família de protocolos de rede. Ele estabelece e configura os diferentes protocolos na camada de rede que serão utilizados pelo PPP.
Links ponto-a-ponto tendem a agravar alguns problemas comuns a diversas famílias de protocolos de rede. Por exemplo, atribuição e gerenciamento de endereços IP é especialmente difícil sobre circuitos comutados com links ponto-a-ponto. Estes problemas são tratados pela família de Network Control Protocols( NCPs ), onde é necessário um gerenciamento específico para cada problema.

O Protocolo PPP

O protocolo Ponto-a-Ponto (PPP (Point-to-Point Protocol)) é usado no nível da camada de enlace de dados, tendo em vista que toda a internet é baseada nele para poder fazer os equipamentos se comunicarem. E aqui não falo apenas da comunicação entre dois roteadores no meio do caminho entre seu computador e o de alguém que está no Japão. Ele trabalha também na conexão que há entre sua casa e o seu provedor de acesso à internet.
Basicamente, ele tem recursos que permitem a detecção de erros de transmissão; um subprotocolo chamado LCP (Link Control Protocol - Protocolo de Controle de Enlace) que é usado para ativar e desativar linhas de transmissão, testá-las e negociar opções de funcionamento; e um subprotocolo chamado NCP (Network Control Protocol - Protocolo de Controle de Rede) que é usado para fazer com que a camada de enlace de dados "converse" com a camada de rede.
Quanto ao NCP, existem vários tipos dele, cada um sendo usado para trabalhar em conjunto com um determinado protocolo correspondente na camada de rede.



Noção de ligação ponto a ponto
Pela linha telefônica clássica, dois computadores, no máximo, podem comunicar por modem, assim como não é possível ligar simultaneamente para duas pessoas pela mesma linha telefônica. Diz-se então que se tem uma ligação ponto a ponto, quer dizer uma ligação entre duas máquinas reduzida à sua mais simples expressão: não é preciso partilhar a linha entre várias máquinas, cada uma fala e responde por sua vez.

Assim, foram criados numerosos protocolos de modem. Os primeiros dentre eles permitiam uma simples transmissão de dados entre duas máquinas, seguidamente alguns foram dotados de um controlo de erro, e com o aumento da Internet, foram dotados da capacidade de dirigir máquinas. Desta maneira, existem doravante dois grandes protocolos de modem:
¹SLIP: um protocolo antigo, fraco em controlos
²PPP: o protocolo mais utilizado para os acessos à Internet por modem, autoriza um endereçamento das máquinas

Endereço MAC

O endereço MAC (do inglês Media Access Control) é o endereço físico de 48 bits da estação, ou, mais especificamente, da interface de rede. O protocolo é responsável pelo controle de acesso de cada estação à rede Ethernet. Este endereço é o utilizado na camada 2 (Enlace) do Modelo OSI.

Representa-se um endereço MAC escrevendo, exatamente, 12 dígitos hexadecimais agrupados dois a dois – os grupos são separados por dois pontos.
Exemplo: 00:00:5E:00:01:03

Os três primeiros octetos são destinados à identificação do fabricante, os 3 posteriores são fornecidos pelo fabricante. É um endereço único, i.e., não existem, em todo o mundo, duas placas com o mesmo endereço.

Para descobrir o endereço MAC no Windows digite no prompt getmac ou ipconfig/all e no Linux digite no terminal ifconfig.

ICMP

O protocolo de mensagem de controle de Internet (ICMP) é um protocolo de internet da camada de rede, que fornece pacotes de mensagens para retornar à origem erros e outras informações relativas ao processamento de pacotes IP. O ICMP està documentado na RFC 792.

Mensagens de ICMP

OS ICMP's geram vários tipos de mensagens úteis, inclusive impossibilidade de alcançar o destino, solicitação e resposta de eco, redirecionamento, tempo esgotado, e aviso e solicitação ao roteador. Se uma mensagem ICMP não puder ser entregue, uma segunda não será gerada, para evitar o fluxo sem fim de mensagens ICMP.

Quando um roteador envia uma mensagem ICMP referenta à impossibilidade de alcançar o destino, isso significa que o roteador não é capaz de enviar o pacote ao seu destino final. O roteador então descarta o pacote original. Existem duas razões para que um destino não possa ser alcançado. Na maioria das vezes, o host de origem especificou um endereço inexistente. Com menos frequência, o roteador não tem uma rota para o destino.

As mensagem de impossibilidade de alcançar o destino incluem quatro tipos básicos: rede fora de alcance, host fora de alcance, protocolo fora de alcance e porta fora de alcance. As mensagens de rede de alcance costuman significar que uma falha ocorreu no roteamento ou no endereçamento do pacote. As mensagens de host fora de alcance normalmente indicam uma falha de entrega, como uma máscara de sub-rede errada. As mensagens de protocolo fora de alcance geralmente significam que o destino não suporta o protocolo da camada superior, especificado no pacote. As mensagens de porta fora de alcance implicam que a porta ou socket TCP não está disponível.

Uma mensagem ICMP de solicitação de eco, gerada pelo comando ping, é enviada por qualquer host para testar a possibilidade de alcançar um nó em uma internetwork. A mensaagem ICMP de resposta de eco indica que o nó poderá ser alcançado com sucesso.

Uma mensagem de redirecionamento é enviada pelo roteador ao host de origem para estimular um roteamento mais eficiente. O roteador ainda encaminha o pacote original ao destino. O redirecionamento ICMP permite que as tabelas de roteamento do host, continuem pequenas, por ser necessário conhecer o endereço de apenas um roteador, inclusive quando esse roteador não oferece o melhor caminho. Após receber uma mensagem ICMP de redirecionamento, alguns dispositivos até poderão continuar utilizando uma rota menos eficiente.

Uma mensagem ICMP de tempo esgotado é enviado pelo roteador, se campo Tempo de vida impede que os pacotes circulem pela internet-work continuamente, caso a internetwork contenha um roteamento em loop. O roteador então descarta o pacote original.

Conteúdo extraído das página 334 e 335 do livro INTERNET WORKING TECHONOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

Protocolo POP3


O protocolo de agência de correio versão 3 (POP3) é um protocolo padrão para recuperação de email. O protocolo POP3 controla a conexão entre um cliente de email POP3 e um servidor onde o email fica armazenado. O serviço POP3 usa o protocolo POP3 para recuperar emails de um servidor de email para um cliente de email POP3.

O protocolo POP3 tem três estados de processos para tratar a conexão entre o servidor de email e o cliente de email POP3: o estado de autenticação, o estado de transação e o estado de atualização.

Durante o estado de autenticação, o cliente de email POP3 que estiver conectado ao servidor deve ser autenticado antes que os usuários possam recuperar seus emails. Se o nome de usuário e senha que são fornecidos pelo cliente de email corresponder àqueles no servidor, o usuário será autenticado e continuará com o estado de transação. Caso contrário, o usuário receberá uma mensagem de erro e não terá permissão para conectar para recuperar os emails.

Para evitar qualquer dano ao armazenamento de email depois que o cliente é autenticado, o serviço POP3 bloqueia a caixa de correio do usuário. Os novos emails entregues na caixa de correio depois que o usuário foi autenticado (e que a caixa de correio foi bloqueada) não estarão disponíveis para download até que a conexão tenha sido encerrada. Além disso, somente um cliente pode conectar-se a uma caixa de correio de cada vez; as solicitações de conexão adicionais são rejeitadas.

Durante o estado de transação, o cliente envia comandos POP3 e o servidor recebe e responde a eles de acordo com o protocolo POP3. Qualquer solicitação do cliente recebida pelo servidor que não esteja de conformidade com o protocolo POP3, é ignorada e uma mensagem de erro é enviada de volta.

O estado de atualização encerra a conexão entre o cliente e o servidor. É o último comando transmitido pelo cliente.

Após o encerramento da conexão, o armazenamento de email é atualizado para refletir as alterações feitas enquanto o usuário estava conectado ao servidor de email. Por exemplo, depois que o usuário recupera seus emails com êxito, os emails recuperados são marcados para exclusão e são excluídos do armazenamento de email, a menos que o cliente de email do usuário esteja configurado para fazer o contrário.