Projetar e planejar o recurso Serviços de Proxy

Esta seção contém exemplos de como você pode projetar vários aplicativos de Serviços de Proxy do BorderManager. Esta seção contém as seguintes subseções:


Aceleração do cliente Web, do servidor Web e da rede

Esta seção descreve as três maneiras principais de usar o cache proxy:

Esta seção também apresenta vários exemplos de como você pode usar o armazenamento no cache. Nesses exemplos, a Empresa Acme está implementando várias soluções de cache proxy para aprimorar sua rede corporativa: aceleração do cliente, aceleração do servidor e aceleração da rede. Para cada tipo de armazenamento no cache, são fornecidos exemplos para a utilização na intranet e na Internet.


Aceleração do cliente Web (cache proxy padrão)

Na aceleração do cliente Web, o servidor proxy fica localizado entre os clientes e a Internet, como mostra a Figura 5-1. Esse servidor proxy intercepta pedidos de páginas Web feitos por clientes e fornece as páginas solicitadas, se armazenadas no cache, para o cliente com a velocidade da LAN. Isso elimina o atraso que ocorre quando o site Web de origem é acessado e minimiza o tráfego entre a rede corporativa e a Internet.

O servidor proxy faz pedidos aos servidores Web para os clientes da intranet, usando protocolos apropriados, como HTTP, FTP e Gopher. O servidor proxy armazena no cache URLs, páginas em HTML e arquivos FTP para acelerar pedidos subseqüentes feitos aos mesmos objetos.

Figura 5-1.
Configuração do acelerador do cliente


Identificar os sites no cache

Ao planejar a implementação de servidores proxy e armazenamento no cache de memória em sua rede, você precisa identificar os sites que se beneficiariam com o armazenamento no cache de memória. Ao identificar sites de aceleração do cliente, procure o seguinte:


Exemplo de aceleração do cliente na Internet

Neste exemplo, a Empresa Acme deseja conceder aos funcionários o acesso à variedade de informações disponíveis na Internet. No entanto, a empresa também deseja restringir o acesso somente aos sites Web da Internet que contribuem para o local de trabalho. Isso resulta em dois requisitos:

Para atender a esses requisitos, a Empresa Acme implementou servidores proxy como aceleradores de cliente em todos os seus recursos, usando regras de listas de controle de acesso definidas no NDS pelo administrador da rede. Os browsers Web de todos os funcionários estão configurados para operar através de servidores proxy. Os servidores do cache do proxy aceleram consideravelmente o carregamento de páginas Web e permitem controlar o acesso à Internet. Essa configuração é mostrada na Figura 5-2.

Figura 5-2.
Exemplo de configuração da aceleração do cliente na Internet


Exemplo de aceleração do cliente na Intranet

Vários grupos da Empresa Acme publicaram diversas informações em sites Web internos. Algumas das informações publicadas são públicas na empresa, ou seja, podem ser acessadas por todos os funcionários. Outras informações são confidenciais, ou seja, podem ser acessadas somente por funcionários que precisem delas. Por exemplo, algumas informações avançadas de desenvolvimento estão disponíveis somente para determinados grupos de engenharia ou gerenciamento. As informações publicadas estão espalhadas por diversos sites internos na Web.

A Empresa Acme possui dois requisitos para o acesso de funcionários a sites Web da intranet:

Em virtude da flexibilidade do recurso Serviços de Proxy, os mesmos servidores proxy usados para restringir o acesso à Web na Internet no primeiro exemplo "Aceleração do cliente Web (cache proxy padrão)" também podem ser usados para restringir o acesso a sites Web na intranet. (Ver Figura 5-2.) Além de armazenar restrições de acesso à Internet no NDS, o administrador armazena regras de acesso da Web à intranet. Esse método fornece ao administrador um controle centralizado e global do acesso à Internet e à intranet de um único ponto, simplificando bastante o gerenciamento do acesso.


Aceleração do servidor Web (aceleração HTTP)

Com a aceleração HTTP ou do servidor Web, o servidor proxy funciona como um front-end para um ou mais servidores Web e armazena no cache todas as informações que pertencem ao servidor Web, como mostra a Figura 5-3. Quando um cliente solicita informações de um servidor Web, o pedido é desviado para o servidor proxy. Esse servidor fornece rapidamente ao cliente as páginas armazenadas no cache. Esse método acelera o acesso e afasta a carga de pedidos dos servidores Web de publicação, permitindo-lhes tratar da publicação e do conteúdo dinâmico de modo mais eficiente.

O recurso Serviços de Proxy pode fornecer aceleração a todos os servidores Web conhecidos em qualquer combinação.

Figura 5-3.
Configuração do acelerador do servidor Web


Identificar os sites no cache

Ao planejar a implementação de servidores proxy e armazenamento no cache de memória em sua rede, você precisa identificar os sites que se beneficiariam com o armazenamento no cache de memória. Ao identificar sites de aceleração do servidor, procure o seguinte:


Exemplo de aceleração do servidor na Internet

O site público da Empresa Acme na Web, http://www.AcmeCo.com, recebe milhões de acessos diariamente de um público mundial. Esse site era atendido por vários servidores Web. Recentemente, a empresa configurou vários servidores proxy para funcionar como front-ends para os servidores Web, como mostra a Figura 5-4. Esse método oferece três vantagens importantes:

Figura 5-4.
Exemplo de Configuração do acelerador do servidor na Internet


Exemplo de aceleração do servidor na Intranet

Vários grupos da Acme publicam informações em servidores Web internos da intranet da empresa. Esses servidores estão espalhados pelo mundo inteiro e são acessados por funcionários que também estão localizados em todas as partes do mundo. Ao contrário das informações disponíveis no site Web público da Acme na Internet, grande parte das informações publicadas internamente são confidenciais e o acesso a elas precisa ser restrito. Para complicar essa situação, as informações estão em diversas plataformas de servidor Web, inclusive NetWare, UNIX Apache*, Netscape e NCSA*, tornando o gerenciamento de acesso complexo e difícil.

A Empresa Acme resolveu o problema criando front-ends a seus servidores Web na intranet com servidores proxy em cada site. Por exemplo, na sede, a empresa instalou dez servidores proxy como front-ends para os cinqüenta servidores Web da intranet nesse site, como mostra a Figura 5-5. O controle de acesso foi transferido dos servidores Web para os servidores proxy. Esse método proporciona as seguintes vantagens:

Figura 5-5.
Exemplo de configuração do acelerador do servidor na Intranet


Aceleração da rede (armazenamento hierárquico ICP no cache)

Com a aceleração da rede, ou do cache ICP hierárquico, vários servidores proxy são configurados em uma topologia hierárquica, ou de malha, como mostra a Figura 5-6. Os servidores proxy estão conectados em uma relação pai, filho ou peer. Quando ocorre um erro, o proxy entra em contato com os outros servidores na rede em malha para encontrar as informações solicitadas que estão armazenadas no cache. O cache mais próximo que tiver as informações solicitadas irá reencaminhá-las para o servidor proxy solicitante, o qual, por sua vez, irá reencaminhá-las ao cliente solicitante.

O armazenamento hierárquico ICP no cache reduz a carga de tráfego da WAN e aumenta consideravelmente a largura de banda. Além disso, como as informações solicitadas são enviadas do servidor proxy mais próximo, os atrasos da rede são minimizados. Isso reduz o tempo de espera e aumenta a produtividade dos usuários.

Figura 5-6.
Configuração do acelerador da rede


Identificar os sites no cache

Ao planejar a implementação de servidores proxy e armazenamento no cache de memória em sua rede, você precisa identificar os sites que se beneficiariam com o armazenamento no cache de memória. Ao identificar os sites de aceleração da rede, procure o seguinte:


Exemplo de aceleração da rede na Intranet

A Empresa Acme é uma grande organização com instalações no mundo inteiro. Como resultado, os funcionários e servidores Web estão bastante espalhados. Os funcionários precisam ter acesso fácil e rápido às informações internas da Web, independentemente da sua localização ou da localização do servidor Web de destino. Além disso, devido ao alto custo do equipamento da rede e do custo ainda maior envolvido em seu gerenciamento, a empresa precisa obter a maior utilização possível dos seus recursos.

A Empresa Acme implementou uma malha hierárquica de servidores proxy, como mostra a Figura 5-7. O cache hierárquico reduz a carga em servidores Web e diminui o tráfego da WAN ao permitir que os clientes acessem informações da Web da intranet armazenadas no cache no servidor proxy mais próximo.

Por exemplo, um funcionário que trabalhe em Los Angeles pode estar em Paris e precisar acessar informações de um site Web em Los Angeles. Embora ninguém no escritório de Paris tenha acessado recentemente essas informações, um funcionário no escritório de Londres as acessou e elas estão armazenadas no cache no servidor proxy em Londres. Em vez de rotear o pedido do cliente até Los Angeles, o servidor proxy em Paris pode acessar as informações do servidor proxy em Londres. Isso reduz o atraso na rede e elimina o tráfego transatlântico (mais lento e mais caro) na rede.

Figura 5-7.
Exemplo de Configuração do acelerador da rede na Intranet


Aceleração da rede na Internet

Uma malha hierárquica de servidores proxy pode ser usada não apenas para melhorar a performance da intranet, mas também em uma escala maior para melhorar a performance da Internet. O NLANR (National Laboratory for Applied Network Research) está trabalhando nesse sentido.

De acordo com um recente relatório do NLANR, o crescimento explosivo ininterrupto da Internet precisa de uma solução planejada para o problema da disseminação de informações em larga escala. Embora as crescentes larguras de banda de rede ajudem, o rápido crescimento no número de usuários continuará superando a capacidade da rede e dos servidores, porque eles tentam acessar pools de dados bastante populares em toda a rede. A necessidade de uma utilização mais eficiente das larguras de bandas e dos servidores transcende qualquer protocolo como FTP, HTTP ou qualquer outro que venha a se tornar popular.

O modelo básico cliente-servidor da Internet (em que os clientes se conectam diretamente com os servidores) é um desperdício de recursos, principalmente para informações extremamente populares. Um estudo, feito em 1993, do tráfego FTP no backbone do NSFNET concluiu que diversos caches bem posicionados poderiam reduzir esse tráfego em 44%. Existe um número infinito de exemplos em que os sistemas de servidores não conseguiram lidar com a demanda de informações populares exercida sobre eles.


Exemplos de aplicativos de proxy

Esta seção contém exemplos de aplicativos de proxy FTP, proxy inverso FTP, proxy de correio (SMTP), proxy de grupos de notícias (NNTP), DNS, SOCKS e genérico.

Figura 5-8 mostra um exemplo de aceleração FTP que utiliza um servidor proxy do BorderManager no firewall. O cliente do browser pode acessar o servidor FTP através do servidor proxy.

Figura 5-8.
Aceleração FTP

Figura 5-9 mostra um exemplo de aceleração FTP reversa. Nesse exemplo, o cliente acessa os dois servidores FTP na intranet através do servidor proxy BorderManager no firewall.

Figura 5-9.
Aceleração inversa FTP

Figura 5-10 e Figura 5-11 mostra dois exemplos de como usar o proxy de notícias do BorderManager para se conectar a um servidor de notícias externo. Figura 5-10 mostra um exemplo de uma pequena empresa sem servidores de notícias privados. O servidor proxy BorderManager funciona como um servidor de notícias, tratando de todos os pedidos de browser da intranet e das respostas correspondentes dos servidores de grupos de notícias públicos na Internet. A Figura 5-11 mostra uma empresa maior com seu próprio servidor de notícias interno. Este usa o servidor proxy BorderManager para trocar artigos com servidores de grupos de notícias externos ou públicos.

Figura 5-10.
Proxy de grupos de notícias sem um servidor de grupos de notícias interno

Figura 5-11.
Proxy de grupos de notícias com um servidor de grupos de notícias interno

Figura 5-12 e Figura 5-13 mostram dois exemplos de como usar o proxy de correio do BorderManager para se conectar a um servidor de correio externo. Figura 5-12 mostra um exemplo de uma pequena empresa sem um servidor de correio interno. O servidor proxy BorderManager funciona como um servidor de correio, tratando de todos os pedidos SMTP e POP3 da intranet e das mensagens correspondentes do servidor de correio externo na Internet. A Figura 5-13 mostra uma empresa maior com seu próprio servidor de correio interno. Este usa o servidor proxy BorderManager para trocar correspondência com servidores de correio externos ou públicos.

Figura 5-12.
Proxy de correio sem um servidor de correio interno

Figura 5-13.
Proxy de correio com um servidor de correio interno

Figura 5-14 mostra um exemplo de utilização do proxy DNS. O servidor proxy BorderManager configurado para proxy DNS trata do tráfego entre o servidor de nomes do DNS interno e o servidor de nomes DNS na Internet.

Figura 5-14.
Proxy DNS

Figura 5-15 mostra um exemplo de como usar um servidor BorderManager atrás de um firewall SOCKS existente.

Figura 5-15.
Servidor BorderManager atrás de um firewall SOCKS