domingo, 1 de novembro de 2009

Entendendo a plataforma nehalen

No início de 2006 a Intel estava em uma situação complicada. O Pentium D, baseado na ineficiente arquitetura NetBurst perdia para o Athlon X2 tanto em termos de desempenho quanto em termos de eficiência. Os processadores AMD eram superiores tanto nos desktops quanto nos servidores e a Intel perdia terreno rapidamente em ambas as frentes.

Quando tudo parecia perdido, a Intel apresentou a arquitetura Core, que deu origem as Core 2 Duo e aos demais processadores da linha atual. Para evitar cometer o mesmo erro que cometeu com a plataforma NetBurst, a Intel passou a investir massivamente em pesquisa e desenvolvimento, passando a desenvolver diversas novas arquiteturas em paralelo e a investir pesado no desenvolvimento de novas técnicas de fabricação e na modernização de suas fábricas.



fig1
O departamento de marketing se apressou em criar um termo que simboliza a nova fase, o "tick-tock" que passou a ser exaustivamente usado dentro do material publicitário da Intel. A idéia é bastante simples: apresentar novas arquiteturas e novas técnicas de fabricação em anos alternados, onde um "tick" corresponde ao lançamento de uma nova arquitetura (como o Penryn e o Nehalem) enquanto o "tock" corresponde ao lançamento de uma nova técnica de fabricação (45 nanômetros ou 32 nanômetros, por exemplo), fechando o ciclo. Ou seja, transformaram um conceito completo em uma idéia simples, acessível às massas.

O plano é manter o público interessado, anunciando uma nova arquitetura, ou a migração para um novo processo de fabricação uma vez a cada ano e manter um ritmo rápido de evolução, que a AMD tenha dificuldades para acompanhar. Dentro da idéia, a migração para a técnica de 0.065 mícron em 2005 foi um "tick", o lançamento da plataforma Core, em 2006 foi um "tock" e o lançamento do Penryn em 2007, baseado na nova arquitetura de 0.045 mícron, foi um novo "tick", que será seguido pelo lançamento de uma nova arquitetura (tock).

O Nehalem (pronuncia-se "nerreilem") representa a próxima arquitetura Intel, ainda produzida usando a técnica de 45 nanômetros, mas com diversas mudanças arquiteturais em relação ao Penryn. As mudanças são tantas que podemos dizer que o Nehalem está para o Penryn assim como o Core 2 Duo está para o Pentium D; ou seja, trata-se realmente de uma nova arquitetura e não apenas de um Penryn com algumas melhorias.

fig2
A versão inicial do Nehalem terá 4 núcleos, com um total de nada menos do que 781 milhões de transístores. Está prevista também uma versão com 8 núcleos, que terá provavelmente o dobro deste valor. Diferente de outros processadores quad-core da Intel, onde são usados dois dies separados (cada um com 2 núcleos), colocados dentro do mesmo encapsulamento e ligados através do FSB, o Nehalem quad-core é composto por um único die, ou seja, ele é um processador quad-core nativo.

fig3
Uma das principais mudanças reside no sub-sistema de memória cache. O Nehalem mantém os mesmos 32 KB de cache L1 por núcleo usado no Penryn e em outros processadores anteriores, mas as similaridades param por aí. Em vez de um grande cache L2 compartilhado, a Intel optou por utilizar uma arquitetura similar à utilizada pela AMD no Phenom, com um pequeno cache L2 (de 256 KB) para cada núcleo e 8 MB de cache L3, compartilhado entre todos os núcleos.

A grande diferença reside na forma como os dados são armazenados nos caches. Nos processadores AMD é usado um cache "exclusivo", onde o cache L2 armazena dados diferentes do cache L1 e o L3 armazena dados diferentes dos do L2, maximizando o espaço de armazenamento. A Intel, por outro lado, utiliza um sistema "inclusivo" onde os cache L1 e L2 armazenam cópias de dados também armazenados no cache L3.

Embora reduza o volume total de dados que pode ser armazenado nos caches, o sistema da Intel permite um acesso mais rápido aos dados armazenados. Em resumo, o sistema da AMD é mais eficiente em processadores com pouco cache, como no caso do Phenom, enquanto o sistema da Intel funciona melhor em processadores com grandes volumes de cache, como o Nehalem.

É nesse ponto que os investimentos da Intel em novas técnicas de produção se pagam, já que com transístores menores, eles podem se dar ao luxo de fabricar processadores maiores e com mais cache L2, mantendo o mesmo custo de produção das gerações anteriores.

A latência do cache L1 subiu de 3 para 4 ciclos em relação ao Penryn, mas em compensação a latência do cache L2 caiu consideravelmente, de 15 para 11 ciclos, de forma que o saldo final é positivo. O cache L3 trabalha com uma latência de 39 ciclos, o que pode parecer bastante se comparado com a latência dos caches L1 e L2, mas é um pouco mais rápido do que o cache L3 usado no Phenom, que trabalha com uma latência de 43 ciclos.

Outra mudança dramática é a inclusão de um controlador de memória integrado, assim como temos nos processadores AMD. O controlador de memória integrado reduz substancialmente o tempo de latência da memória, resultando em um ganho de desempenho considerável. Um dos grandes motivos o Athlon X2 ter se mantido competitivo em relação ao Core 2 Duo, apesar de possuir bem menos cache era justamente devido ao fato de utilizar o controlador dedicado.

A grosso modo, podemos dizer que o Athlon X2 precisa acessar a memória com mais freqüência (devido ao cache menor) mas que em compensação perde menos tempo a cada acesso devido ao controlador de memória integrado. A Intel bem que resistiu, mas acabou tendo que ceder à idéia.

Em vez de utilizar um controlador single-channel, ou dual-channel, a Intel optou por utilizar um controlador triple-channel, com suporte a memórias DDR3, operando a até 1.33 GT/s. Isso significa uma banda total de até 32 GB/s (ao utilizar 3 módulos). Para ter uma idéia, isso é 40 vezes mais do que tínhamos há 10 anos, quando utilizávamos módulos de memória SDR PC-100 em conjunto com o Pentium III.

Os três canais operam de forma independente, de forma que o processador por iniciar uma nova leitura em um dos módulos enquanto ainda espera os dados referentes a uma leitura anterior, realizada em outro módulo. Isso contribui para reduzir o tempo de latência do acesso à memória, que é, proporcionalmente, muito mais alto nos módulos DDR3.

O problema com o controlador integrado é que ele aumenta substancialmente o número de contatos do processador, o que quebra completamente a compatibilidade com as placas soquete 775 atuais. A versão triple-channel do Nehalem utilizará um soquete LGA com nada menos do que 1366 contatos. O formato do processador também mudou, passando a ser retangular, assim como no antigo Pentium Pro:

fig4
fig5
Existirão também versões dual-channel, com apenas dois dos controladores de memória ativados, que possivelmente utilizarão um soquete menor, com um número menor de contatos.

Outra mudança é a substituição do antigo FSB por um barramento aprimorado, batizado de QuickPath Interconnect, ou QPI. O FSB (front-side bus), ou barramento frontal, tem sido utilizado desde os primeiros processadores Intel. Ele consiste um um barramento compartilhado, que liga o processador ao chipset.

Como ele é usado não apenas para a comunicação entre os núcleos do processador e a memória, mas também para a comunicação entre os 2 ou 4 núcleos do processador, ele acaba estrangulando o acesso à memória, prejudicando o desempenho do sistema. O problema se agrava ao usar vários processadores em SMP, como no caso das placas para servidores, ou na plataforma Skultrail.


Até o Penryn a Intel remediou o problema na base da força-bruta, simplesmente adicionando mais cache L2 aos processadores. Com o QuickPath, resolveram atacar a raiz do problema, substituindo o FSB por um barramento modernizado, composto por links independentes que operam a 6.4 GT/s (a siga "GT/s" indica o volume de transações por segundo, diferente de "GHz", que indica o clock), com a transmissão de 16 bits de dados em cada direção por ciclo, resultando em um barramento de 12.8 GB/s em cada direção (25.6 GB/s no total) por linha de dados. Como a memória é agora acessada diretamente pelo controlador de memória, este link fica inteiramente disponível para o tráfego de I/O. Ao utilizar dois processadores em SMP, cada processador passa a se comunicar com o chipset através de uma linha independente e uma terceira linha de dados é implantada para coordenar a comunicação entre os dois:


Ao usar 4 processadores (possibilidade que deverá ser bem explorada no caso dos servidores de alto desempenho) são incluídos barramentos adicionais, que fazem com que cada processador tenha acesso direto a todos os demais:


Se você leu meu tutorial sobre os processadores AMD de 64 bits, vai notar uma grande semelhança entre o QuickPath e o HyperTransport, usado nos processadores AMD. Obviamente, não se trata de mera coincidência. A Intel estudou os pontos fortes da solução da AMD e acabou chegando a uma solução melhorada, adaptada à sua arquitetura.

Com relação ao processamento das instruções, uma novidade importante é o Loop Stream Detector (LSD), um controlador adicional que vasculha as instruções decodificadas antes que elas cheguem ao processador, localizando instruções referentes a loops de processamento. Em vez de reprocessar as instruções do loop repetidamente, o processar armazena as instruções em um pequeno cache interno e as executa a partir daí. Além de permitir ganhar tempo, isso permite reduzir sutilmente o consumo elétrico, pois permite desativar o circuito de branch prediction, juntamente com as unidades fetch e decode durante o processamento do loop:


O Nehalem marca também a volta do Hyper Threading, o que faz com que o processador se apresente ao sistema operacional como tendo 8 núcleos em vez de 4. Naturalmente, o Hyper Threading não dobra o desempenho do processador, servindo apenas como um recurso extra que permite que ele aproveite melhor os recursos de processamento, processando dois threads simultaneamente sempre que possível.

Se você acompanhou a era do Pentium 4, talvez não tenha boas lembranças do Hyper Threading, já que ele reduzia o desempenho do processador em algumas operações e aumentava consideravelmente o consumo elétrico. A versão incluída no Nehalem, entretanto, passou por várias melhorias, sobretudo relacionadas ao consumo elétrico, de forma que podemos esperar uma redução significativa nos efeitos colaterais.

Ao contrário do deselegante Kentsfield (usado na primeira geração do Core 2 Quad), onde todos os núcleos operam sempre à mesma freqüência e usando a mesma tensão, o Nehalem oferece um sistema de gerenciamento independente, onde cada núcleo pode operar a uma freqüência condizente com seu nível de utilização, mantendo o consumo elétrico global do processador em níveis aceitáveis.

Graças à arquitetura modular usada no Nehalem, a Intel tem uma boa flexibilidade para desenvolver versões do processador com mais ou menos núcleos de acordo com a demanda. Além da versão com 4 núcleos, estão planejadas também versões com 2 e 8 núcleos.

O Nehalem já existe em versões limitadas, que estão sendo disponibilizadas a parceiros e fabricantes de placas-mãe. A Intel pretende lançar os primeiros processadores baseados no Nehalem em setembro, mas eles provavelmente estarão disponíveis em volume apenas a partir de outubro ou novembro. Para 2009, está prevista uma versão atualizada no Nehalem, o Westmere, que será produzida em uma técnica de 0.032 micron.

Para 2010 está prevista uma versão com uma GPU integrada, o Sandy Bridge. Existem dúvidas sobre o desempenho desta solução, já que a Intel não possui sequer um chipset 3D competitivo. Pode ser que se limitem a desenvolver uma versão atualizada do GMA3500 e integrá-lo ao processador para tirar proveito do controlador de memória integrado, mas pode ser também que apareçam com uma solução radicalmente diferente, como no caso do Larrabee. Por enquanto esta informação é guardada a sete chaves.

fig10
Combinando o novo sistema de cache com o controlador integrado de memória e as demais melhorias, ficou claro que a Intel estudou meticulosamente as vantagens arquiteturais introduzidas pela AMD nos últimos anos e elaborou cuidadosamente respostas para cada uma delas. Isso mostra como é benéfico ter dois fabricantes competitivos disputando o mercado. Sem a AMD, muito provavelmente ainda estaríamos presos à idade das trevas da arquitetura NetBurst. Grande parte da evolução nos processadores Intel que vimos de 2006 para cá se deve justamente à AMD.

A posição atual da AMD lembra um pouco a posição da Intel em 2006: acuada e tendo que competir com produtos superiores do concorrente com cortes de preço e soluções de valor agregado. Para piorar, a situação financeira da AMD também não anda boa, já que precisaram assumir dívidas para concretizar a compra da ATI, que agora estão tendo dificuldades para pagar devido à queda nas vendas. Mas, é nos momentos de dificuldade que surgem as melhores soluções (veja o caso da Intel). Esta é uma briga que ainda promete.

fig12

mais sobre VPN

O conceito de rede privada virtual

As redes locais de empresa(LAN ou LAN) são redes internas a uma organização, o que quer dizer que as ligações entre máquinas pertencem à organização. Estas redes estão ligadas cada vez mais frequentemente à Internet através de equipamentos de interconexão. Acontece assim frequentemente que empresas sintam a necessidade de comunicar com sucursais, clientes, ou mesmo pessoal geograficamente afastado, via Internet.

Por esse motivo, os dados transmitidos na Internet estão muito mais vulneráveis do que quando circulam numa rede interna duma organização, porque o caminho seguido não é definido de antemão, o que significa que os dados circulam numa infra-estrutura de rede pública que pertence a diferentes operadores. Assim, não é impossível que, no caminho percorrido, a rede seja ouvida por um utilizador indiscreto, ou mesmo desviada. Não é por isso concebível transmitir, em tais condições, informações sensíveis para a organização ou a empresa.

A primeira solução para responder a esta necessidade de comunicação protegida consiste em ligar as redes distantes com a ajuda de ligações especializadas. Contudo, a maior parte das empresas não pode tomar a liberdade de ligar duas redes locais distantes por uma linha especializada, é às vezes necessário utilizar a Internet como suporte de transmissão.

Um bom compromisso consiste em utilizar a Internet como suporte, mas utilizando um protocolo “encapsulamento” (em inglês tunneling, daí a utilização inoportuna do termo “tunelização”), quer dizer encapsulando os dados a transmitir de maneira codificada. Fala-se então de rede privada virtual (notada RPV ou VPN, acrónimo de Virtual Private Network) para designar a rede assim artificialmente criada.
Esta rede é dita "virtual" porque liga duas redes “físicas” (redes locais) através de uma ligação não fiável (Internet), e privada porque só os computadores das redes locais da VPN podem “ver” os dados.

O sistema de VPN permite então obter uma ligação protegida a custo reduzido, para além da instalação dos equipamentos terminais. Por outro lado, não permite garantir uma qualidade de serviço comparável a uma linha alugada, na medida em que a rede física é pública e por conseguinte não garantida.

Funcionamento de um VPN

Uma rede privada virtual assenta num protocolo, chamado protocolo de tunelização (tunneling), quer dizer, um protocolo que permite aos dados que passam de uma extremidade da VPN à outra serem protegidos por algoritmos de criptografia.

Réseau privé virtuel (VPN)



O termo “túnel” é utilizado para simbolizar o facto de os dados serem codificados (cifrados), e por conseguinte incompreensíveis, entre a entrada e a saída do VPN, para qualquer pessoa situada entre as duas extremidades da rede, como se os dados passassem num túnel. No caso de uma VPN estabelecida entre duas máquinas, chama-se "cliente VPN" ao elemento que permite codificar e decifrar os dados do lado utilizador (cliente) e "servidor VPN" (ou mais geralmente servidor de acesso distante) ao elemento que codifica e decifra os dados do lado da organização.


Desta maneira, quando um utilizador necessita de aceder à rede privada virtual, o seu pedido vai ser transmitido em claridade ao sistema passarela, que vai conectar-se à rede distante através de uma infra-estrutura de rede pública, seguidamente vai transmitir o pedido de forma codificada. O computador distante vai então fornecer os dados ao servidor VPN da sua rede local, que vai transmitir a resposta de maneira codificada. Aquando da recepção no cliente VPN do utilizador, os dados serão decifrados, seguidamente transmitidos ao utilizador…

Os protocolos de tunneling

Os principais protocolos de tunneling são os seguintes:

  • PPTP (Point-to-Point Tunneling Protocol) é um protocolo de nível 2desenvolvido pela Microsoft, 3Com, Ascend, EUA Robotics e ECI Telematics.
  • L2F (Layer Two Forwarding) é um protocolo de nível 2 desenvolvido pela Cisco, Northern Telecom e Shiva. Está hoje quase obsoleto
  • L2TP (Layer Two Tunneling Protocol) é o resultado dos trabalhos do IETF (RFC 2661) para fazer convergir as funcionalidades de PPTP e de L2F. Trata-se assim de um protocolo de nível 2 que se apoia em PPP.
  • IPSec é um protocolo de nível 3, procedente dos trabalhos do IETF, permitindo transportar dados calculados para as redes IP.

O protocolo PPTP

O princípio do protocolo PPTP (Point To Point Tunneling Protocol) é criar tramas sob o protocolo PPP e num datagrama IP.

Assim, neste modo de conexão, as máquinas distantes das duas redes locais são ligadas por uma conexãoponto a ponto (que compreende um sistema de codificação e de autenticação), e o pacote transita num datagrama IP.

le protocole PPTP


Desta maneira, os dados da rede local (bem como os endereços das máquinas presentes no cabeçalho da mensagem) são encapsulados numa mensagem PPP, que está ela própria encapsulada numa mensagem IP.

O protocolo L2TP

O protocolo L2TP é um protocolo standard de tunelização (estandardizado num RFC) muito próximo do PPTP. Assim, o protocolo L2TP encapsula tramas protocolo PPP, que encapsulam por sua vez outros protocolos (como IP, IPX ou ainda NetBIOS).

O protocolo IPSec

IPSec é um protocolo definido pelo IETF que permite proteger as trocas a nível da camada rede. Trata-se com efeito de um protocolo que traz melhorias a nível da segurança ao protocolo IP para garantir a confidencialidade, a integridade e a autenticação das trocas.

O protocolo IPSec baseia-se em três módulos:

  • IP Autenticação Header (AH) relativa à integridade, à autenticação e à protecção contra o retorno dos pacotes a encapsular
  • Encapsulating Security Payload (ESP) definindo a codificação de pacotes. O ESP fornece a confidencialidade, a integridade, a autenticação e a proteção contra o rretorno.
  • Security Assocation (SA) definindo a troca das chaves e dos parâmetros de segurança. A SA reúne assim o conjunto das informações sobre o tratamento a aplicar aos pacotes IP (os protocolos AH e/ou ESP, modo túnel ou transporte, os algo de segurança utilizados pelos protocolos, as chaves utilizadas,…). A troca das chaves faz-se quer de maneira manual quer com o protocolo de troca IKE (na maior parte do tempo), que permite às duas partes entenderem-se sobre o SA


Page précédente

Virtual Private Network

Rede Particular Virtual (Virtual Private Network - VPN) é uma rede de comunicações privada normalmente utilizada por uma empresa ou um conjunto de empresas e/ou instituições, construída em cima de uma rede de comunicações pública (como por exemplo, a Internet). O tráfego de dados é levado pela rede pública utilizando protocolos padrão, não necessariamente seguros.

VPNs seguras usam protocolos de criptografia por tunelamento que fornecem a confidencialidade, autenticação e integridade necessárias para garantir a privacidade das comunicações requeridas. Quando adequadamente implementados, estes protocolos podem assegurar comunicações seguras através de redes inseguras.

Deve ser notado que a escolha, implementação e uso destes protocolos não é algo trivial, e várias soluções de VPN inseguras são distribuídas no mercado. Adverte-se os usuários para que investiguem com cuidado os produtos que fornecem VPNs. Por si só, o rótulo VPN é apenas uma ferramenta de marketing.

Índice

[esconder]

[editar] Analogia

Imagine que você esteja em Calais (França) e quer ir para Dover (Inglaterra). Se você for de barco pelo Canal da Mancha, todos que estarão de fora poderão ver tudo o que você está levando na mão, a roupa que está vestindo e o pior, que você está passando. Ou seja, você não terá privacidade nem segurança realizando este trajeto. Já você utilizando o Eurotúnel para fazer esse trajeto, só terá uma entrada e uma saída. Quem estiver do lado de fora verá absolutamente nada de você. Você estará trafegando com privacidade e segurança…

[editar] Configuração

Para se configurar uma VPN, é preciso fazer através de serviços de acessos remotos, tal como o RAS, encontrado no Windows 2000 e em versões posteriores, ou o SSH, encontrado nos sistemas GNU/Linux e outras variantes do Unix. Você terá que configurar os dois lados da rede para fazer esse "tunelamento" entre elas.

[editar] Funcionamento

Basicamente, quando uma rede quer enviar dados para a outra rede através da VPN, um protocolo, exemplo IPSec, faz o encapsulamento do quadro normal com o cabeçalho IP da rede local e adiciona o cabeçalho IP da Internet atribuída ao Roteador, um cabeçalho AH, que é o cabeçalho de autenticação e o cabeçalho ESP, que é o cabeçalho que provê integridade, autenticidade e criptografia à área de dados do pacote. Quando esses dados encapsulados chegarem à outra extremidade, é feito o desencapsulamento do IPSec e os dados são encaminhados ao referido destino da rede local.

[editar] Segurança

Quando adequadamente implementados, estes protocolos podem assegurar comunicações seguras através de redes inseguras. Hoje diversas empresas interligam suas bases operacionais através de um VPN na internet. Um sistema de comunicação por VPN tem um custo de implementação e manutenção insignificantes, se comparados aos antigos sistemas de comunicação física, como o frame-relay por exemplo - que tem um custo exorbitante e segurança muito duvidosa. Por este motivo muitos sistemas de comunicação estão sendo substituídos por uma VPN, que além do baixo custo, oferece também uma alta confiabilidade, integridade e disponibilidade dos dados trafegados. Sistemas de comunicação por VPN estão sendo amplamente utilizados em diversos setores, até mesmo os setores governamentais no mundo inteiro utilizam este recurso. As Polícias Federais em todo mundo já substituiram seu sistema de comunicação de dados pela VPN. O caso serve de exemplo de como o sistema é viável e oferece absoluta segurança e muita

o que é videoconferência

Videoconferência é um novo meio de reunir-se. Ela permite que um grupo de profissionais com escritórios em bairros, cidades ou países distantes, reúna-se sem sair de suas respectivas salas.

A princípio, a videoconferência é quase como se você estivesse falando com a tela da televisão... e ela respondesse!

Alguns sistemas são projetados para serem utilizados por um grupo de pessoas em uma sala de reuniões. Outros são utilizados por grupos menores em um escritório. E outros são utilizados através de seu próprio computador. Em todas as situações, você visualizará imagens em movimento, ouvirá sons claros e terá a sensação de estar junto e poder trabalhar como se as pessoas estivessem na sala, sentadas à mesa ao seu lado. Além de ter contato visual, falar e ouvir, você poderá examinar documentos ao mesmo tempo, desenhar em um quadro, exibir slides, passar uma apresentação em PowerPoint, exibir uma fita de vídeo, trabalhar em uma planilha, demonstrar um novo produto - tudo com a ajuda do sistema de vídeoconferência.