A Virtualização de Servidores está por traz de tudo que fazemos. Sem nenhuma dúvida a nuvem facilitou muito nossa vida provendo uma gama de serviços e facilidades, como Netflx, Amazon Vídeo e Spotfy e inúmeras outras. mas no fundo, o que realmente está por traz de todas as nuvens e de todos esses serviços revolucionários é uma maciça e absurda Virtualização de Servidores.
A virtualização é uma tecnologia disruptiva, e nas próprias palavras da VMware, a Virtualização de Servidores é o processo de criar uma representação baseada em software (ou virtual) de algo, baseado no hardware (ou físico). É uma Virtualização de Hardware propriamente dito.

A virtualização pode se aplicar a aplicativos, servidores, armazenamento e redes e é a maneira mais eficaz de reduzir as despesas de TI, aumentando a eficiência e a agilidade para empresas de todos os tamanhos.

A abordagem tradicional não mais funciona

Como colocado pelo excelente livro Virtualization Essentials, 2nd Edition, historicamente, o Windows foi desenvolvido durante os anos 80 como um sistema operacional para computadores pessoais. Nesta época existiam outros sistemas operacionais, como Novell, CP/M  e IBM OS/2. Como já se sabe, o Windows acabou dominando o mercado e hoje ainda é o principal sistema operacional implantado nos PCs. 

Durante esse mesmo período, as empresas dependiam cada vez mais de computadores para suas operações. As empresas passaram de registros em papel para a execução de suas contas, recursos humanos e muitos outros aplicativos específicos do setor e personalizados em mainframes ou minicomputadores. Esses computadores geralmente executam sistemas operacionais específicos do fornecedor, dificultando que empresas e profissionais de TI transfiram facilmente informações entre sistemas incompatíveis. Isso levou à necessidade não somente de protocolos padronizados para a troca de informações, mas também à ideia de que os mesmos sistemas operacionais ou aplicações similares devem ser capazes de rodar no hardware de muitos fornecedores diferentes. O primeiro deles a criar este conceito foram os sistemas operacionais UNIX disponíveis comercialmente pela Bell Laboratories ou Bell Labs.

As empresas tinham PCs baseados em Windows e outros sistemas operacionais, gerenciados e mantidos por suas equipes de TI, mas não era rentável treinar equipes de TI em várias plataformas. Com quantidades crescentes de memória, processadores e subsistemas de armazenamento maiores e mais rápidos, o hardware em que o Windows rodava podia executar e hospedar aplicativos mais poderosos que antes eram executados principalmente em minicomputadores e mainframes. Esses aplicativos estavam sendo migrados ou projetados para serem executados em servidores Windows. Isso funcionou bem para as empresas porque elas já possuíam o conhecimento interno do Windows e não precisavam mais de várias equipes para oferecer suporte à sua infraestrutura de TI. 

Este movimento, no entanto, também levou a vários desafios. Como o Windows foi originalmente projetado para ser um sistema operacional de usuário único, um único aplicativo em um único servidor Windows funcionava bem, mas geralmente quando um segundo programa era introduzido, os requisitos de cada programa causavam vários tipos de contenção de recursos e até falhas no sistema operacional. Esse comportamento levou muitas empresas, designers de aplicativos, desenvolvedores, profissionais de TI e fornecedores a adotar as melhores práticas de “um servidor, um aplicativo”; portanto, para cada aplicativo implantado, um ou mais servidores precisavam ser adquiridos, provisionados e gerenciados, conforme figura abaixo.

Outro fator que impulsionou a crescente população de servidores foi a política corporativa. As várias organizações em uma única empresa não queriam nenhuma infraestrutura comum. Os departamentos de Recursos Humanos e Folha de pagamento declararam que seus dados eram sensíveis demais para permitir o potencial de outro grupo usar seus sistemas. Marketing, Finanças e Vendas acreditavam na mesma coisa para proteger suas informações fiscais. A Pesquisa e Desenvolvimento também possuía servidores dedicados para garantir a segurança de sua propriedade intelectual corporativa. Às vezes, as empresas tinham aplicativos redundantes, quatro ou mais sistemas de e-mail, talvez de diferentes fornecedores, devido a essa atitude de característica proprietária. Ao exigir o controle solitário de sua infraestrutura de aplicativos, os departamentos achavam que podiam controlar seus dados, mas esse tipo de controle também aumentava seus custos de capital.
Para ajudar nos efeitos dessas políticas, ocorreu o fato de que a demanda comercial, a concorrência, a Lei de Moore e as melhorias nas tecnologias de servidores e armazenamento reduziram drasticamente o custo do hardware. O poder de processamento e armazenamento, que no passado custou centenas de milhares de dólares, agora pode ser obtido por uma fração desse custo.

Entendendo a Lei de Moore

Até agora, você viu como uma combinação de eventos – a ascensão do Windows, as empresas aumentando sua dependência da tecnologia de servidores e o aumento do uso disseminado da Internet e de outros canais direcionados a conteúdo – contribuíram para acelerar o crescimento da população mundial de servidores. Um estudo de 2006 estimou que os 16 milhões de servidores, em uso em 2000, haviam aumentado para quase 30 milhões em 2005. Essa tendência continua hoje. Empresas como Microsoft, Amazon e Google possuem centenas de milhares de servidores para administrar seus negócios.

Pense em todas as muitas maneiras pelas quais você pode obter informações do mundo ao seu redor; computadores, dispositivos móveis, plataformas de jogos e aparelhos de televisão são apenas alguns dos métodos, e novos aparecem todos os dias. Cada um deles possui uma infraestrutura ampla e profunda para dar suporte a esses serviços, mas isso é apenas parte da história. A outra parte do conto tem a ver com a eficiência desses computadores e ai entra a Lei de Moore.

Mas o que é mesmo a lei de Moore?

A lei de Moore foi fruto da observação por Gordon Moore, que na época era presidente da Intel, que fez uma projeção e uma constatação que a cada 18 meses os processadores tinham um aumento de 100% no número de transistores e que isso representava um aumento de 100% na potência computacional. A figura abaixo resume a projeção de Moore.

 

 

Lei de Moore: contagem de transistores e velocidade do processador – Virtualization Essentials, 2 Edition

Isso significa que um computador que você vai comprar daqui a 18 meses terá o dobro do poder de um que você compraria hoje.

Como se vê, a Lei de Moore não se aplica apenas ao poder de processamento (velocidade e capacidade dos chips de computador), mas também para muitas outras tecnologias relacionadas (como capacidade de memória e contagem de megapixels em câmeras digitais).
Você pode pensar que, depois de quase 50 anos, estaríamos atingindo algum tipo de barreira tecnológica que impediria esse crescimento exponencial continuasse, mas os cientistas acreditam que isso será válido por algo entre 20 anos no lado mais baixo e séculos no alto. Mas o que isso tem a ver com sobrecarregar os data centers e aumentar o crescimento do servidor?

Enxugando gelo

A cada ano, os sistemas operacionais e as aplicações vão exigindo mais recursos e com isso, os servidores vão perdendo poder de processamento. Por essa razão, não tem sentido comprar esse hardware, pois ele perde valor a cada ano. É literalmente idêntico a enxugar gelo, como na figura abaixo.

A Microcity, empresa que atua em outsourcing de TI, faz exatamente isso entregando tudo como serviço.
Servidores são colocados no cliente com uma enorme camada de serviço e ficam lá entre 3 a 6 anos. Após esse tempo a Microcity entrega um servidor novo, com mais potência computacional. Lembre-se que em 5 anos esse servidor perderá muito da potência computacional, gastará muito mais energia e estará no ponto para ser trocado, pois as novas aplicações terão dificuldades em rodar em um equipamento já ultrapassado.
Tomemos seis anos como um exemplo de período e examinemos o efeito da Lei de Moore na mudança em um servidor. Uma empresa que possui um modelo de três anos substituiu o servidor inicial duas vezes – uma no final do ano três e outra no final do ano seis. De acordo com a Lei de Moore, o poder de processamento do servidor dobrou quatro vezes, e o servidor é 16 vezes mais poderoso que o computador original! Mesmo se estiverem no modelo de cinco anos e tiverem trocado de servidor apenas uma vez, agora possuem uma máquina oito vezes mais rápida que o primeiro servidor.

Resumindo o que falamos acima, a Virtualização de Servidores é a técnica de execução de servidores virtuais em um servidor físico, permitindo o compartilhamento e execução de dados com recursos que proporcionam critérios e benefícios com maior disponibilidade de aplicações e serviços, que melhora toda a estrutura do ambiente computacional das empresas.

Se você se interessa por Virtualização de Servidores vai gostar de nosso artigo sobre as Certificações da AWS. Saiba mais AQUI

Print Friendly, PDF & Email