quinta-feira, 7 de novembro de 2013

Sejam bem vindos!!



Página criada para abordar o conteúdo de Virtualização e tirar dúvidas.

Disciplina de Fundamentos da Tecnologia de Informação.

Universidade Federal do Mato Grosso do Sul.

Prof. Jucele França de Alencar Vasconcellos.

Curso de Análise de Sistemas.

COMPUTAÇÃO ANTIGAMENTE



Na década de 50 as máquinas eram enormes e caras, eram projetadas para realizar certo conjunto de operações que, combinadas, seriam capazes de criar diversas aplicações.  Assim vários setores passaram a projetar aplicações específicas nas suas áreas que usassem o poder dos computadores. A velocidade atingida por um circuito eletrônico era fascinante. O custo, porém incluía do preço ao espaço de armazenamento, passando por manutenção e energia elétrica, tudo isso em uma época em que a tecnologia era ainda um tanto limitada nesse ramo.

                                               Fonte da imagem: microninfozn




Fonte da imagem: Reprodução/Gizmodo







MAS PERAÍ, QUEM INVENTOU A VIRTUALIZAÇÃO???

A virtualização surgiu quando a IBM implementou e desenvolveu as máquinas virtuais. Na época, tinha-se o propósito de utilizar de forma simultânea nos caríssimos equipamentos mainframe.

Mainframe IBM


IBM System 360/20 no Deutsches Museum em Munique, Alemanha.


Virtualização desse tipo de servidores era feita através do software de Virtualização VM CMS, que permitia a criação de virtual machines nesses servidores de grande porte. O conceito de Virtualização de Servidores não era o mesmo do conceito atual. 

Um bom vídeo com os conceitos de virtualização.

Geraldo Melo especialista em projetos na área de TI, apresenta um overview bastante didático para entender de onde veio e como funciona a Virtualização de Servidores.



Segunda parte da vídeo aula sobre os conceitos de virtualização.


O SURGIMENTO DA VMware.


“Em 1998, uma companhia chamada VMware foi fundada por Diane Greene e seu marido, Dr. Mendel Rosenblum junto com dois estudantes da Universidade de Stanford e um colega de trabalho de Berkley. Em outubro de 1998, estes fundadores patentearam uma nova tecnologia de virtualização baseadas em pesquisas conduzidas na universidade de Stanford. A VMware introduziu a plataforma “VMware Virtual Plataform” em 8 de fevereiro de 1999. Este produto é considerado por muitos como sendo o primeiro produto comercial para virtualização na plataforma x86. Mais tarde, este produto tornou-se o VMware Workstation. Em 2000, a VMware lançou sua primeira plataforma de virtualização para servidores, o VMware GSX Server 1.0. Este produto era instalado sobre sistemas operacionais Windows ou Linux. No ano seguinte, com o lançamento do VMware ESX Server 1.0, houve uma melhoria significativa, pois este era instalado diretamente no bare-metal e provia maior estabilidade e alta-performance por possuir um nativo hypervisor, também conhecido como Virtual machine Monitor (VMM). De 2002 até os dias atuais, o VMware continuou a liberar versões de atualizações de ambos os produtos: GSX Server (ultimamente chamado de VMware Server) e a plataforma ESX (mais tarde tornando ESXi), adicionando novas capacidades e aumento de performance. Em janeiro de 2004, a VMware foi adquirida pela EMC Corporation, embora continuasse atuando como uma subsidiaria independente, sendo ainda dirigida pela CEO Diane Greene.”


VMware GSX, era o programa usado em que você instalava em cima do Windows 2000 e conseguia subir máquinas virtuais Windows e Linux, início dos anos 2000, rodar Linux RedHat(virtualizado) em uma máquina Windows sem problemas era uma coisa incrível na época, hoje é normal.




Fonte: Projetos e TI | História da virtualização. 
Apresentação sobre algumas vantagens da virtualização e utilização do VMware.




A MICROSOFT NO CAMPO DA VIRTUALIZAÇÃO.


“A Connectix criou um relacionamento com a Microsoft que consistia na inclusão de pacotes do sistema operacional Microsoft com o Connectix Virtual PC para produtos Mac. E mais tarde, eles providenciaram a tecnologia de emulação PocketPC embutida na aplicação Visual StudioNET da Microsoft. No começo de 2003, ela entrou no campo da virtualização de servidores x86 com sua versão “release candidate” do Connectix Virtual Server. Entretanto, o Connectix Virtual Server nunca entrou no mercado, porque a Microsoft adquiriu os direitos de propriedade intelectual do Virtual PC para Mac e Windows como também do Connectix Virtual Server. O plano de virtualização da Microsoft focava-se no suporte a aplicações legadas, consolidação de servidores e automação de desenvolvimento de softwares e ambientes de teste. Eles liberaram seus primeiros produtos de virtualização, o Microsoft PC 2004, no dia 02 de dezembro de 2003. Devido a necessidade de aprimoramento de segurança, o projeto acabou tendo atrasos e em meados de 2004 foi liberadas duas versões: o Microsoft Virtual Server 2005 Standard e a Enterprise Edition. Com a tecnologia de hypervisor como VMware ESX e Xen começou a dominar a plataforma de virtualização de servidores, a Microsoft passou a focar em algo mais competitivo do que o Microsoft Virtual Server. Com o desenvolvimento do Longhorn ou Windows Server 2008, a companhia iniciou o desenvolvimento da sua própria tecnologia de hypervisor, originalmente chamada Viridian e depois chamada Hyper-V.”




Virtual server 2005.

virtual server 2008.

Microsoft Hyper - V 2012.

A PLATAFORMA XEN.


“O projeto Xen foi descrito primeiramente em um ensaio apresentado na SOSP (Symposium on Operating Systems Principles) em 2003.  Em outubro do mesmo ano, a versão 1.0 foi liberada. Originalmente, a Xen foi desenvolvida pelo “Systems Research Group” no laboratório de computação da universidade de Cambridge, como parte do projeto XenoServers, e foi fundada pelo UK-EPSRC. Desde então, Xen ganhou maturidade e se tornou um projeto que possibilitou pesquisas para melhorar técnicas para virtualizar recursos tais como CPU, memoria, discos e redes. Ian Pratt, professor sênior de Cambridge, liderou o projeto e ajudou a fundar a XenSource, Inc., uma companhia responsável pelo desenvolvimento do projeto Xen open-souce e também criou e vendeu uma versão do software comercial e empresarial. Contri buidores deste projeto incluem empresas como AMD, HP, IBM, Intel, Novell, RedHat e XenSource. A XenSource liberou a primeira versão do XenEnterprise 3.0 em 2006, um produto baseado no Xen v3.0.3 e criado para competir diretamente com o produto VMware ESX. Em agosto de 2007, XenSource Anunciou a liberação do XenEnterprise v4, baseada no Xen 3.1, que estava mais estável e tentou ser competitiva com produtos concorrentes como o VMware ESX. Neste mesmo mês, a Citrix anunciou que iria fazer como a EMC e a Microsoft em relação à plataforma de virtualização e adquiriu a XenSource por aproximadamente 500 milhões de dólares."



OS BENEFÍCIOS DA VIRTUALIZAÇÃO.

  • Reduz a proliferação de servidores.
  • Aumenta a utilização do servidor físico.
  • Melhora a capacidade de gerenciamento de infra-estrutura.
  • Diminuir os custos de infra-estrutura e gestão
  • Reduzindo o custo para implantar novos ambientes
  • Reduzir o consumo de energia elétrica.
  • Diminuição dos recursos de refrigeração.
  • Diminuição do espaço físico.
  • Responderem dinamicamente a carga de trabalho do aplicativo.
  • Reagir à evolução das necessidades de negócio e ciclos.
  • Melhorar a gestão global dos recursos.
  • Aumentar a disponibilidade de software aplicativo.
  • Isolar os usuários de falhas no sistema.
  • Gerenciar a alta disponibilidade (HA) em ambientes com menor custo.


VIRTUAL MACHINE MONITOR.

Virtual Machine Monitor(VMM) ou Hypervisor gerencia e controla o ambiente virtual, ele é o componente principal da virtualização, podem pertencer a duas categorias :
O nativo, baremetal ou supervisor rodando diretamente no hardware do servidor, controla o hardware e acesso do sistema operacional virtualizado – Guest. Temos como exemplo o VMware e o Xen Server da Citrix que são considerados por muitos sistemas operacionais voltados a virtualização. Existe uma variação deste tipo de hypervisor, o embeeding que é instalado no firmware do servidor hospedado, exemplo é o VMware ESXi, versão freeware do produto de virtualização da VMware. Este hypervisor possui um tamanho pequeno e tem um impacto mínimo nos recursos e o desempenho do servidor físico.

O hosted é uma aplicação que fornece um ambiente de execução para uma outra aplicação, como é o caso das JVMs(java virtual machines) que execução aplicações java instaladas em um ambiente virtual gerenciado.



TÉCNICAS DE VIRTUALIZAÇÃO

Virtualização completa

A virtualização completa corresponde a uma camada que se encontra entre o hardware e o sistema operacional hospedado (Guest), também conhecida como virtualização nativa ou cheia. O VMM – Virtual Machine Manager controla o hardware e simula para os sistemas operacionais virtualizados, todos os dispositivos necessários para que o mesmo funcione. Fazendo assim com que todos os sistemas operacionais virtualizados no hospedeiro, pensem que estão rodando diretamente sobre o hardware.

Não necessita de nenhuma modificação no sistema operacional a ser virtualizado. O VMM também é responsável por evitar que alguma maquina virtual execute uma ação que venha a prejudicar as outras maquinas virtuais hospedadas no hospedeiro. Veja na figura abaixo um exemplo do que seria uma virtualização completa:




Paravirtualização


A paravirtualização é um método que consiste em apresentar ao sistema operacional que está sendo emulado uma arquitetura virtual que é similar, mas não idêntica, à arquitetura física real. Neste modelo a VM sabe que está rodando sobre o VMM e interage com ele. O objetivo disso é que uma boa interação entre o VMM e a maquina virtual pode acarretar em um ganho substancial no desempenho desta.A paravirtualização pode ser implementada de três maneiras diferentes como visto a seguir:

Neste primeiro caso, para possibilitar a comunicação mais rápida entre a VM e o hardware, o VMM acessa as APIs (Interface de Programação de Aplicativos) do sistema hospedeiro e repassa algumas partes dessas APIs para a VM. Para que o acesso às APIs funcione corretamente, é necessário fazer alterações no kernel do Sistema Operacional da VM. Motivação profissional 



Neste outro caso, a máquina virtual, acessa o hardware do hospedeiro diretamente ocasionando assim, maior performance das maquinas virtuais, mas trazendo assim um overhead elevado para o hospedeiro, pois o mesmo passará a trabalhar com mais requisições do que o normal para uma maquina sem técnicas de virtualização aplicadas a mesma. São necessária modificações tanto na maquina virtual, como no hospedeiro. Para que o sistema operacional acesse o hardware do hospedeiro diretamente.


Existe também, um outro caso de paravirtualização, onde o VMM acessa o hardware diretamente o hardware, o ganho de performance é muito maior do que os outros casos, mas o sistema operacional do hospedeiro deve ter um driver especifico para este tipo de aplicação da virtualizacao.





Virtualização contribuindo para a T.I Verde

Nunca se falou tanto em economia de recursos, sustentabilidade e TI verde. O mundo que vivemos esta cada vez mais saturado e se faz cada vez mais necessário o investimento em tecnologias que possam reduzir o consumo de recursos. Em paralelo a isso, o poder computacional cresce de forma gigantesca, um exemplo básico desta evolução esta no seu bolso: quantos GHz (ou MHz) seu smartphone possui?

Frear esta evolução é impossível, cada vez mais veremos smartphones, tablets, ultrabooks e outros gadgets tomando conta do mercado. Hoje qualquer criança já possui um smartphone e isso tem se tornado um grande desafio para a humanidade, como fazer para unirmos a evolução constante e inevitável com a sustentabilidade. Uma das respostas para esta pergunta com certeza é a virtualização de servidores. Muito tem se falado desta tecnologia e muitos benefícios tem se explorado ao longo dos anos, não é segredo nem novidade para ninguém todas as vantagens que a virtualização proporciona para aqueles que a usam. Escalabilidade, gerenciamento simplificado, provisionamento, melhor uso do hardware estão dentre os benefícios. 

Redução na geração de lixo eletrônico


Segundo uma pesquisa da revista Info, até o final de 2011 o mundo gerou 50 milhões de toneladas de lixo eletrônico! E isso é equivalente a todo o lixo que uma cidade como São Paulo gera em 8 anos. Todos os anos milhares de computadores são descartados por simplesmente não atenderem mais as expectativas. Com a evolução dos softwares, cada vez mais se pede hardwares mais potentes e aquele servidor que a 1 ano te atendia hoje já não lhe atende mais. Grande parte da culpa deste fato é o pensamento imediatista dos gestores de TI, que não se programam a longo prazo, não fazem metas de crescimento e consequentemente não se compra pensando no futuro. Isso faz com que seja necessário o constante investimento em novos computadores, descartando os antigos.
Uma virtualização bem planejada pode ajudar a evitar este crescimento de geração de lixo eletrônico. O planejamento do crescimento aliado a virtualização promovem a aquisição de computadores que vão atender a necessidade de uma empresa por 3, 4, 5 anos sem a necessidade de aquisição de novos equipamentos, no máximo acontecerá o melhoramento dos computadores já existentes com a aquisição de discos e memória, por exemplo.

Redução no consumo de energia elétrica.

 Não tem o que se discutir com relação a grande economia de energia elétrica que a adoção da virtualização proporciona. Esta conta é bem simples: imagine 10 servidores físicos, cada servidor terá no mínimo 1 fonte – se formos falar de servidores homologados teremos 2 fontes para cada servidor. Neste cenário teremos 20 fontes ligadas à rede elétrica consumindo energia. Se virtualizarmos estes 10 servidores usando apenas 2 servidores  físicos, teremos não mais 20 fontes e sim 4. Não precisamos ser bons em matemática para termos uma ideia da economia gerada com a virtualização.

Um outro fator importante é a geração de calor, pois cada servidor ligado gera uma quantidade de calor e, consequentemente, aumenta a necessidade de uma maior refrigeração. Ou seja, com a virtualização você também economiza com aquisição de aparelhos de ar condicionado.


Reportagem: Frederico Neves. http://www.profissionaisti.com.br

Virtualização: O futuro é na nuvem!!!

Movimentação mundial deste mercado, na casa dos US$ 2,1 bilhões em 2010, acirra a concorrência entre os players!
Como no filme Matrix, o futuro parece cheio de energia para as máquinas. Pelo menos se forem virtual machines (VMs) e se estiverem corretas as previsões da consultoria Gartner. Em um estudo publicado no final do ano passado, as previsões eram de que o mercado mundial vai chegar a US$4,2 bilhões em 2013.
Estão embutidos nesse cálculo a infraestrutura de software de virtualização (baseada na plataforma x86), a virtualização de servidores e o nicho de software HVD (Hosted Virtual Desktop). Neste ano, se as projeções se confirmarem, a movimentação será de US$ 2,1 bilhões (veja tabela de crescimento abaixo).  
Evolução do Mercado de Virtualização (em milhões)

2008
2009
2010
2011
2012
2013
Gerenciamenteo de
Virtualização de Servidores
901,6
1047,8
1390,4
1891,3
2539,2
3304,0
Infraestrutura de
Virtualização de servidores
843,5
717,8
559,2
391,6
246,8
143,2
HVD
37,8
79,8
152,1
301,1
503,8
795,6
Total
1.782,90
1.844,40
2.101,70
2.584,00
3.289,80
4.242,80
Fonte: Gartner (novembro 2009)

Os mantras para esse crescimento são repetidos por todos os gerentes e executivos da área: consolidação, promessa de redução de custo e vantagens de gerenciamento. Até a Microsoft resolveu engrossar o coro. 
“Os ambientes virtuais vieram para ficar”, diz Antonio Moraes, gerente-geral da divisão de servidores da Microsoft Brasil. “A tendência aponta para a cloud computing e estamos empenhados em oferecer o que o mercado exige”. 
Se a detentora da maior base instalada de PCs reconhece que o “futuro é virtualizado”, não sobra muito á o que discutir. A empresa chefiada por Steve Balmer luta com empenho para recuperar o tempo perdido, durante o qual a VMware avançou e alcançou a liderança do mercado.
Na tentativa de contra-ataque, no dia 19/03, a Microsoft simplificou uma estratégia de licenciamento que praticava. Os clientes deixarão de pagar, a partir de 01/06, licenças separadas para acessar o servidor dentro de um ambiente VDI (virtual desktop infrastructure). No Brasil, o processo em voga é o de “evangelização” do mercado. Para isso, a software house promove road shows em sete cidades brasileiras.
A Intel também vê chances de vendas para clientes em vários estágios da virtualização. A Virtualização 1.0 (buscada por cerca de 60% a 70% da demanda brasileira) vem atrás de argumentos como a redução de custos, economia do espaço físico e uma conta de luz mais baixa. “Há uma outra demanda, que podemos chamar de Virtualização 2.0, em que o apelo é a eficiência e a flexibilidade”, explica Marcel Saraiva, gerente de desenvolvimento de mercado da Intel Brasil.
Segundo ele, essa demanda representaria cerca de 20% a 35% dos clientes. Haveria ainda um raro tipo de adopter, aquele que estaria em busca da chamada Virtualização 3.0.
As palavras-chave, nesse caso, são “recursos infinitos” e “cloud computing”. No Brasil, o número desse tipo de demanda nem beira os 5%. A fabricante de processadores e fornecedora de soluções para servidores aposta na tendência de crescimento dos negócios apontados pelos institutos de pesquisa. A virtualização será um dos motes da chamada “Revolução Silenciosa”, estratégia de marketing da Intel, cujos anúncios serão feitos ao mercado corporativo a partir do dia 31/03, em um evento especialmente planejado para isso.

Por que computação em nuvem? Por que agora?


As exigências de TI das partes interessadas nos negócios estão aumentando. 
Toda decisão de negócios impacta a área de TI, e a aceleração do mercado força a recompensa dos pioneiros do mercado. Contudo, a maioria dos serviços e aplicativos corporativos é criada com base em pilhas de tecnologia fortemente integradas, que são difíceis de serem alteradas e caras para serem gerenciadas. O provisionamento de um novo servidor de e-mail ou mecanismo de Business Intelligence, por exemplo, pode exigir meses de espera apenas para compras de hardware e configurações de imagens do sistema. 

Surpreendidas pela redução dos recursos e pelo aumento das necessidades de negócios, as organizações estão buscando a computação em nuvem para oferecer um modelo de computação mais eficiente, flexível e barato, para que a área de TI possa trabalhar com mais eficiência e responder com mais rapidez às oportunidades de negócios. O objetivo é fornecer a TI como serviço, e a computação em nuvem oferece a arquitetura técnica para isso.


Você está pronto para a computação em nuvem?

As organizações de TI que abordarem a transição para a nuvem de maneira estratégica e metódica serão as mais bem-sucedidas.
Quando começou a pensar em transferir uma ou mais cargas de trabalho para uma infraestrutura em nuvem interna ou externa, você:

Analisou seu portfólio e priorizou os aplicativos que tirariam maior proveito de uma abordagem de computação em nuvem?

 Atingiu 100% da virtualização das cargas de trabalho que você está visando para a nuvem, incluindo a virtualização da infraestrutura (servidores, armazenamento e rede)?

Considerou ou definiu os serviços padrão que você deseja oferecer com os níveis de serviço associados?

 Descreveu e, em alguns casos, redefiniu os protocolos de segurança e os requisitos de conformidade?

 Otimizou sua arquitetura, infraestrutura e procedimentos e políticas organizacionais, incluindo controle, para oferecer suporte a um modelo de consumo de serviço?

 Considerou como alterar sua abordagem para o planejamento de capacidade, já que estará usando um pool compartilhado de recursos gerenciados e os usuários finais terão acesso direto aos recursos do sistema?

 Discutiu como executará a cobrança retroativa ou a apresentação de custos aos usuários e à empresa?

 Considerou o gerenciamento de mudanças na área de TI, nas linhas de negócios, na aquisição e em outros itens que serão necessários para oferecer suporte à transição para a computação em nuvem, incluindo mudanças em funções, capacitação, treinamento e procedimentos de certificação?

Avalie bem!!


AS EMPRESAS


As grandes empresas que utilizam virtualização hospedadas em servidores IBM, DELL, HP e Compaq usam em 90% dos casos tecnologia VMware, tecnologia esse que possui mais de 10 anos no mercado, além de uma grande comunidade e vários mecanismos de suporte para atender a crescente demanda de mercado.
Em caso de empresas menores que utilizam servidores montados, mas que não tenham dinheiro suficiente para comprar a solução VMware, é aconselhável a implementação da solução Xen Server. Temos no Brasil uma grande comunidade de pessoas que já administram ambientes virtuais com Xen server, esta solução de virtualização tem recebido elogios devido a sua estabilidade e facilidade quanto administração.
Temos casos de administração de um ambiente virtual por um único profissional com cerca de 75 máquinas virtuais XEN (RHEL), distribuídos em clusters de 2 nós cada (RHCS). Entre as VMs, tendo cerca de 12 bancos de dados (Oracle), alguns com cerca de 1.5TB de dados.


AVALIAÇÃO DO SEU AMBIENTE


O correto é executar uma avaliação do seu ambiente levantando em conta os seguintes pontos:


  • Quantidade de servidores presentes e a quantidade de servidores que você ou sua empresa prevê crescer nos próximos 3 anos.
  • Quantidade de processamento utilizado atualmente pelos seus servidores, também é importante levantar a quantidade ociosa.
  • Utilização de tráfego de redes em seus switches e roteadores para o dimensionamento da sua rede virtualizada.
  • Espaço em disco/storage utilizado pelos seus servidores e a quantidade prevista de crescimento para os próximos 3 anos.
  • Levantamento da capacidade de leitura e escrita do seus discos/storage atual, você precisa destes dados para escolha a melhor solução de storage para o seu ambiente.

Tanto para virtualização de servidores como para virtualziação de desktops, VDI, são necessários 4 pilares básicos, são estes:


  • Storage
  • Redes
  • CPU
  • Memória
Estes quatro componentes são a base para a criação de um ambiente virtual adequado para solução que você e sua empresa desejam implementar. Para o correto dimensionamento de um ambiente virtual primeiro é necessário o levantamento de todas as funcionalidades que você deseja implementar, além é claro, da escolha da solução de virtualização que trará mais benefícios ao seu ambiente, Xen Server ou vSphere.

O SURGIMENTO DO VDI


Com a descentralização dos servidores e serviços de TI, ocorreu o ganho de performance e a redução dos valores de servidores, criando assim novas tecnologias como o VDI (Virtual Desktop Infrastructure) da VMware. A virtualização de desktops ou VDI, onde todas as informações ficam armazenadas em servidores e o usuário as acessa via thin clients, computadores com poucos recursos. Caso tenhamos a contratação de um novo funcionário na contabilidade, esse funcionário terá os mesmos acessos e privilégios de um outro funcionário já residente, já que é só clonar a máquina virtual já existente, e em poucos segundos você terá um ambiente produtivo para o trabalho.
No VDI cada usuário roda a sua aplicação com o seu próprio Sistema Operacional, Sistema Operacional esse que está virtualizado nos servidores VMware ESX alocados em um datacenter. O VDI segue os mesmos princípios de backup da virtualização de servidores, caso uma máquina virtual apresente um determinado problema, o restore da mesma será em poucos minutos desde que seja implementada uma política de backup adequada. Isso diminui em muito o tempo de suporte quanto a manutenção de desktops de grandes empresas.


terça-feira, 5 de novembro de 2013

Comparação entre diferentes sistemas operacionais virtuais hospedados em virtuailização VMware e virtualização ESX


Algumas análises dizem que o Xen server possui performance superior a VMware, a paravirtualização é melhor que a virtualização completa. Uma das maiores vantagens do uso do Xen como VMM na paravirtualização é o fato de que este apresenta um desempenho melhor do que os produtos de virtualização total, quando a máquina física hospedeira não tem instruções de hardware de suporte a virtualização. No entanto, há necessidade de que o sistema visitante seja portado para o Xen, o que não chega a ser uma desvantagem, já que os sistemas operacionais mais comuns no mercado têm versões para o Xen. Alguns dos sistemas suportados pelo Xen: Linux, FreeBSD e Windows XP.
Já o VMware, possui uma quantidade bem maior de sistemas operacionais virtuais que ele consegue suportar se compararmos ao Xen server, além de uma grande quantidade de ferramentas adicionais de outros fornecedores de soluções de virtualização que se integram ao VMware.
O gráfico aponta claramente a superioridade da tecnologia de virtualização fornecida pela VMware.
A Intel e a AMD vêm lançado no mercado processadores com instruções dedicas a tecnologia de virtualização, Intel VT e AMD-V, tendo ganhos de mais de 30% de performance em comparação a processadores sem essa tecnologia, exemplo disso é que o hypervisor passar a ter total prioridade sobre o hardware utilizando estes tipos de processadores.
Virtualização no Nível do Sistema Operacional

  Permite a criação de maquinas virtuais no nível do sistema operacional. Este tipo de virtualização não emprega VMM (hypervisors). Em vez disso, a capacidade de virtualização é parte do sistema operacional do hospedeiro que executa todas as funções de um VMM. Assim, é possível ter varias maquinas virtuais isoladas e seguras em um único servidor físico. Nesta técnica, o sistema operacional das maquinas virtuais e do hospedeiro devem ser iguais. Exemplos: ParallelsVirtuozzo e UserMode Linux.




DIMINUIÇÃO DE ADMINISTRADORES E TEMPO DE RESTORE DE MÁQUINAS


A virtualização trouxe a diminuição de administradores ou analistas de suporte por ambientes, onde chegamos a ter 1 administrador ou analista de suporte para 83 máquinas virtuais, diferente de 1 administrador ou analista para cada 25 servidores Windows ou Unix/Linux. Isso devido a capacidade de controle de desastres, performance e dimensionamento correto de recursos para cada ambiente. O restore de uma máquina virtual ocorre em até 30 minutos dependendo da política de backup implementada para o ambiente virtual, muito diferente das várias horas de restore de um ambiente físico.