2. • La virtualización es una tecnología de software
probada que está transformando con rapidez el
panorama de TI y está cambiando totalmente el
modo de manejar la computación.
3. • El potente hardware de las computadoras x86 de hoy
en día fue diseñado para ejecutar un solo sistema
operativo y una sola aplicación. Esto hace que la
mayoría de las máquinas estén subutilizadas. La
virtualización le permite ejecutar varias máquinas
virtuales en una sola máquina física, y compartir los
recursos de esa computadora en varios entornos.
4. • Diferentes máquinas virtuales pueden ejecutar distintos
sistemas operativos y varias aplicaciones en una misma
computadora física.
6. • Una máquina virtual es un contenedor de software
aislado que puede ejecutar sus propios sistemas
operativos y aplicaciones como si fuera una
computadora física. Una máquina virtual se
comporta exactamente como una computadora
física ya que contiene su propia CPU, memoria RAM,
disco duro y tarjeta de interfaz de red (NIC) virtuales
(es decir, basados en software).
7. • Un sistema operativo no puede notar la
diferencia entre una máquina virtual y una
máquina física, así como tampoco las
aplicaciones u otras computadoras en una
red. Incluso la máquina virtual "cree" que
es una computadora física.
Pero una máquina virtual está compuesta totalmente
por software y no contiene ningún tipo de componente
de hardware. Por lo tanto, las máquinas virtuales
ofrecen una cantidad de ventajas únicas sobre el
hardware físico.
9. • En general, las máquinas virtuales poseen cuatro
características fundamentales para el usuario:
– Compatibilidad: las máquinas virtuales son compatibles
con todas las computadoras x86 estándar.
– Aislamiento: las máquinas virtuales se encuentran aisladas
entre sí como si estuvieran separadas físicamente.
– Encapsulamiento: las máquinas virtuales encapsulan un
entorno de computación completo.
– Independencia del hardware: las máquinas virtuales
funcionan independientemente del hardware subyacente.
10. Desventajas de la Virtualizacion de servidores
- Aplicaciones son más lentas
- Interoperabilidad entre diferentes máquinas virtuales
- A través de pruebas se ha determinado que se logran pequeñas mejoras en
servidores (Java, de correo, servidor Web, servidor de base de datos y
servidor de archivos) utilizando virtualización.
- Aplicaciones nativas del microprocesador
11. • Las máquinas virtuales son un pilar importante para
una solución mayor: la infraestructura virtual.
Si bien una máquina virtual simula los recursos de
hardware de una computadora entera, la
infraestructura virtual simula los recursos
interconectados de hardware de una infraestructura
de TI completa (incluso las computadoras, los
dispositivos de red y los recursos de
almacenamiento compartido).
12. • Organizaciones de todo tipo utilizan soluciones
similares para construir infraestructuras virtuales de
servidor y escritorio que mejoran la disponibilidad, la
seguridad y la capacidad de administración de las
aplicaciones de misión crítica.
14. • Existen diferentes plataformas de virtualización en el
mercado (VmWare, Hyper-V, Xen, etc…), que vienen
moduladas con una arquitectura diseñada para el
negocio.
• Con estos software de virtualización, se pueden
transformar o virtualizar los recursos de hardware de
una computadora basada en x86 (incluso la CPU, la
memoria RAM, el disco duro y el controlador de redes) y
crear una maquina virtual totalmente funcional que
pueda ejecutar su propio sistema operativo y
aplicaciones como si fuera una computadora física.
15. • Cada máquina virtual contiene un sistema completo, lo
que elimina conflictos potenciales. La virtualización
introduce una capa ligera de software directamente en
el hardware de la computadora o en un sistema
operativo anfitrión. Ésta contiene un monitor de
máquina virtual o "hipervisor" que asigna recursos de
hardware de forma dinámica y transparente. Varios
sistemas operativos funcionan simultáneamente en una
sola computadora física y comparten recursos de
hardware entre sí.
17. • Gracias al encapsulamiento total de una máquina,
que incluye la CPU, la memoria, el sistema operativo
y los dispositivos de red, la máquina virtual es
totalmente compatible con todos los sistemas
operativos, aplicaciones y controladores de
dispositivos x86 estándar.
18. • Ademas, también se pueden ejecutar varios sistemas
operativos y aplicaciones de forma segura y al mismo
tiempo en una computadora y que cada uno de ellos
tenga acceso a los recursos que necesita cuando los
necesita.
19. • La virtualización de una computadora física es sólo el
comienzo, ya que se puede construir una
infraestructura virtual entera y escalarla a cientos de
computadoras físicas y dispositivos de
almacenamiento interconectados, que permiten
implementaciones como base para la creación de
nubes publicas y privadas
20. • Al hacer esto no es necesario asignar servidores,
almacenamiento o ancho de banda de red de forma
permanente para cada aplicación. Por el contrario, sus
recursos de hardware se asignan de forma dinámica
cuando y donde se necesita en su nube privada.
• Las aplicaciones de mayor prioridad siempre cuentan con
los recursos necesarios, evitando así invertir dinero en
hardware que sólo se utiliza en horarios pico.
23. • La virtualización comenzó a desarrollarse en la década de
los sesenta para particionar grandes piezas de hardware
mainframe y lograr una mejor utilización de hardware.
En la actualidad, las computadoras basadas en
arquitecturas x86 se enfrentan al mismo problema de
rigidez y subutilización que enfrentaron los mainframes
en la década de los sesenta.
• Empresas como VMware comenzaron el tema de la
virtualización para plataformas x86 en la década de los
noventa para combatir la subutilización y otros
problemas, y tuvo que enfrentar muchos desafíos en el
camino.
24. • El comienzo: virtualización de mainframe
• IBM implementó la virtualización por primera vez
hace más de 30 años para particionar de manera
lógica computadoras mainframe en máquinas
virtuales separadas. Estas particiones permitieron
que las mainframes ejecutaran múltiples tareas a la
vez, es decir, que ejecutaran varias aplicaciones y
procesos al mismo tiempo.
25. • Debido a que las mainframes constituían recursos
costosos en ese momento, fueron diseñadas para
permitir la creación de particiones como un modo de
aprovechar totalmente la inversión.
26. • La necesidad de la virtualización x86
• La virtualización se abandonó efectivamente durante las
décadas de los ochenta y noventa, cuando las
aplicaciones de cliente-servidor y los servidores y
escritorios x86 poco costosos dieron paso a la
computación distribuida. La adopción masiva de
Windows y la aparición de Linux como sistemas
operativos para servidores en la década de los noventa
establecieron a los servidores x86 como el estándar de la
industria.
27. • El crecimiento en las implementaciones de servidores y
escritorios x86 generó nuevos desafíos operacionales y
de infraestructura de TI. Estos desafíos incluyen:
– Poca utilización de la infraestructura: las
implementaciones típicas de servidores x86 alcanzan un
promedio de utilización de solo el 10-15% de la capacidad
total, según International Data Corporation (IDC), una
empresa de investigación de mercado. Las organizaciones
suelen ejecutar una aplicación por servidor para evitar que
la vulnerabilidad de una aplicación afecte la disponibilidad
de otra aplicación del mismo servidor.
28. – Mayores costos de infraestructura física: los gastos
operacionales que sustentan el crecimiento de la
infraestructura física han aumentado de manera continua.
La mayor parte de la infraestructura de computación debe
estar en funcionamiento en todo momento, lo que implica
un costo por consumo de energía, refrigeración e
instalaciones que no varía de acuerdo con los niveles de
utilización.
29. – Mayores costos de administración de TI: a medida que los
entornos de computación se vuelven más complejos, el
nivel de capacitación y experiencia especializada
requeridos para el personal de administración de
infraestructura y los costos asociados a tal personal
aumentan. Las organizaciones gastan tiempo y recursos de
forma desproporcionada en tareas manuales asociadas al
mantenimiento de servidores, y eso requiere más
personal.
30. – Insuficiencia de conmutación de recuperación y
protección contra desastres: las organizaciones se ven
cada vez más afectadas por el tiempo fuera de servicio de
aplicaciones fundamentales de servidor y la falta de
accesibilidad de escritorios fundamentales de usuario
final. La amenaza de los ataques a la seguridad, los
desastres naturales, las pandemias y el terrorismo han
aumentado la importancia de una planificación para la
continuidad del negocio en cuanto a servidores y
escritorios.
31. – Demasiado mantenimiento para los escritorios
de usuario final: la administración y la seguridad
de los escritorios empresariales generan varios
desafíos. Controlar un entorno distribuido de
escritorio y promover políticas de administración,
acceso y seguridad sin afectar el trabajo efectivo
de los usuarios es complejo y muy costoso. Es
necesario cambiar a versiones superiores y aplicar
parches continuamente en los entornos de
escritorio para eliminar las vulnerabilidades de
seguridad.
32. • Desafíos y obstáculos de la virtualización x86
• A diferencia de las mainframes, las máquinas x86 no
fueron diseñadas para ser compatibles con la
virtualización total; por ende, los programas de
virtualizacion del momento, tuvieron que enfrentar
desafíos enormes para crear máquinas virtuales a
partir de computadoras x86.
33. • La función básica de la mayoría de las CPU, tanto en
mainframes como en PC, es ejecutar una secuencia de
instrucciones almacenadas (es decir, un programa). En
los procesadores x86, hay 17 instrucciones específicas
que generan problemas al ser virtualizadas, lo que
provoca que el sistema operativo muestre una
advertencia, cierre la aplicación o simplemente colapse
todo el sistema. Por lo tanto, estas 17 instrucciones
representaron un gran obstáculo en la implementación
inicial de la virtualización en computadoras x86.
34. • Para manejar las instrucciones problemáticas en la
arquitectura x86, con software como el VMware se
desarrollaron unas técnicas de virtualización adaptables
que "atrapan" estas instrucciones a medida que se
generan y las convierte en instrucciones seguras que se
pueden virtualizar, al mismo tiempo que permite que las
demás instrucciones se ejecuten sin intervención. El
resultado es una maquina virtual de alto rendimiento y
del mismo nivel del hardware anfitrión que mantiene
una compatibilidad de software total.
35. • VMware dio los primeros pasos con esta técnica y hoy es
el líder indiscutible en cuanto a tecnología de
virtualización
37. • Rápida incorporación de nuevos recursos para los servidores
virtualizados.
• Reducción de los costes de espacio y consumo necesario de
forma proporcional al índice de consolidación logrado
(Estimación media 10:1).
• Administración global centralizada y simplificada.
• Nos permite gestionar nuestro Datacenter como un pool de
recursos o agrupación de toda la capacidad de
procesamiento, memoria, red y almacenamiento disponible
en nuestra infraestructura
38. • Mejora en los procesos de clonación y copia de sistemas:
Mayor facilidad para la creación de entornos de test que
permiten poner en marcha nuevas aplicaciones sin impactar a
la producción, agilizando el proceso de las pruebas.
• Aislamiento: un fallo general de sistema de una máquina
virtual no afecta al resto de máquinas virtuales.
• Mejora de TCO (coste total de propiedad ) y ROI (retorno de
la inversión).
• No sólo aporta el beneficio directo en la reducción del
hardware necesario, sino también los costes asociados.
• Reduce los tiempos de parada.
39. • Migración en caliente de máquinas virtuales (sin pérdida de
servicio) de un servidor físico a otro, eliminando la necesidad
de paradas planificadas por mantenimiento de los servidores
físicos.
• Balanceo dinámico de máquinas virtuales entre los servidores
físicos que componen el pool de recursos, garantizando que
cada máquina virtual ejecute en el servidor físico más
adecuado y proporcionando un consumo de recursos
homogéneo y óptimo en toda la infraestructura.
40. • Alto grado de satisfacción general.
• La virtualización mejora notablemente la eficiencia y la
disponibilidad de recursos y aplicaciones de su organización.
Los recursos internos se subutilizan con el antiguo modelo de
"un servidor = una aplicación" y los administradores gastan
demasiado tiempo en la administración de servidores y no en
la innovación.
42. • La virtualización se puede hacer desde un sistema
operativo Windows, ya sea XP, Vista u otra versión que
sea compatible con el programa que utilicemos, en el
que virtualizamos otro sistema operativo como Linux o
viceversa, que tengamos instalado Linux y queramos
virtualizar una versión de Windows.
43. • Virtualización por HW (HARDWARE)
• Virtualización asistida por Hardware son extensiones
introducidas en la arquitectura de procesador x86 para
facilitar las tareas de virtualización al software corriendo
sobre el sistema. Si cuatro son los niveles de privilegio o
"anillos" de ejecución en esta arquitectura, desde el cero o de
mayor privilegio, que se destina a las operaciones del kernel
de SO, al tres, con privilegios menores que es el utilizado por
los procesos de usuario, en esta nueva arquitectura se
introduce un anillo interior o ring -1 que será el que un
hypervisor o Virtual Machine Monitor usará para aislar todas
las capas superiores de software de las operaciones de
virtualización.
44. • La virtualización de almacenamiento
• Se refiere al proceso de abstraer el almacenamiento lógico
del almacenamiento físico, y es comúnmente usado en SANs
("Storage Area Network" o Red de area de almacenamiento).
Los recursos de almacenamiento físicos son agregados al
"storage pool" (almacén de almacenamiento), del cual es
creado el almacenamiento lógico.
45.
46. • Particionamiento o Clustering
• Es la división de un solo recurso (casi siempre grande), como
en espacio de disco o ancho de banda de la red, en un
número más pequeño y con recursos del mismo tipo que son
más fáciles de utilizar. Esto es muchas veces llamado
“zoning”, especialmente en almacenamiento de red.
47. • Máquina virtual
• La entenderemos básicamente como un sistema de
virtualización, denominado "virtualización de servidores", que
dependiendo de la función que esta deba de desempeñar en
la organización, todas ellas dependen del hardware y
dispositivos físicos, pero casi siempre trabajan como modelos
totalmente independientes de este. Cada una de ellas con sus
propias CPUs virtuales, tarjetas de red, discos etc. Lo cual
podría especificarse como una compartición de recursos
locales físicos entre varios dispositivos virtuales.
49. • Como todos conocemos existen dos tipos de
programas: los que son de pago y los que no. Dentro
de los programas de pago encontramos uno de los
más famosos: el VMware, que es uno de los
referentes en el mercado. A pesar de ser de pago
también existe una versión más básica que es
gratuita, Vmware Player, que permite virtualizar a
través de una máquina virtual ya configurada.
50. • También existen webs que nos permiten rellenar un
formulario y descargarnos nuestra máquina virtual a
nuestro gusto como EasyVMX! Parallels Virtuozzo
Containers, es otro de los programas de pago más
famosos, que permite la virtualización a nivel de
sistema operativo o hardware Parallels Bare Metal.
Típicamente suele emplearse para virtualizar
Windows y, en menor medida, GNU/Linux.
51. • Dentro de los programas gratuitos tenemos el Virtual
PC de Microsoft, que es un producto de Windows,
compatible con versiones avanzadas de XP y Vista.
• Dentro de los programas de código libre están el
Xen, OpenVZ y VirtualBox, que funcionan tanto en
Mac OS, en Windows como en GNU/Linux y todos
permiten virtualizar los tres sistemas operativos más
famosos.