Publicado por: Hernán Paggi 4.2.14



VMTurbo es una empresa basada en la creencia de que la gestión de operaciones de TI necesita ser cambiada de manera radical para que las empresas liberen el valor total de los servicios virtualizados de su infraestructura y en la nube Su idea es que el enfoque debe desplazarse desde arriba hacia abajo y no al revés, que se debe hacer énfasis en la transición de la intervención manual hacia análisis predictivos que permitan identificar las acciones necesarias para controlar el entorno virtual y mantenerlo en estado óptimo. Se debe lograr que las aplicaciones obtengan los recursos que necesitan para satisfacer objetivos de negocio mientras se hace un uso más eficiente de los recursos de red, almacenamiento y computación. La virtualización es un factor clave, sin dudas, pero las herramientas de gestión existentes deben permitir aprovechar esta nueva arquitectura con eficacia.

Con los métodos tradicionales se dedica mucho tiempo a recabar información desde miles de fuentes de datos, desencadenando alertas basadas en anomalías percibidas y dejando a los operadores de TI con la difícil tarea de averiguar qué hacer para devolver el sistema a un rendimiento aceptable. Estos enfoques, por definición, conducen a un servicio imprevisible y se vuelven cada vez más complejos debido a las fluctuaciones de las cargas de trabajo, el movimiento de las máquinas virtuales y todos los beneficios que acompañan a la infraestructura virtual. Para hacerlo bien, el marco de gestión de las operaciones debe tener tres características importantes en su diseño:


  • El enfoque debe estar orientado en una visión de arriba hacia abajo de la infraestructura, con una capa de abstracción que permite modelar rápidamente el entorno y eliminar la carga de la recopilación de datos.
  • El modelo debe ser capaz de comprender todo el entorno y todas las limitaciones y las interdependencias que existen en su interior .
  • El motor analítico debe ser construido con el objetivo de la prescribir acciones específicas que permitan mantener la infraestructura en el estado deseado en base a reglas de negocio: la automatización del proceso de toma de decisiones para las operaciones de TI.


Repensar el enfoque de la gestión de operaciones de IT


En concepto, la virtualización ofrece una oportunidad increíble para cambiar la forma en que se gestionan los recursos y para cambiar dinámicamente las configuraciones de asignación de recursos y la carga de trabajo para las aplicaciones que funcionan a través de una infraestructura física compartida. Los ejemplos de las decisiones que se pueden ejecutar a través de estos controles de software incluyen la alteración de la colocación de la carga de trabajo en los servidores y la infraestructura de almacenamiento, el cambio de los límites y reservas de recursos de la máquina virtual, arrancar y parar las máquinas virtuales, etc. En efecto, la virtualización permite que el entorno escale de manera horizontal para satisfacer la demanda de carga de trabajo específico y de manera vertical para reasignar recursos en función de los requisitos de carga de trabajo existente.

Estos controles proporcionan una manera ágil para que los operadores de TI puedan optimizar el uso de los recursos o los cuellos de botella de rendimiento reportados por los sistemas de alerta. Sin embargo, debido a la naturaleza compartida de la infraestructura virtualizada y la fluctuación dinámica de cargas de trabajo, las decisiones sobre la manera de orquestar estos controles deben tomarse con mucho cautela para evitar cualquier acción que pueda afectar el rendimiento y la eficiencia de otros servicios de IT. Por ejemplo, la reconfiguración de la colocación de las máquinas virtuales en servidores en un clúster o la modificación del tamaño de una máquina virtual en un host podría resolver el cuello de botella de recursos específicos, pero también podría causar limitaciones de recursos en todo el entorno. Este efecto puede afectar las aplicaciones o cargas de trabajo que son más sensibles a la latencia o crítica para el negocio.

El número de variables, restricciones y dependencias que deben ser considerados para tomar decisiones eficaces es inmensa. Cuando estos problemas se combinan con la naturaleza dinámica de la propia infraestructura virtual se crea un problema exponencial complejo en su naturaleza. Y, como el entorno crece más allá de algunos hosts físicos se hace imposible calcular antes de que ocurran las variaciones en los datos. Fundamentalmente, el enfoque tradicional de la recopilación de datos, generación de alertas y solución de problemas de forma manual no se puede escalar para satisfacer los requerimientos de esta nueva arquitectura. Por otra parte, este enfoque no está diseñado para aprovechar la fluidez inherente a los datacenters virtuales para controlar el entorno sobre la base de las demandas de carga de trabajo, la capacidad de recursos y las restricciones de configuración y de negocios.

Los beneficios clave a un nuevo enfoque son:


  • Proporciona una experiencia de usuario más estable y consistente , asegurando la calidad del servicio de las aplicaciones virtualizadas
  • Reduce los costos operativos al reducir el número de problemas e incidentes de TI debe manejar
  • Mejora el rendimiento de la inversión de los activos informáticos y de almacenamiento por conducir los niveles más altos de utilización de todo el entorno de la hora de determinar una estrategia de garantía de rendimiento de los servicios virtualizados , es importante establecer la distinción entre los proveedores sobre la base de varias diferencias clave en la forma en que el enfoque de las soluciones de la solución de este complejo conjunto de desafíos.



Modelo de recolección de datos de abajo hacia arriba VS modelo de abstracción de arriba hacia abajo


Las soluciones que proporcionan sistemas de visibilidad y alerta a menudo incorporan motores de análisis de datos que se centran en el examen de miles de métricas de rendimiento para identificar patrones anormales en los datos que pueden inferir en un posible impacto en el rendimiento. En muchos casos estos motores analíticos se centran en umbrales y eventos correlacionados para identificar anomalías, basándose en el comportamiento aprendido. Esto es algo problemático, ya que los eventos de umbrales y el comportamiento aprendido puede ser engañoso si el ambiente es irregular, si cambia con frecuencia o no está configurado de manera óptima.

Lo más importante es que estos enfoques de recolección de datos de abajo hacia arriba es que no están diseñados con el objetivo de determinar las acciones necesarias para controlar sistemáticamente la asignación de recursos y el rendimiento de la carga de trabajo. Debido a que se centran exclusivamente en la gran cantidad de parámetros individuales en la capa de infraestructura, carecen de la necesaria comprensión de las relaciones topológicas y dependencias que se requieren para conducir eficazmente las decisiones inteligentes en todo el entorno de TI, que se traducen en el mantenimiento de la "salud" de la infraestructura. A lo sumo, se presentan los operadores con grandes cantidades de datos de eventos y les obligan a profundizar en él con la esperanza de determinar lo que es preciso para tomar medidas que hagan frente a la anomalía.

Un mejor enfoque es uno de arriba hacia abajo, que entiende los puntos de control que se pueden aprovechar para sintonizar el entorno y utilizar sólo los datos que son necesarios para dictar las medidas que hagan falta para mantener el sistema en el estado de funcionamiento óptimo. Hacer esto correctamente requiere una capa de abstracción a través del entorno a través del cual se puede ejecutar el modelo analítico para determinar las acciones correctas basadas en reglas de negocio e interdependencias del sistema. Esto resuelve la recopilación de datos a escala, tema que puede manifestarse en entornos más grandes y asegura que el motor de análisis está diseñado para prescribir acciones con pleno conocimiento de las relaciones topológicas en la infraestructura. Centrándose concretamente en los análisis preceptivos, este tipo de solución se aproxima a la gestión de las operaciones con el objetivo de evitar las limitaciones de rendimiento basados ​​en las prioridades de nivel de servicio y la determinación de las acciones específicas que se asignen recursos de forma apropiada.


Elemento vs Optimización de recursos basada en el entorno


La optimización de recursos es un beneficio clave comercializado por los vendedores de productos para la gestión de operaciones de TI. Sin embargo, es importante evaluar adecuadamente lo que cada vendedor está ofreciéndo en realidad. Se debe evaluar si es una solución basada en métricas individuales a nivel de componente que optimiza el entorno basándose en una visión reducida de cada elemento, o si se trata de una solución más completa que puede comprender las limitaciones y las interdependencias del entorno.

La optimización centrado en elementos simples es bastante sencilla, ya que se centra en los requisitos y las restricciones sobre una base de métricas individuales específicas para una determinada carga de trabajo o recurso físico. La aplicación más común de esta en los entornos virtuales es la de dimensionar de forma correcta una máquina virtual. Por ejemplo, es posible ver una máquina virtual individual y concluir que los recursos de memoria, CPU o almacenamiento se deberían incrementar por encima del umbral establecido. Sin embargo, tomar estas acciones podría crear problemas mayores en el entorno si no se consideran en el contexto de otras cargas de trabajo que comparten esos recursos. Antes de aumentar la asignación de recursos es posible que las máquinas virtuales deban ser trasladadas a diferentes hosts para crear el espacio necesario en el entornoe y que el cambio no afecte el rendimiento de otras cargas de trabajo. Si simplemente no hay suficiente capacidad en el entorno para cumplir con el aumento de la demanda, deben agregarse recursos físicos en vez de recursos virtuales. Además, si no hay capacidad disponible y los recursos en el entorno se ven limitados, la comprensión de los niveles de servicio o la prioridad de negocio de esta carga de trabajo en comparación con otros en el sistema requerirá atender antes esta necesidad.


Proceso vs Automatización de las decisiones


Al igual que con la optimización de recursos, el término automatización se utiliza mucho en el léxico de comercialización de todos los proveedores de gestión de operaciones de IT. Son soluciones que automatizan muchas de las tareas del funcionamiento del datacenter virtual. Sin embargo, no resuelven las necesidades de toma de decisiones complejas a la que la mayoría de los operadores de IT se enfrentan en el mantenimiento del entorno. En realidad, estas soluciones se adaptan bien a la automatización donde los pasos individuales en el proceso pueden ser muy claramente definidos, programados y ejecutados en un motor de flujo de trabajo.

Por desgracia, la determinación de las acciones necesarias para maximizar el rendimiento y la eficiencia a través de la infraestructura virtualizada no es una tarea fácil, ya que cada carga de trabajo tiene sus particularidades y consume recursos de manera diferente a las demás. Esto significa que pueden obtenerse resultados muy diferentes dependiendo de cómo se combinan las cargas de trabajo en diferentes recursos del servidor y de almacenamiento y en base a al tamaño de los recursos físicos o virtuales. Las decisiones automatizadas requieren un nivel más profundo de comprensión más allá de la forma de ejecutar procesalmente un conjunto de tareas. Para garantizar eficazmente el rendimiento la solución debe ser capaz de determinar cuáles son las tareas a realizar.

De hecho, la automatización de procesos en sí es la parte fácil. Para resolver el desafío de la gestión del rendimiento de carga de trabajo, un motor de análisis de decisión debe determinar y preveer la asignación de recursos y configuraciones de carga de trabajo en función de la evaluación de múltiples criterios de forma permanente. Esto incluye la demanda y los patrones de carga de trabajo individual, la capacidad de los recursos físicos y virtuales asignados, las limitaciones de entorno y comerciales que afectan las decisiones que en realidad se pueden tomar, todo esto con pleno conocimiento del efecto sistemático de la ejecución de esas decisiones en el entorno. Una vez que se han identificado las acciones, las capacidades de automatización están disponibles en la capa de virtualización a través de APIs o por medio de soluciones de automatización integrales. Asegurar continuamente el rendimiento de carga de trabajo y aumentar al máximo la utilización de la infraestructura subyacente es un problema complejo de resolver. Requiere un motor altamente sofisticado de toma de decisiones, debe tener una visión holística del entorno construido sobre una capa de abstracción que reduce la complejidad y una comprensión de arriba hacia abajo de los puntos de control de la infraestructura virtualizada para que puedan tomarse las acciones correctas.


Conclusión


La solución de VMTurbo es una solución de gestión de operaciones que se centra específicamente en la aplicación de este nuevo enfoque de la planificación, incorporación y control de los centros de datos virtualizados. Al automatizar el proceso de toma de decisiones en el software, VMTurbo Operations Manager maximiza la utilización de la infraestructura física, garantiza que las aplicaciones críticas tengan los recursos que necesitan y reduce los costos operativos de la gestión de los datacenters virtuales. Para lograrlo, el producto cuenta con una abstracción económica  de la infraestructura de IT y utiliza un enfoque basado en el mercado impulsado por los principios de fijación de precios para derivar las acciones específicas que ajustan el entorno de acuerdo al rendimiento y utilización óptimas. VMTurbo es el único proveedor que ofrece un sistema de gestión de ciclo cerrado capaz de asegurar de manera integral la calidad de servicio de las cargas de trabajo y aumentar al máximo la eficiencia de la infraestructura. La solución identifica continuamente ineficiencias, la contención de recursos y los cuellos de botella en el sistema y es capaz de determinar  y automatizar las acciones necesarias para controlar el entorno.

Comentar

Suscribirse a los artículos | Suscribirse a los comentarios

Idioma / Language

Certificaciones

Certificaciones

Artículos populares

Compartir al pie del post

Seguidores de Google+

Hernán Paggi. 2014. Todos los derechos reservados. Con tecnología de Blogger.

Suscripción de noticias

Suscríbase para recibir noticias en su correo electrónico

- Copyright © VMware Virtualization Blog -Metrominimalist- Powered by Blogger - Designed by Johanes Djogan -