2 | Mayo 2014 - Logicalis Now SUMARIO 06 ........... TENDENCIA Top 10 tendencias de TIC para Latinoamérica en 2014 09 ........... CONSULTORÍA Productos de Data Center: del concepto a la experiencia del usuario 13 ........... NOTA TÉCNICA Data Centers: Hacia una gestión integral 17 ........... SOLUCIONES Centros de Datos que apoyan el negocio 20 ........... NOTA TÉCNICA SDN en Data Centers 06. Top 10 tendencias TIC 2014 23 ........... CASO DE EXITO Un Data Center de útima generación 34. ¿Qué es Big Data? 26 ........... SOLUCIONES Infraestructura: la era de la automatización 28 ........... SOLUCIONES Automatización y orquestación para Data Centers 30 ........... INTERVIEW Cloud llegó a Zonamerica Uruguay 32 ........... NOTA TÉCNICA Orquestación en el ambiente de Tecnología de la Información 34 ........... TENDENCIA ¿Qué es Big Data? 36 ........... SOLUCIONES 23. Un Data Center de última generación ViPR: la plataforma de almacenamiento definido por software de EMC 38 ........... SOLUCIONES El futuro de la nube 40. La nueva generación de Data Centers, SDN e Infraestructura para Cloud 40 ........... NOTA TÉCNICA La nueva generación de Data Centers, SDN e Infraestructura para Cloud 45 ........... NOTA TÉCNICA Soluciones de replicación entre Data Centers 48 ........... TENDENCIA Apuntando a la mejora del mundo virtual corporativo 50 ........... SERVICIOS Data Centers: ¿Cómo optimizar y economizar su gestión? 52 ........... NOVEDADES 32. Orquestación en el ambiente de Tecnología de la Información 48. Apuntando a la mejora del mundo virtual corporativo Logicalis Now - Mayo 2014 | 3 EDITORIAL Estimados lectores, Desde el inicio, el rol del Data Center es fundamental para las organizaciones. Sin embargo, en la actualidad los profesionales TI se enfrentan a grandes desafíos para lograr optimizar su funcionamiento, de acuerdo a las últimas tendencias, y economizando su gestión. En la presenta edición de Logicalis Now lo invitamos a conocer las últimas novedades, tendencias y soluciones de Data Center para su organización. Por último, lo invitamos a visitar nuestro renovado Web Site www.la.logicalis. com , en el cual encontrará mayor información de nuestros servicios y soluciones, agenda de eventos, noticias de nuestros partners, entre otros. Staff Comité editorial También nos puede seguir en nuestras redes sociales: Facebook, Twitter, YouTube y Slideshare. Rodrigo Parreira CEO, Logicalis Latam Carlos Pingarilho VP Logicalis Southern Cone Marcelo Senra Technology Director, Logicalis Southern Cone Andres González Consulting Services Manager, Logicalis Southern Cone Florencia Sidotti Strategy, Marketing & Communication, Logicalis Southern Cone Thais Cerioni Marketing PromonLogicalis Idea y coordinación María Victoria Muñoz Communication Coordinator Logicalis [email protected] 4 | Mayo 2014 - Logicalis Now www.la.logicalis.com [email protected] TENDENCIA Top 10 tendencias de TIC para Latinoamérica en 2014 La consultora IDC presentó su informe anual con foco en la región, que analiza los sucesos que ocurrirán en la industria de TI y Telecomunicaciones durante este año. A continuación, les presentamos las 10 predicciones para el mercado, el cual está atravesando un momento de fuertes cambios. La industria TIC en América Latina crecerá 3,2%, cifra que está por debajo del 4,1% que fue la media latinoamericana durante la última década. Este y otros datos se desprenden del Top 10 de tendencias de TIC para América Latina en 2014, publicado por la consultora IDC. Según los analistas, la inversión en tecnología alcanzará los 139 mil millones de dólares en hardware, software y servicios, lo que representa un incremento del 8,4% si se compara con 2013. Por su parte, la inversión en telecomunicaciones llegará a 219 mil millones de dólares, un crecimiento del 8% en comparación con el año anterior. En conjunto, el mercado TIC representará 358 mil millones de dólares para la región. Tras la desaceleración del consumo en Brasil, economías como las de Perú, Chile y Colombia mostraron mayor crecimiento promedio en la región (Perú, 6,3%; Chile, 4,8% y Colombia, 4,5%), gracias a cambios estructurales en los últimos años y acuerdos de co- 6 | Mayo 2014 - Logicalis Now mercio multilaterales, que llevan a esos mercados nuevas inversiones externas. Ricardo Villate, vicepresidente de IDC para América Latina, indicó que en 2014, la industria TIC continuará “el viaje transformacional, llamado migración a la tercera plataforma, que se basa en cuatro pilares fundamentales: cloud, Big Data, movilidad y red social”. A continuación, las 10 predicciones de IDC para la industria TIC latinoamericana en 2014: 1. Los ejecutivos de alto nivel continuarán incrementando su rol en las decisiones de compra de tecnología En 2014, la inversión en TI tendrá un impacto disruptivo en el rol que tienen las áreas de tecnología. Departamentos como marketing, ventas y recursos humanos incrementarán su participación en la adquisición de tecnología. IDC predice que en 2014 cerca de 20% de la inversión en hardware, software y servicios de las empresas (10 mil millones de dólares) saldrá de los presupuestos de la línea de negocios. 2. Las tecnologías de la Tercera plataforma y sus cuatro pilares (movilidad, Cloud, Big Data y redes sociales) tendrán gran crecimiento Se requiere actualizar voz y video sobre IP, proliferará el uso de dispositivos inalámbricos para redes y se incrementará el uso de la virtualización y el cómputo de nube. Se estima que más del 50% de las compañías buscarán mejorar la seguridad de sus redes. La red no ha sido la excepción de crecimiento. En una encuesta reciente realizada por IDC, se observó que el 53% de las empresas afirmaron que es una prioridad tener una red más robusta. Por su parte, el 61% de las compañías dijeron que la disponibilidad de ancho de banda suficiente es una preocupación principal para ellos. Adicionalmente, el gerenciamiento de la red continuará siendo un tema principal y la seguridad continuará ganando relevancia como requerimiento horizontal y a través de todas las tecnologías de comunicación. IDC espera que más del 60% de las empresas enfrenten la situación de mejorar la seguridad de su red WAN en 2014. 3. La administración de cargas de trabajo definirá la infraestructura y preparará el terreno para las infraestructuras convergentes Actualmente, se calcula que la mitad de las empresas latinoamericanas perciben y comprenden los conceptos y beneficios de infraestructuras convergentes, es decir, sistemas que integran un pull de procesamiento, almacenamiento y red común en una solución pre-integrada, con una ingeniería predefinida e incluye también herramientas para administrar los sistemas y la virtualización. 4. Big Data y analíticos dejarán de ser teoría para volcarse a la realidad Hace un año, se decía que Big Data iba a generar mucho ruido, pero aún no se utilizaba en el mercado. Esta situación está cambiando, y hay un nuevo punto de inflexión hacia Big Data en América Latina: en 2014, hay demanda real de tecnologías de Big Data. IDC estima un crecimiento sostenido de Big Data en América Latina, derivado de la integración y procesamiento de tecnologías nuevas, en donde la suma de hardware y software y los servicios alrededor de lo nuevo de Big Data alcanzará los 819 millones de dólares. La captura y análisis de datos transaccionales es omnipresente en las organizaciones en América Latina. Sin embargo, el uso de datos no estructurados y redes sociales halla en la región un campo fértil: es la región donde la penetración de Facebook es la más alta del planeta. Se calcula que el 64% de las compañías en la región usarán redes sociales públicas para marketing, servicio al cliente y ventas. 5. La adopción de la nube pública continuará siendo liderada por la modernización de aplicaciones Dos de cada tres empresas medianas y grandes capturan más de dos tipos de datos no transaccionales, como son video, texto, datos de sensores, tipos de datos que necesitan ser integrados al motor de analíticos del negocio (Business Analytics) de la organización. IDC espera que el crecimiento de servicios alrededor de la modernización de aplicaciones continúe empujando la adopción de diferentes cargas de trabajo en la nube pública y, por ende, el crecimiento en estos servicios será uno de los más altos en toda la industria TIC, cerca del 67% en 2014, superando los mil millones de dólares. 6. De BYOD a “Mobile First”. Las herramientas de administración móvil impulsarán la evolución de la estrategia de negocios al siguiente nivel Logicalis Now - Mayo 2014 | 7 TENDENCIA Durante 2012 y a principios de 2013, se vio que las compañías latinoamericanas no estaban aceptando ampliamente BYOD porque cada vez resultaba más complejo el manejo de dispositivos permitidos en las organizaciones. El crecimiento de la base instalada de dispositivos traídos por los propios usuarios generó una reacción del mercado durante 2013. La tasa de empresas que permitían el uso de dispositivos personales y su conexión, bajó de 43% a 33%. Para este año se espera que vuelva a su nivel anterior. Se prevé que el tráfico móvil empresarial crezca un 55% en tabletas y 34% en teléfonos inteligentes. Al menos la mitad de las empresas implementarán políticas para administrar la movilidad. 7. Crecerá la adopción de aplicaciones móviles en América Latina El uso de correo electrónico en plataformas móviles es un claro ejemplo de esto. Por estos días, cerca del 90% de las organizaciones ya tienen disponible el correo electrónico para muchos de sus empleados. Hacer móviles otro tipo de aplicaciones, como el ERP, el CRM, la automatización de la fuerza de ventas, no ha sido tan rápido. Pero habrá cambios, sobre todo tomando en cuenta que se prevé que el 40% de la fuerza de trabajo sea móvil en 2014. 8 | Mayo 2014 - Logicalis Now 8. Internet de las cosas acelerará la creación de soluciones B2B presentó crecimientos de doble dígito, hasta en 80%. Esto involucrará soluciones tecnológicas que permiten comunicación continua y autónoma entre máquinas. Se calcula que en 2014 habrá 17,5 millones de nuevas máquinas conectadas sin interacción humana. Esa tendencia continuará en el mismo tenor: se estima que para 2014, el mercado de PC seguirá contrayéndose, declinando 8%, y el de tabletas y teléfonos inteligentes alcanzará un crecimiento cercano al 30%, lo cual representa que se embarcarán 142 millones de unidades de tabletas y teléfonos inteligentes en América Latina en 2014. Las soluciones implementadas en las empresas estarán relacionadas con la transformación de industria inteligente. Habrá grandes oportunidades en 2014 para los sectores de salud, seguros (localización de vehículos, principalmente), transporte y logística, manufactura (automatización de procesos). IDC estimó que el valor de Internet de las cosas en América Latina en 2014 ascenderá a 4 mil millones de dólares. 9. La adopción de dispositivos cambiará a uso y creación de contenidos El mercado tradicional de PC cayó un 7% en 2013, mientras que en el de tabletas y teléfonos inteligentes 10. Los miembros de la “Generación Y” y los proyectos relacionados con educación dirigen el crecimiento de dispositivos de cómputo en América Latina Por ejemplo, los miembros de esta generación han pasado de utilizar tabletas para navegación en Internet a la creación de contenidos. Además de ser versátiles y permitir la movilidad, estos dispositivos son populares porque tienen un precio cada vez más bajo, lo cual contribuye a que la tendencia continúe. Se calcula que este año se embarcarán 1,3 tabletas por cada notebook en América Latina, cuyos precios pueden fluctuar entre 149 a 249 dólares. Se prevé que el tráfico móvil empresarial crezca un 55% en tabletas y 34% en teléfonos inteligentes. Al menos la mitad de las empresas implementarán políticas para administrar la movilidad. CONSULTORÍA Productos de Data Center: del concepto a la experiencia del usuario Por Andrés González, Consulting Services Manager Logicalis Southern Cone A continuación, presentamos las principales claves para monetizar las grandes inversiones en infraestructura y soporte de un Centro de datos. Los departamentos de TI históricamente fueron migrando de un rol de controladores de la infraestructura tecnológica a proveedores de servicios de TI para la empresa. La formalización de la metodología ITIL apalancó este movimiento a finales del siglo XX. Andrés González, Consulting Services Manager Logicalis Southern Cone Sin tiempo para el descanso, hoy están atravesando otro proceso de cambio para estar más involucrados en el negocio de la empresa y ser los impulsores de la innovación como diferenciador competitivo. En este sentido, los equipos de TI, con cada vez más frecuencia, ven la necesidad de delegar y automatizar la gestión de la infraestructura para concentrarse en cómo brindar beneficios concretos al negocio a través del uso de la información. Simultáneamente, hace décadas que múltiples empresas de servicios, especialmente las operadoras de telecomunicaciones, vienen haciendo grandes inversiones en mega centros de datos para ofrecer servicios a sus clientes. Desde antes de que el término “Cloud” estuviera acuñado en todas las presentaciones de los equipos de TI, ya conocíamos las ofertas de hosting y housing en estos Data Centers. Sin embargo, hemos visto muchos de estos emprendimientos gestarse, tomar dimensiones descomunales, y caer estrepitosamente sin acercarse siquiera a las expectativas que generaron. Aunque parezcan tener muchos puntos en común, estos servicios tradicionales siempre estuvieron ligados a la vieja tradición de TI como controlador de la infraestructura (con la salvedad de ser alquilada en vez de propia), mientras que el concepto de Cloud considera, desde la concepción, a la tecnología como servicio. En este contexto, parece claro que dar servicios desde un Data Center es un camino inevitable que todos los operadores y prestadores de servicios deben tomar en mayor o menor medida. Logicalis Now - Mayo 2014 | 9 CONSULTORÍA Lo que nunca fue demasiado obvio es cómo conseguir que estos emprendimientos generen negocios que no sólo soporten los costos operativos, sino que paguen las inversiones y generen nuevas oportunidades. La pregunta es ¿Cómo monetizar las grandes inversiones en infraestructura y soporte de un Data Center? Si se logra una estimación precisa de la demanda, será posible planificar los gastos e inversiones en el momento justo en que se pueda acoplar con los ingresos, optimizando así las ganancias operativas. Conocer el mercado Un buen punto para comenzar es preguntarse a qué mercado se quiere llegar. En general, el mercado de los servicios en la nube no tiene fronteras geográficas. Es así como proveedores globales como Amazon o Rackspace pueden ser una competencia seria incluso en países donde no tiene representación local. Esto hace que puedan abarcar un mercado objetivo enorme y conseguir economías de escalas mayores, permitiéndoles penetrar en otros mercados gracias a sus precios más bajos. Competir directamente con estos gigantes de la red puede ser muy difícil, especialmente para los operadores tradicionales, acostumbrados a controlar la competencia dentro de su área geográfica de cobertura. 10 | Mayo 2014 - Logicalis Now Un punto para considerar es si existen industrias que no se satisfacen con un proveedor global sino que requieren, ya sea por naturaleza del negocio, por políticas internas o por regulaciones, un mayor control de la ubicación física, donde su información es procesada y/o almacenada, como pueden ser las organizaciones gubernamentales o las entidades financieras. Proveedores locales o con presencia regional también pueden ofrecer condiciones más flexibles y un contacto más cercano con el proveedor. Por otro lado, los servicios globales tienden a ser estándares, de modo que no satisfacen necesidades puntuales de determinados clientes. Una investigación de mercado podrá dar una visión más clara de las oportunidades existentes y permitir un posicionamiento ajustado a diferenciadores competitivos. En el otro extremo, soluciones de SaaS (Software as a Service) o BPaaS (Business Process as a Service) pueden ser dirigidas a un segmento particular de mercado, inclusive nichos, ofreciendo soluciones con la ventaja de que se ofrecen como servicio (OPEX en vez de CAPEX), desde infraestructuras altamente confiables y accesibles desde Internet con medidas de seguridad de clase mundial. En este caso, las barreras de salida de los clientes pueden ser mucho más altas, los contratos de más largo plazo, y las ganancias mayores al reducirse las opciones de competencia por diferenciación. Hasta dónde se quiere llegar en la oferta de servicios es una decisión estratégica que se debe tomar al principio del emprendimiento, para poder definir un portfolio adecuado y crear un plan de negocios sustentable en el tiempo más allá de la etapa de start-up. Portfolio de productos Plan de negocios Según el objetivo de mercado a que se apunte, es posible desarrollar productos de Data Center orientados a un amplio rango, desde un mercado masivo hasta nichos de negocio. Los servicios de IaaS (Infrastructure as a Service), como almacenamiento y procesamiento en la nube, satisfacen necesidades amplias, masivas, pero proveen escaso valor agregado y tienen bajas barreras de entrada y de salida. Rápidamente se convierten en commodities, y es esperable que sus márgenes de ganancias sean bajos. Por otro lado, son relativamente fáciles de implementar y empaquetar, altamente automatizables y requieren escaso mantenimiento. Siempre que desarrollemos un nuevo producto o servicio, deberemos contestar dos preguntas básicas: “¿Cuánto hay que gastar?” y “¿Cuánto vamos a vender?”. Para ello, es importante tener una estimación lo más precisa posible del pronóstico de ventas. Un análisis de la competencia o benchmarks con los principales proveedores de servicios similares pueden ser de gran ayuda. Si los productos a ofrecer aún no se encuentran establecidos en el mercado, una encuesta entre los posibles clientes podrá ayudar a determinar los niveles de demanda que se puedan esperar en los próximos períodos. Una vez estimada la demanda, se de- berá calcular la inversión necesaria para satisfacer las necesidades de procesamiento, almacenamiento, gestión y comunicaciones, además de los esfuerzos de desarrollo o adaptación de software y los costos de operación de los servicios. Esto incluye no sólo los servidores y storage, sino también la conectividad dentro del Data Center, la capacidad de los enlaces dedicados y acceso a Internet, el software de automatización y orquestación, los sistemas para soportar los procesos de provisión y administración, y las consolas y el personal de operación. Si se logra una estimación precisa de la demanda, será posible planificar los gastos e inversiones en el momento justo en que se pueda acoplar con los ingresos, optimizando así las ganancias operativas. Otro tema a definir es el esquema de precios. Existen, básicamente, dos enfoques posibles para desarrollar los precios: ∞ Bottom-up: que consiste en calcular los costos e inversiones y aplicarles un margen de ganancia hasta obtener un ROI y un período de repago aceptables; ∞ Top-down: que parte de una hipótesis de precio del cual se deducen los costos. En este último caso, se pueden tomar dos caminos: ∞ Penetración: que consiste en lanzar productos a precios mucho más bajos que la competencia u otras alternativas para poder ganar mercado, y luego ir aumentando los valores hasta lograr la rentabilidad deseada con los clientes cautivos. ∞ Desgrase: que comienza con precios altos para posicionar la marca por diferenciación y ganar los primeros early adopters para después acomodar los precios y ser más competitivos. Para tomar la decisión del esquema de precios, es preciso que los departamentos de producto y marketing estratégico estén alineados en sus objetivos, así como tener un análisis financiero para adecuar las expectativas de la alta dirección de la compañía. Operación en todo el ciclo de vida del servicio Aunque hayamos realizado una excelente definición de servicio, una evaluación acertada del mercado y una política de precio adecuada, el éxito aun así no está garantizado. Como en todo servicio, la experiencia del usuario es fundamental para que el negocio sea sustentable. Para esto es preciso definir los procesos y procedimientos en todo el ciclo de vida, desde la generación de la demanda, siguiendo por la venta, la provisión, la facturación, el soporte hasta la renovación y la mejora continua. Si un cliente que contrata el servicio no recibe el servicio a tiempo, le llegan facturas con errores o no logra contactar un representante para hacer un Logicalis Now - Mayo 2014 | 11 CONSULTORÍA reclamo, probablemente dé de baja el servicio, busque otro proveedor o, como mínimo, no lo renueve al final del contrato. Cada uno de estos pasos debe estar claramente documentado y acordado por las áreas funcionales, y soportados por equipos de personal correctamente dimensionados y capacitados. Afortunadamente, existen marcos metodológicos que pueden ayudar a realizar estas definiciones, como ITIL y más específicamente para operadores el modelo eTOM del TM Forum. para operadores el modelo eTOM del TM Forum. Un tema que no debe pasarse por alto es la gestión de la continuidad del negocio. En un servicio totalmente basado en tecnología, es fundamental contar con los procesos adecuados para poder tolerar cualquier tipo de incidente, desde una falla menor hasta un desastre. En este aspecto serán de gran aporte una certificación ISO 22301 y Tier del Uptime Institute. Transición y mejora continua 12 | Mayo 2014 - Logicalis Now Una vez completadas todas las definiciones, llega el momento de ponerlas en práctica. Tanto sea para el lanzamiento de un nuevo servicio como una migración al nuevo esquema, la transición debe ser controlada cuidadosamente para evitar malas primeras experiencias en los clientes, que podrían ser desastrosas. Desde ya que una etapa piloto es imprescindible, para lo cual es preferible tomarse el tiempo que sea necesario hasta estar seguro de que todo funciona correctamente. A partir del momento del lanzamiento, todas las predicciones sobre la demanda se ponen a prueba, y se puede dar tanto que las expectativas sean superadas como que no sean alcanzadas. De hecho, que la demanda sea mayor que lo proyectado no es menos grave que lo contrario: la infraestructura debe tener capacidad para absorberla de lo contrario en poco tiempo se perderá una ventana de oportunidad que será muy difícil de remontar. Para esto es importante una gestión de la capacidad ajustada y la posibilidad de manejar el crecimiento de forma flexible, al menos, hasta que los índices de crecimiento se establezcan. Es muy importante la realimentación de los usuarios para poder establecer un proceso de mejora continua que garantice que el servicio está a la altura de las expectativas. Para esto, las redes sociales pueden ser una buena fuente de referencia de la percepción del mercado. Conclusión Para generar negocio de servicios de Data Center sustentable, es necesario conocer el mercado objetivo al que se pretende llegar, definir un portfolio que pueda encontrar un lugar en el mercado, ya sea compitiendo por precio con servicios globales o insertándose en algún nicho no explorado, definir la estrategia de precios más adecuada y considerar los procesos y procedimientos que soporten el ciclo de vida completo del servicio. La transición debe ser planificada cuidadosamente y el proceso de mejora continua implementado desde el inicio, para estar a la altura de la capacidad y calidad que demande el mercado. NOTA TÉCNICA Data Centers: Hacia una gestión integral Si bien desde sus inicios los Data Centers ocupan un lugar fundamental en la empresa y han estado en continuo crecimiento, alcanzar su máximo rendimiento fue dificultoso y se tornó necesario repensar varios puntos para llegar a cumplir exitosamente todos los desafíos que se fueron presentando. En los últimos años, las organizaciones de diferentes tamaños han realizado grandes inversiones en recursos tecnológicos (procesos, equipos, herramientas y calificados profesionales) para administrar la infraestructura del Centro de Datos. Sin embargo, y por las grandes diferencias entre las instalaciones y los componentes de la infraestructura IT, aún no han desarrollado todo su potencial. Anteriormente, en la primera década del siglo 21, los Data Centers surgieron ocupando un activo muy importante de la empresa, desempeñando un papel vital en la gestión empresarial y de atención al cliente. A lo largo de este período, los Data Centers evolucionaron y aumentaron sus capacidades de Computing & Data Storage. Así, podemos citar algunas cifras relevantes: ∞ Las ventas globales de servidores vienen creciendo, a ritmo sostenido un 15% anual. ∞ El crecimiento de la densidad de KW por racks creció de 6 Kw a 8Kw. ∞ La densidad de potencia del Data Center se incrementó, entre 2010 y 2012, un promedio del 20%, según IDC. ∞ Los chips de los servidores blade están generando más de 100 w por centímetro cuadrado, encontrándose en continuo crecimiento. ∞ Cada día se necesita procesar más datos y más almacenamiento; el desarrollo y explosión del “Big Data”. Así, alguna de las tendencias que surgieron para mitigar estos problemas fueron: a) La utilización de la virtualización, creando un cambio dinámico del ambiente. b) Reducir los costos de refrigeración, los cuales implican un 35% de la energía del Data Center. c) Mejorar y optimizar la utilización de los espacios dentro del Centro de Datos (racks, equipos activos, cableado, infraestructura en general). Sin embargo, en la mayoría de las organizaciones los administradores de Centro de Datos carecían de las herramientas necesarias para abordar eficazmente estos desafíos. Por su parte, el sector de IT Network Management nunca había manejado los temas de energía, refrigeración, espacio de racks, entre otros. En este sentido, había que evolucionar y pasar de un enfoque reactivo a un enfoque proactivo y acercarse al management de la infraestructura. Para esto es necesario un nuevo tipo de sistema de gestión, que proporciona visibilidad en la infraestructura física de los Data Centers y los servicios de IT. Por su parte, las soluciones de gestión de infraestructura del Data Center Logicalis Now - Mayo 2014 | 13 NOTA TÉCNICA (DCIM, Data Center Infrastructure Management) han cobrado un especial protagonismo en esta industria. Debido a la alta complejidad de los Data Centers, el objetivo del DCIM es conseguir una gestión integral de todos los componentes, tanto de la parte de facilities como de IT. Definimos la administración de la infraestructura de los Data Centers como el monitoreo, recolección y análisis de información exacta, continua, en tiempo real, que permite tomar acciones y decisiones inmediatas y mantener el Centro de Datos en un estado de equilibrio entre la eficiencia, la capacidad y la alta disponibilidad. Esta nueva visión de la gestión de in- fraestructura está emergiendo rápidamente, reconociendo: ∞ La importancia de los datos en tiempo real para entender la verdadera capacidad de la infraestructura hoy disponible. ∞ La criticidad de las dependencias entre las capas físicas y lógicas. ∞ La necesidad de gestión integral y visibilidad de IT respecto a las instalaciones de la propia infraestructura. ∞ La necesidad de herramientas de gestión más potentes que ofrezcan una completa visión de la infraestructura, orientada al diseño y gestión del cambio. Business Applications 2. Chequeo y medición de la energía. 3. Monitoreo de las condiciones ambientales en los racks. 6. Control inteligente de la energía crítica. Virtualization Compute, storage, Network 7. Monitoreo y Gerenciamiento de alertas y alarmas. DCIM GAP Data Center Infraestructure Layer 14 | Mayo 2014 - Logicalis Now 1. Chequeo y medición de la temperatura. 5. Control inteligente de los aires acondicionado de precisión. Infraestructure Layer Business, Service & Infrastructure Layers. Para el monitoreo del Data Center se deben tener en cuenta diez variables fundamentales: 4. Detección de fugas de gases o líquidos. Business Service Layer * Equipment (Physical) * Space, Power, Cooling Respecto a las funcionalidades de las soluciones del DCIM, es importante destacar las mediciones de consumo eléctrico, generación de alarmas, recopilación de datos para tomar decisiones en tiempo real, incluso realizaciones de simulaciones y predicciones de futuro. Space Power Cooling 8. Monitoreo y Gerenciamiento de la energía. 9. Monitoreo del banco de baterías. 10. Monitoreo remoto. El mercado actual está impulsando esta gestión, a partir del posicionamiento de distintos productos de importantes fabricantes y vendors. Power & Cooling Capacity & Inventory Monitor Manage Real - Time Physical Data Collection Analysis Reporting Alerting Control Lifecycle 3D Visualization Asset Management Capacity Analysis Planning Sintetizando, la utilización del DCIM nivelará, agilizará y potenciará el Data Center en todas sus fases y tecnologías, buscando además un criterio único para mejorar los distintos procesos y fases de los distintos layers. De esta forma, se logran mejoras sustanciales tales como: ∞ Reducción del costo total de propiedad (TCO) de los Centros de Datos. Automated Auto-Discovered Workflow-enabled Cross-platform Cross-vendor Service Mgmt / Workload / Virtualization Resource Management / Business Integration Logical ∞ Administración proactiva del uso de energía. IT Management & Business Services Make Business-Relevant ∞ Predicción de fallas de infraestructura (antes de que sucedan). ∞ Optimización del servidor y márgenes de potencia. Users ∞ Comunicar y controlar equipos heterogéneos con diferentes protocolos de comunicación e interfaces físicas. Visualization ∞ Automatización de las políticas y procedimientos para reducir los costos operativos. ∞ Extender la vida útil de los Centros de Datos existentes. Process Monitoring Data Center, IT & Facilities Operators Reporting Rack & Floor Diagrams Physical Connectios & Relationships Daily Operations & Workflow Dashboards Assets & Configuratios Apps Server Storage Network Cabling Patching Rack PDU Racks Cabinets PDU RPP Busway UPS CRAC Logicalis Now - Mayo 2014 | 15 16 | Mayo 2014 - Logicalis Now SOLUCIONES Centros de Datos que apoyan el negocio Por Paulo Sgroi, Senior Solution Strategist Energy & Sustainability Latin America de CA Technologies La discusión de la sostenibilidad está presente en todos los espacios. En un mundo donde las demandas son cada vez más rápidas, los Data Centers juegan un papel clave. En la actualidad, aproximadamente el 84% de las compañías manifiestan haber experimentado problemas con la energía, la refrigeración o espacio físico en su Centro de Datos que afectaron el negocio. Esto se traduce en CAPEX u OPEX inesperado, en retrasos en el despliegue de aplicaciones críticas y lentitud para atender las demandas empresariales. La gestión de la infraestructura del Centro de Datos es cada vez más crítica y ha dado lugar a lo que el mercado estaba pidiendo: DCIM (Data Center Infrastructure Management), un concepto que incorpora perspectivas más antiguas de monitoreo operativo del Centro de Datos, tales como alarmas y algunas métricas básicas, pero que va más allá de eso. CA Technologies percibe DCIM en tres pilares: ∞ El control del ambiente, que debe incorporar instalaciones para la captura de datos en varios protocolos (Modbus, BACnet SNMP, por ejem- plo) para garantizar mecanismos eficientes para el análisis, presentación de informes y alertas inteligentes. ∞ El segundo pilar se asocia con la gestión del ambiente, el espacio físico y la capacidad del Centro de Datos. Los administradores de TI e instalaciones deben ser capaces de responder rápidamente a preguntas como: “¿Cuánto tiempo tengo para sobrevivir en este espacio?”. caciones de negocios es fundamental para planificar una infraestructura de mantenimiento. Por otro lado, identificar un rack apoya la adición de nuevos dispositivos y, en consecuencia, será esencial más energía y calor para la carga informática. El trabajo de días o semanas tomará un ∞ El tercer pilar es la vinculación de todo esto con la gestión de TI y servicios de negocio. CA argumenta en este universo desde que nació y trajo al mundo de la experiencia DCIM a la convergente de la gestión del Centro de Datos, métricas y disciplinas que integran la infraestructura de TI, tales como la gestión de cambios y gestión de activos, en línea con monitorización del consumo de energía, refrigeración y espacio. La integración de los mundos de TI e instalaciones beneficia a ambos. Saber que se ven afectadas las apli- Paulo Sgroi, Senior Solution Strategist Energy & Sustainability Latin America de CA Technologies Logicalis Now - Mayo 2014 | 17 SOLUCIONES par de horas o incluso minutos. Un Centro de Datos más eficiente utilizará menos energía, emitirá menos carbono y tendrá una cuenta más baja a fin de mes. Densificar el uso del Centro de Datos de forma segura, posponer las inversiones y ganancias de capital puede ser significativo, así como la construcción, que siempre tiene un impacto medioambiental notorio. Los clientes de CA experimentaron reducciones de entre el 5% y el 30% en el consumo de energía. Logicalis UK, por ejemplo, está reportando un incremento del 5% en sus ingresos de nuevos negocios, donde el monitoreo y reporte real de la energía eran un requisito fundamental. Las dificultades encontradas en diferentes proyectos de gestión de infraestructuras comienzan con la comprensión del papel del Centro de Datos DCIM y cómo las herramientas existentes pueden sustituir o coexistir con ellos, tales como el BMS y los sistemas tradicionales de supervisión. El principal punto de partida es definir las necesidades principales, que son diferentes para cada empresa. 18 | Mayo 2014 - Logicalis Now Algunos tratan de mejorar la calidad de su supervisión, mientras que otros necesitan gestionar mejor sus activos o entender más ampliamente el uso de su capacidad de espacio, energía y refrigeración. CA trabajó con clientes como Facebook, Banco Itaú, Rackwise, entre otros, en lo que fue la consolidación de las mejores prácticas para los proyectos de DCIM. disponibilidad se colocan en riesgo cuando el poder no es fiable. Además, hay objetivos de negocio asociados al Centro de Datos que requieren mejores herramientas para que puedan ser satisfechas. Las principales demandas del mercado son: La integración entre TI y los instaladores de equipos es esencial y de gran valor para que puede obtener lo mejor de DCIM. En algunos proyectos, esta conexión puede tardar hasta dos años. Anticipando esto, también se anticipan los beneficios. ∞ El tiempo de funcionamiento y la ∞ Las limitaciones de capacidad de energía, espacio y enfriamiento del centro de datos. ∞ Aumento de los costos de funcionamiento debido al consumo de energía. Logicalis Now - Mayo 2014 | 19 NOTA TÉCNICA SDN en Data Centers Por Lucas Pinz, Gerente Senior de Tecnología, especializado en redes, PromonLogicalis Actualmente, la estructura de los Data Centers no permite el crecimiento exigido por las demás capas y por la explosión de Cloud. Así, se comienza a observar las implementaciones de SDN. A continuación, presentamos las principales claves de SDN. Lucas Pinz, Gerente Senior de Tecnología, especializado en redes, PromonLogicalis El hecho de que los Data Centers hoy ya pueden contar con estructuras de procesamiento y almacenamiento virtualizados refuerza la necesidad de cambio en la manera de cómo sus redes son administradas y estructuradas. Cuando se las compara con las interfaces de gerencia disponibles para los ambientes de procesamiento y almacenamiento virtualizados, las interfaces de gerencia para redes de Data Center puede ser consideradas arcaicas: se trata de un mundo dominado por comandos manuales en interfaces no gráficas. Como resultado, la capa de red no acompaña, de manera automática, los cambios dinámicos y los movimientos de worload que ocurren en las capas de procesamiento, storage y aplicaciones. Otro cambio necesario está relacionado a la escalabilidad de las estructuras actuales, cuyo objetivo es organizar la carga de trabajo y soportar proyectos de computación en la Nube que requieran ambientes multi-tenant. Así, las redes de los Data Centers precisan ser divididas en contenedores o tenants aislados lógicamente. Sin em- 20 | Mayo 2014 - Logicalis Now bargo, en gran parte de las estructuras actuales, los protocolos disponibles no soportan la cantidad de tenants o contenedores que necesitan ser generados. La necesidad de crear ambientes multi-tenant escalables hizo surgir implementaciones conocidas como virtual overlay networks, basadas en protocolos como VxLANy STT que crean segmentos virtuales (overlays) sobre la red física, también llamada por algunos “underlay network”. Además de aumentar la escalabilidad, estas implementaciones tienen como objetivo integrar o dar visibilidad entre la red física y las redes creadas por los servidores virtuales, permitiendo, por ejemplo, el movimiento entre las distintas redes físicas (en la estructura actual existe un gap entre el mundo virtual –overlay- y físico -underlay-) . En resumen, la estructura actual de las redes de Data Center no permite el crecimiento con la velocidad exigida por las demás capas y por la explosión en el número de aplicaciones y proyectos de Cloud. Así, será principalmente en los Data Centers que ob- La estructura actual de las redes de Data Center no permite el crecimiento con la velocidad exigida por las demás capas y por la explosión en el número de aplicaciones y proyectos de Cloud. Es por esto que gran parte de las soluciones ya disponibles en el mercado tienen los Centro de Datos como principal foco de actuación. servaremos las primeras implementaciones de SDN. Es por esto que gran parte de las soluciones ya disponibles en el mercado, también como gran parte de los roadmaps de desarrollo, ya anunciados por varios proveedores del sector, tienen los Centro de Datos como principal foco de actuación. ¿Cómo evaluar una solución de SDN para Data Center? ¿Virtualización de red o SDN? Así como ocurrió con la computación en a Nube, cada proveedor tiene o tendrá su definición y visión para SDN. Los beneficios prometidos por gran parte de las soluciones, a la vez, giran casi todos en relación a mejorar el tiempo de respuesta a las demandas del negocio; y la de las aplicaciones, a aumentar la escalabilidad y, a partir de configuraciones más inteligentes, poder mejorar la integración con ambientes de Cloud o crear nuevas ofertas de servicio. Además, como siempre es esperado, existe la expectativa (o promesa) de reducción en los costos de adquisición y operación. Con beneficios semejantes: ¿Cómo analizar y elegir una solución de SDN para Data Center? Para la toma de decisión es preciso, primero, hacer un listado de los requerimientos, que generalmente es- tán relacionados al negocio. Algunos ejemplos son “aumentar la escalabilidad para acomodar un número mayor de clientes” o “aumentar la agilidad en el deployment de aplicaciones”. Ese análisis es necesario para verificar si con la implementación de SDN se está realmente resolviendo un problema o sumando sólo un layer de administración. Para los análisis técnicos, básicamente las soluciones de SDN para Data Center son: ∞ SDN standard: son las soluciones que presentarán las features más básicas de SDN. Estas soluciones generalmente serán basadas en switches simples (white boxes) y conexión con plataformas básicas (generalmente Open Source) como Openflow. ∞ SDN como virtualización de la red: estas soluciones formarán parte de lo que el mercado pasó a llamar de Software Defined Data Center, que es la unión de procesamiento, storage y redes virtualizadas. En ese caso la solución de SDN tendrá visibilidad desde la capa de red hasta la capa de los servidores virtuales. ∞ SDN como elemento de integración entre redes y aplicaciones: estas soluciones pueden ser consideradas como una evolución del modelo de SDN, ya que se utilizan de la misma arquitectura pero con una amplitud de visibilidad mayor lo que posibilita alcanzar la capa de aplicaciones. Las soluciones SDN Standard son las que serán utilizadas directamente en empresas que poseen los Data Centers conocidos como Massively Scalable Data Centers o MSDCs (Amazon, Google, etc), por ser empresas en condiciones de realizar una fuerte inversión en desarrollo de interfaces e integraciones. Sin embargo, probablemente, estas soluciones no formarán parte del mainstream de adopción de SDN en Data Center. Respecto a SDN como virtualización de red es importante resaltar que, a diferencia de lo que ocurrió con los servidores que fueron virtualizados por una cuestión relacionada al nivel de utilización, la virtualización de red de los Data Centers tiene otra convocatoria. Es decir, virtualizar la red no significará necesariamente un aumento de la capacidad o nivel de uso de la red, pero sí un mejor gerenciamiento de los ambientes virtualizados, debido a la visibilidad e integración de las redes creadas por los servidores virtuales. Es importante resaltar que estas soluciones estarán limitadas a los ambientes virtualizados, o sea, no tendrán visibi- Logicalis Now - Mayo 2014 | 21 NOTA TÉCNICA lidad completa o tendrán acción limitada en las interfaces de servidores no virtualizados (bare metal). Por su parte, las soluciones de SDN que colocarán la aplicación como centro del Data Center tienen como objetivo dar una mayor amplitud y permitir la visibilidad de interfaces de servidores virtualizados y no virtualizados, y así permitir la integración con las aplicaciones, tornando los parámetros utilizados relevantes para el ambiente de red del Data Center. La idea principal es permitir que las alteraciones en las aplicaciones o nuevos deployments reflejen directamente en la capa de red. En cualquiera de los tres grupos es importante destacar que el perfil de los administradores deberá ser acom- pañado con cambios provenientes de la adopción de SDN en Data Center, ya que gran parte de los beneficios vendrá de la customización efectiva y de la integración entre las capas de redes, servidores, storage y aplicaciones. Para esta customización será necesarios conocimientos de lenguaje de promoción y desarrollo de scripts que generalmente no son de dominio de los profesionales de red. Nuevos modelos operacionales están impulsando la necesidad de mudanza de infraestructura Varios nuevos modelos para el uso e implementación de aplicaciones están impulsando la necesidad de cambios en la infraestructura, dado que: ∞ Los modelos de implementación de Cloud Computing exigen flexibilidad y escala. ∞ El Big Data desafía el diseño de la red actual, llevando los sistemas a ser proyectados con recursos dedicados. ∞ El modelo DevOps permitirá la integración de los equipos de desarrollo y aplicaciones. La intención es quebrar los ciclos tradicionales para que los ciclos de roll-out de las aplicaciones ocurran de forma más coherente. ∞ El Software Defined Networking (SDN) dará mayor velocidad a la implementación de las redes y eventuales alteraciones en el plano de control. El momento de los 40G en los Data Centers Una de las promesas que acompañó la adopción de SDN en los Data Centers es la reducción en el costo de los hardwares de red (switches principalmente), ya que parte de la inteligencia sale de los switches y migra para una capa de software. Esta reducción se reflejará directamente en los costos de interface, permitiendo la adopción de mayores velocidades en el acceso. Actualmen- 22 | Mayo 2014 - Logicalis Now te, gran parte de las corporaciones poseen múltiples interfaces por servidor (en promedio, de 4 a 8 interfaces dependiendo de la industria y del segmento de negocio). Velocidades como 40G permitirán la reducción en las cantidades de interface, lo que impactará directamente en la reducción de los costos de cabling y OPEX, y posiblemente podrán permitir una adopción mayor de conexiones ISCSI con el ambiente de storage. ∞ La programabilidad de las redes, una de las vertientes del SDN, moverá la configuración de los dispositivos de las tradicionales CLI y GUI hacia herramientas proyectadas para el lenguaje entre máquinas. Eso depende de APIs y agentes de script, programados para ejecutar localmente en el sistema operacional de los elementos de red. CASO DE ÉXITO Un Data Center de última generación Por José Luis Duarte Granada, Jefe de la División de Tecnología y Desarrollo Informático de ANDE Paraguay En Paraguay, con el fin de optimizar la disponibilidad de los servicios, ANDE (Administración Nacional de Electricidad) implentó un Data Center de última generación. Conozca su experiencia y los principales beneficios que tuvo esta organización. ANDE (Administración Nacional De Electricidad) es una institución autárquica, descentralizada de la Administración Pública, creada en 1948. Su principal objetivo es satisfacer las necesidades de energía eléctrica del Paraguay, con el fin de promover su desarrollo económico y fomentar el bienestar de la población, mediando el aprovechamiento de los recursos naturales de la Nación. El desafío José Luis Duarte Granada, Jefe de la División de Tecnología y Desarrollo Informático de ANDE Paraguay El principal problema de ANDE era que no contaba con la infraestructura necesaria para albergar los equipos críticos de la empresa. Poseía una sala sin aislación térmica, sin ningún tipo de monitoreo. Asimismo, el tablero eléctrico era obsoleto y tenía un crecimiento desprolijo. Todo esto ocasionaba una inestabilidad que afectaba la disponibilidad de los servicios. “Durante mucho tiempo teníamos los servicios detenidos. Todo ocasionado por problemas eléctricos, humedad, diversas situaciones que nos obligaban a suspender los servicios hasta solucionarlos. Necesi- tábamos dar una solución de fondo a todos esos problemas”, cuenta el ingeniero José Luis Duarte Granada, jefe de la división de tecnología y desarrollo informático de ANDE. La solución Una vez conocidas las necesidades de la organización, el primer paso fue la elección del sitio con el estudio de suelo. La implementación de puesta a tierra según las recomendaciones descriptas en el estándar TIA/EIA-607 y el estándar TIA-942 para Data Centers, con el fin de proteger los equipos, y la instalación de la sala cofre en el predio definido por la organización. El lugar elegido fue la casa central de ANDE, ubicada en la avenida España de la ciudad de Asunción, la cual tiene el fin de lograr un ambiente de máxima seguridad para el equipamiento informático crítico, conformando así un volumen de sellado hermético contra gases y agua, protección refractaria, barreras contra la propagación de humedad y campos magnéticos, que garantiza la integridad de los activos de TICs de ANDE. Logicalis Now - Mayo 2014 | 23 CASO DE ÉXITO Los principales beneficios de este proyecto son la seguridad perimetral, física y lógica, incluyendo monitoreo y control de acceso a sitios. Una vez armada la sala cofre, se realizó la colocación del piso técnico, se instalaron los aires acondicionados, los racks, PDUs y SYS. Luego, comenzó la implementación de los tableros e infraestructura eléctrica, la instalación de los equipos UPSs y los aires acondicionados de precisión. Al mismo tiempo, se inició la construcción de la plataforma de hormigón armado para los condensadores de aire. Estos trabajos fueron realizados por SIEMI, Parasur y Logicalis. A mediados de noviembre de 2013, se instalaron los condensadores y el grupo generador, con el fin de garantizar las operaciones del Data Center. En paralelo, se inició la instalación del cableado de cobre Cat A6 y fibra óptica en la sala cofre. Además, se instalaron los racks y PDUs en la 24 | Mayo 2014 - Logicalis Now sala de proveedores y sala NOC, que funciona como centro de operaciones de la red. Allí se encuentran los operaciones que dan soporte y realizan el monitoreo del equipamiento instalado en el Data Center. Esta instancia estuvo a cargo de SIEMI, Parasur y Logicalis. Posteriormente, comenzó la implementación del sistema de videovigilancia, el sistema de monitoreo ambiental, el sistema de detección y extinción de incendios y control de acceso. Esta implementación estuvo a cargo de Preventec y Logicalis. Los beneficios Todos los problemas mencionados anteriormente desaparecieron con la adquisición e implementación de esta nueva infraestructura, que llevó poco más de dos meses, y que tiene como beneficios principales la seguridad perimetral, física y lógica, que incluye a todos los sistemas de monitoreo, tanto ambiental como videovigilancia, y control de acceso a los sitios. La sala cofre no solamente brinda seguridad física, sino también ópti- mas condiciones ambientales para el funcionamiento de los equipos, principalmente al estar cerca de una estación eléctrica. El hecho de que sea una Jaula de Faraday hace que todo el campo electromagnético generado en esa estación no afecte a los equipos críticos, que son sumamente sensibles a cualquier perturbación electromagnética. “Otro beneficio es el orden en el que está el cableado estructurado, los tableros eléctricos que dan servicio en formato de alta disponibilidad a todos los racks, todo el esquema de detección y prevención de incendios, entre otros”, asegura Duarte. “La administración del proyecto fue una gran experiencia y me permitió crecer profesionalmente. Como recomendación desde el punto de vista del Project Manager, es que proyectos de esta envergadura deben ser administrados por una única unidad”, agrega la ingeniera Gisel Sosa Armoa, Project Manager de ANDE. Para Logicalis, este es un hito relevante y muy destacado, ya que nos posiciona como un actor importante en el mercado de IT y Data Center. Logicalis Now - Mayo 2014 | 25 SOLUCIONES Infraestructura: la era de la automatización Por Martín Bianco, Director de Edrans ¿Cómo realizar un cambio cultural en el área de IT que implique transformar lo que antes demandaba horas, semanas y meses en segundos, horas y días? Descúbralo en esta nota. Los equipos de trabajo a cargo de infraestructuras de IT se enfrentan a menudo con el desafío de hacer más rápido y seguro su trabajo, porque la exigencia del negocio así lo requiere. En ese marco, la pregunta recurrente de los administradores de sistemas es ¿cómo hacer con las configuraciones de servidores, el seteo de nuevas aplicaciones para “hacer correr ya”, los cientos de nodos para administrar mientras se apaga algún incendio en algún otro lado? La respuesta es Automatización. No es ni más ni menos que llevar a la práctica un cambio cultural en el área de IT que implique transformar lo que antes demandaba horas, semanas y meses, en segundos, horas y días. PuppetLabs es el software de automatización que les proporciona a los administradores de sistemas la agilidad operacional que necesitan. Este software no tiene piso ni techo, ya que puede gestionar desde un grupo pequeño de 26 | Mayo 2014 - Logicalis Now servidores hasta cientos de miles de instancias virtuales en la Nube. Creado por y para administradores de sistemas, Puppet surgió en 2005, aunque el primer release comercial salió en 2011. Puppet es una aplicación para automatizar que, fundamentalmente, facilita y agiliza todo lo que se ubique frente a ella: tareas, configuraciones, tiempos de producción y desarrollo, la comunicación y colaboración entre equipos de trabajo, la escalabilidad del negocio, entre tantos otros. ¿Por qué automatizar? Puppet reporta grandes mejoras de productividad, de costos, de eficiencia en nuevas decisiones de negocios. Entre los principales beneficios se pueden remarcar cuatro aspectos que son fundamentales a la hora de automatizar: ∞ Productividad y eficiencia: las so- luciones de IT Management estándar permiten un manejo de 20 a 30 nodos por administrador. Puppet lo eleva a cientos e incluso miles de nodos por cada profesional. ∞ Visibilidad: provee datos valiosos no sólo de configuración de infraestructura sino también de todos los cambios que se realizan sobre ella, ya sea que esté bajo el control de Puppet o no, pudiendo prever el impacto en los niveles de servicios. ∞ Escalabilidad: permite gestionar miles de sistemas en forma centralizada y distribuir en forma segura y eficiente las tareas en el equipo de trabajo. ∞ Consistencia: elimina cualquier inconsistencia (QA/Staging/Production), asegura que los sistemas estén en el punto deseado y mejora la velocidad de implementación de nuevos servicios. Puppet está desarrollado sobre tecnología open source con un lengua- je muy simple de manejar y tiene la ventaja de correr sobre todos los sistemas Linux (Solaris, HP UX, AIX, entre otros) y Microsoft Windows. Además, permite identificar a todos sus equipos con el mismo code base. Uno de los beneficios que encontramos en Edrans desde que empezamos a implementarlo para diferentes empresas en todo el mundo es la satisfacción de cada administrador, sin Todas estas herramientas de flexibilidad técnica tienen un impacto altamente positivo en el crecimiento de la empresa porque no sólo por la optimización de recursos sino también porque al agilizar los procesos y dar seguridad a la infraestructura para escalar hasta donde se quiera, logra acelerar las decisiones de negocio. importar el país o la industria que se trate, porque dejaron de preocuparse por cuántos servidores hay que configurar o si el script corre apropiadamente. Manual con Puppet Productivity 50/100 nodos / admin 100s-1000s nodos / admin Provisioning días / semanas Minutos / horas Configuration Drift Siempre presente Nunca más Visivility Limitada Todos los cambios Software releases Semanas o meses días (incluso horas) Define: With Puppet’s declarative language you design a graph of relationships between resources within reusable modules. Theese modules define your infraestructure in its desired state. 1 Itera te an d i erage Cov se a re nc Report: Puppet Dashboard reports track relationships between components an all changes, allowing you to keep up with security and compliance mandates. And with the open API you can integrate Puppet with third party monitoring tools. Simulate: With this resource graph, Puppet is unique in its ability to simulate deployments, enabling you to test changes without disruption to your infraestructure. 4 2 Desired State x Current State Enforce: Puppet compares your system to the desired state as you define it, and automatically enforces it to the desired state ensuring your system is in compliance 3 Logicalis Now - Mayo 2014 | 27 SOLUCIONES Automatización y orquestación para Data Centers Conozca las soluciones de orquestación y automatización que pueden ayudarlo a simplificar tareas y reducir riesgos y costos en su organización. Ya es sabido que las empresas exitosas no siempre son las más grandes, sino aquellas que logran perdurar en el tiempo. En este sentido, las compañías deben estar preparadas para afrontar los cambios y nuevos desafíos, sin dejar de aumentar su productividad y eficiencia. Para que esto sea posible, las compañías necesitan un área de Tecnología madura, ágil y con una buena disponibilidad de recursos para la administración del Data Center. La caída de una aplicación, server, red o storage puede implicar fuertes impactos no solo a su área, sino también a los resultados de la empresa. Esto aumenta la responsabilidad y visibilidad de las áreas de Tecnología e Infraestructura, las cuales hacen un consumo intenso de sus recursos profesionales, siendo necesario, a su vez, un alto grado de especialización. La posibilidad de hacer el lanzamiento, modificación, migración y correcta administración de las aplicaciones, Data Center (físico y virtual), storage y redes 28 | Mayo 2014 - Logicalis Now con una única herramienta, sin la necesidad de avocar los recursos más importantes de la empresa a ello, puede ser un diferencial de negocio. Actualmente, existen varias soluciones de Orquestación / Automatización, con diversas características, pero con los mismos objetivos: simplificar tareas repetitivas, reducir riesgos y costos. Dentro de este mundo de orquestadores podemos encontrar: Open Stack: Este producto nació por un trabajo conjunto entre Rackspace y la NASA. Gracias a sus excelentes resultados y performance, muchas empresas líderes del mercado (como Cisco, IBM, RedHat y VMware, entre otros) decidieron involucrarse en el proyecto. UCS Director (Cloupia): Brindando un único punto de control y administración, permite la convergencia entre servidores (físicos o virtuales), Networking y Storage. Trabajando junto con las tecnologías de Cisco (UCS y Nexus), VMware, EMC, NetApp, Hitachi, Windows, permite el aprovisionamiento de pools de equipamientos físicos, virtuales o bare-metal. Esta herramienta permite al área de IT trabajar de forma organizada, sencilla y convergente, brindando un único punto de control y reduciendo los tiempos. Además, permite a los administradores reducir drásticamente el tiempo en tareas repetitivas y/o complejas, ahorrando tiempo y dinero. Es la mejor solución del mercado para tecnologías Vspecs, Vblock, Flexpod y/o VCE. con una plataforma de virtualización o Cloud, que desee agilizar el desarrollo y disponibilidad de sus aplicaciones de forma organizada, acompañada por el área de Sistemas. Open Shift: Apadrinado por Red Hat, Open Shift permite a los administradores y desarrolladores resolver sus necesidades de forma rápida, organizada y respetando los estándares que defina la compañía. Trabajando de manera eficiente, granular y con multi-tenants, permite la disponibilidad de VM’s y ambiente virtuales de forma ágil para las nuevas aplicaciones, desarrollos, testing o QA que se requieran desde desarrollo, permitiendo que los desarrolladores dediquen su tiempo a desarrollar y testear sus aplicaciones, mientras que los administradores disponibilizan y administran los recursos de forma rápida y sencilla. Gracias a su amplitud e integración de estándares, este producto es ideal para cualquier compañía que trabaje Puppet: Consiste en una herramienta de aprovisionamiento y administración para la infraestructura de la compañía. Gracias a la abstracción de los recursos, permite a los administradores describir la configuración en términos de alto nivel, tales como archivos, servicios y paquetes, que luego asegura que los servidores coincidan con la descripción provista. Los líderes del mercado como Google, Cisco y VMware están invirtiendo fuertemente en Puppet, causando así un crecimiento veloz dentro de diversas compañías de distintos tamaños. Su fácil instalación y lenguaje posibilitan poner esta robusta herramienta rápidamente en funcionamiento. Esto sumado a su administración, a través de línea de comando o interfaz gráfica, que permite que los administradores rápidamente adopten esta herramienta como uno de los pilares en sus tareas diarias, haciendo un uso eficiente de su tiempo y reduciendo el riesgo a fallas. Albert Einstein dijo que “la definición de locura es hacer lo mismo una y otra vez, esperando obtener resultados diferentes”. Hoy y siempre, el desafío del área de IT es hacer más con menos costos. En una era donde existe una amplia variedad de tecnologías para que las empresas se renueven continuamente, es una “locura” pensar que con las soluciones tradicionales de administración y gestión se puede cumplir la tarea. El Data Center pasó a tener un rol fundamental en el éxito de la compañía. Para poder adoptar el cambio de Data Center físico a uno virtual, es necesario contar con herramientas acordes a las necesidades que se presentan. Logicalis Now - Mayo 2014 | 29 INTERVIEW Cloud llegó a Zonamerica Uruguay Por Jaime Miller, CEO de Zonamerica En esta entrevista, Jaime Miller, CEO de Zonamerica, comenta las principales características de este Parque de Negocios, con status legal de Zona Franca, ubicada en Montevideo, Uruguay, que aloja más de 350 empresas, y la experiencia de trabajo, junto a Logicalis, en la implementación de Cloud Computing. Jaime Miller, CEO de Zonamerica, parque de negocios y tecnología ubicado en Montevideo, Uruguay, explica más acerca de esta Zona Franca, cuya extensión es de 92 hectáreas y posee 28 edificios, y en la cual la tecnología resulta factor clave para atraer a las empresas. ¿Cuál es la razón de una Zona Franca en Uruguay? Jaime Miller, CEO de Zonamerica Muchas son las razones para la existencia de una Zona Franca en Uruguay. Sin embargo, el principal motivo es la existencia de un marco jurídico estable para desarrollar negocios desde acá hacia el mundo. De por sí, Uruguay presenta un clima de negocios favorable y competitivo, apoyado en altos niveles de transparencia y democracia. En este sentido, la Ley de Zonas Francas potencia esos factores, aumentando así la competitividad del país a la hora de atraer empresas internacionales y en la generación de empleo. ¿Cómo es el funcionamiento de Zonamerica? 30 | Mayo 2014 - Logicalis Now Con 25 años de experiencia y siendo pioneros en impulsar el concepto de Zona Franca de Servicios, Zonamerica se diferencia por la constante búsqueda de innovación y por ofrecer, a sus clientes y a las personas, un espacio diferencial para impulsar el crecimiento. El concepto “llave en mano” brinda a las empresas un asesoramiento completo para realizar sus operaciones e insertarse en el mercado global: Infraestructura, Arquitectura, Seguridad, Tecnología y Soporte a la hora de emplear recursos humanos hacen de Zonamerica una solución completa, en cuanto a infraestructura y servicios para instalar una empresa en Uruguay , desde donde desarrollar negocios hacia la región y el mundo. En definitiva, Zonamerica es un facilitador para la atracción de inversiones en Uruguay, generando hoy más de 9.500 empleos directos y generando acerca del 1,5% del PBI del país. Asimismo, la existencia de estas empresas operando en Zonamerica, que de otra manera quizás no hubiesen elegido el país, implica también una gran transferencia de conocimiento a la fuerza laboral uruguaya. ¿Cuántas empresas forman parte hoy de Zonamerica y qué rubros integran mayormente? Actualmente, Zonamerica cuenta aproximadamente con más de 350 empresas instaladas. La capacidad de crecimiento y la flexibilidad han logrado atraer a empresas de diversos rubros: Servicios Globales, Estudios Legales, Contables y de Consultoría, Headquarters Regionales, Centralización Regional de Procesos Administrativos, Servicios de Banca Privada y Back Offices Financieros, Desarrollo de Software, Servicios de Consultoría, Call Centers y Tercerización de Procesos, Servicios de Logística y Distribución Regional, entre otros. ¿Cuál es el rol de la tecnología en Zonamerica? A lo largo de sus 25 años, los conceptos diferenciales, como escalabilidad y flexibilidad, han generado el constante crecimiento de nuestros clientes. En este sentido, el hecho de tener siempre una amplia disponibilidad, rápidos accesos de construcción a demanda y una apertura hacia diversos servicios para captar diferentes mercados han sido claves para generar un crecimiento sostenido. En este contexto, la innovación es parte del ADN de Zonamerica, por lo tanto estar a la vanguardia tecnológica es uno de nuestros pilares fundamentales. Nuestros clientes esperan el mejor servicio de apoyo a sus operaciones, por lo que apuntamos siempre a una infraestructura de primer nivel, para brindar seguridad y la tecnología necesaria para insertarse en el mercado global. Esta política se ha ido manteniendo a lo largo de los años, teniendo el departamento de tecnología un rol clave a la La implementación de Cloud Computing es el primer proyecto de gran envergadura que realizamos con Logicalis. hora de mantener, mejorar y ampliar la capacidad y oferta de servicios tecnológicos. A nivel tecnológico, ¿Qué ventajas competitivas obtiene una empresa que decide alojarse en Zonamerica? A la hora de hablar de beneficios para una empresa que decide instalarse en Zonamerica, el rol de la tecnología resulta clave. Así, Zonamerica ofrece una variada gama de ventajas y servicios ya disponibles para quienes desean instalarse en el Parque: una red de alta disponibilidad ya instalada para el tráfico de voz y datos, conectada con todos los carriers disponibles, así como un servicio privado de conexión con Estados Unidos que permite conectarse en forma directa, a todos los proveedores de internet a nivel mundial, servicios de diseño e instalación de redes de voz y datos, servicio de telefonía a través de las centrales de Zonamerica o a través de PBX virtuales asignadas a cada cliente. Asimismo, Zonamerica posee sus propios Data Centers para brindar servicios de Hosting, co-location o de contingencia para DRP. Desde el año pasado se incluyó, dentro del portfolio, el servicio de Cloud Computing para aquellos clientes que desean administrar en forma rápida, flexible y a bajo costo necesidades de equipamiento. ¿Cómo fue la elección de la solución de Cloud Computing de Logicalis? Para el servicio de Cloud Computing buscábamos una solución robusta y que sea compatible con el modelo de negocio tecnológico de Zonamerica que está fuertemente orientado a las telecomunicaciones. Por otro lado, resultaba muy importante que el proveedor cuente con una gran experiencia en el mercado. De esta manera, para esta implementación, elegimos a Logicalis no sólo por la propuesta realizada sino por la capacidad de respuesta y expertise que el desafiante proyecto requería. ¿Cómo fue la implementación con Logicalis? Fundamentalmente, el hecho de que sea el primer proyecto de este estilo en Latinoamérica resulta, de por sí, un gran desafío, en tanto tuvimos que hacer nuestra propia experiencia e investigar, contando también con el apoyo del fabricante para resolver las situaciones que se planteaban. Actualmente, el Cloud brinda servicios a nuestros clientes brindando máquinas virtuales on demand (servidores, escritorios remotos y PBX´s), gestionado por nuestro equipo de tecnología. Asimismo, también estamos en la etapa de implementación de “Director”, que será la herramienta de auto provisioning que tendrán nuestros clientes para satisfacer sus necesidades de equipamiento virtual. Hoy en día tenemos alrededor de 20 clientes, sin embargo, una vez finalizado el proyecto Director será exponencial el crecimiento. Junto a Logicalis, este es el primer proyecto de esta envergadura que realizamos y, teniendo en cuenta los avances, confiamos en que lograrán los plazos y objetivos planteados. Logicalis Now - Mayo 2014 | 31 NOTA TÉCNICA Orquestación en el ambiente de Tecnología de la Información Por Alexandre Nicolau, Especialista en Data Center PromonLogicalis La orquestación está provocando una revolución sin precedentes en el mundo tecnológico, principalmente por el resultado de la productividad y la agilidad en la entrega de recursos. Conozca más sobre este fenómeno en ascenso. A mediados de 2007, las herramientas de automatización de Data Center empezaron a ganar fuerza. En esa época, ese tipo de tecnología era conocida como “Real Time Infrastructure” (o “infraestructura en tiempo real”), y usaban como atractivo para el mundo corporativo el aproximar la agilidad existente en las decisiones de negocio a la infraestructura de TI, que hasta entonces estaba bastante estancada y demandaba un tiempo significativo para viabilizar los proyectos. Alexandre Nicolau, Especialista en Data Center PromonLogicalis Con el advenimiento de la virtualización, y la agilidad que trae aparejada para la disponibilidad de recursos, TI pasó a ser presionada por el área de negocios para mejorar la eficiencia operacional. La respuesta del mercado fue transformar el concepto de infraestructura en tiempo real en lo que hoy conocemos como Cloud Computing, que tiene a la orquestación como uno de sus pilares estructurales. El concepto de orquestación implica la automatización, coordinación y geren- 32 | Mayo 2014 - Logicalis Now ciamiento de sistemas computacionales complejos y servicios, realizados por medio de un software o un conjunto de softwares integrados que permiten controlar las interconexiones e interacciones entre la infraestructura y las premisas de las varias unidades de negocio involucradas, con sus respectivas demandas. La orquestación en el mundo de TI permite agilizar las operaciones de Data Center y aumentar la eficiencia gracias al concepto de “Run Book Automation”, que corresponde a la automatización de los procesos y procedimientos definidos para ejecutar una tarea específica de TI, como por ejemplo, crear un servidor de banco de datos. La creación de un servidor de banco de datos exige diversas tareas que pueden consumir un tiempo significativo del equipo de TI, tal como instalar el sistema operacional, patches, todas las aplicaciones involucradas, configuraciones, además del proceso de investi- La creación de un servidor de banco de datos exige diversas tareas que pueden consumir un tiempo significativo del equipo de TI gación de la disponibilidad de recursos en la infraestructura, para poner a disposición el nuevo recurso solicitado. Por medio de la orquestación, todos estos procesos pueden ser automatizados con base en las políticas existentes de negocios y de TI, siempre siguiendo las mejores prácticas, y garantizando que no ocurrirá falla humana o negligencia en la ejecución de las tareas. Esos procesos pueden conducir a la reasignación de recursos para proveer una infraestructura bajo demanda, que mantenga los SLAs y metas de desempeño. Otro aspecto positivo de la orquestación es que, además de la automatización de tareas, ese tipo de herramienta permite continuamente el monitoreo de los niveles de servicio y la realización de alteraciones en la infraestructura cuando sea necesario, para que esos niveles de servicio sean garantizados, expandiendo o contrayendo la infraestructura según se requiera, para soportar las necesidades del negocio. tán siendo bastante beneficiadas por cuenta de las herramientas de orquestación, al ofrecer ambientes de Nube pública y/o privada para sus clientes, una vez que el resultado de la productividad es muy significativo. Un servidor que antes podría llevar meses para ser instalado en operación, actualmente puede ser entregado en 20 minutos, gracias a los servicios ofrecidos por empresas como Amazon, Google, Terremark, Savvis, solo para nombrar las más conocidas. Empresas como estas consiguen entregar servidores, almacenamiento o aplicaciones, garantizando disponibilidad de un 99,95% y soporte 24x7, incluyendo protección en caso de desastres. Muchos Data Centers de empresas de gran tamaño de Latinoamérica no consiguen entregar una infraestructura con esa disponibilidad, de modo que la adopción de herramientas de orquestación o la migración para esas soluciones en nube están siendo consideradas por empresas de todos los segmentos. La orquestación provocó una revolución sin precedentes en el ambiente de tecnología de la información, principalmente por el resultado de la productividad y la agilidad en la entrega de recursos. Actualmente, solamente un pequeño porcentaje de las empresas en Latinoamérica adoptan herramientas de automatización y orquestación en TI, quedando aún mucho espacio para crecimiento en ese mercado. Los niveles de automatización en Data Centers deben crecer considerablemente en la medida de que ese tipo de tecnología se va popularizando, y también con el surgimiento de nuevos softwares. Una verdadera revolución está en camino, y esto es solo el comienzo. Para que el proceso de orquestación sea eficiente es preciso también que ofrezca una gestión centralizada del grupo de recursos monitorizados, incluyendo facturación, medición y cobranza, asociando esos recursos a las áreas, grupos, personas y empresas que los están utilizando a lo largo del tiempo. Diversas empresas en el mercado es- Logicalis Now - Mayo 2014 | 33 TENDENCIA ¿Qué es Big Data? Actualmente, mucho se habla acerca de Big Data, pero ¿qué es realmente? Descúbralo en esta nota. En pocas palabras, se puede describir Big Data como un conjunto de diseños, plataformas y procesos partiendo de una toma de decisiones. En la actualidad, existen infinidades de fuentes de datos: smartphones, blogs, e-mails, YouTube, Instagram, WordPress, Blogger, Foursquare, sensores de automóviles, maquinarias y un largo etcétera. Con la proliferación de las redes sociales (Facebook, Twitter y LinkedIn a la cabeza) y las plataformas de la web 2.0, los blogs, los foros de discusión, redes que interconectan usuarios, entre otros, las personas dejaron de ser simplemente usuarios de la información provista. Ahora toman un rol muy importante, siendo uno de los principales generadores de este contenido subjetivo que a las organizaciones tanto pueden aportar. Así, la red dejó de ser un medio para informarse mediante noticias y artículos sobre datos objetivos. Internet ya no es un repositorio de información para los usuarios finales, sino que se transformó finalmente en una plataforma en la cual estos pueden generar ellos mismos la información, y así dar a conocer sus opiniones, pareceres y expresarse libremente. Claramente, el contenido generado es altamente diverso y, por sobre todas las cosas, subjetivo. El contenido emerge desde blogs personales, donde cada uno puede plasmar su percepción sobre la última película en cartelera, opiniones sobre un restaurante, comentarios sobre una nota en un portal de noticias, recomendaciones y puntuaciones de hoteles, itinerarios de viajes y excursiones, recomendaciones sobre un nuevo producto adquirido y crítico sobre este, mensajes de todo tipo que denotan su estado y muchos más datos que pueden llegar a ser convertidos en información útil. Optimizar costos, tener una visión del comportamiento y preferencia de los consumidores, además de realizar un análisis de mercado y competencia, son solo algunos de los análisis más realizados por Big Data. El poder de Big Data se encuentra en la capacidad de analizar estos datos recolectados a altas velocidades, teniendo como premisa que estos son útiles en un primer instante y luego tienen carácter meramente estadístico. Optimizar costos, tener una visión del comportamiento y preferencia de los consumidores, además de realizar un análisis de mercado y competencia, son solo algunos de los análisis más realizados por Big Data. ¿Cuáles son las problemáticas del negocio que puedo resolver? No existe un único caso de uso para Big Data. Algunos de los más comunes se detallan a continuación: ∞ Modelado de riesgos ∞ Análisis de riesgos ∞ Optimización de costos ∞ Análisis de fuga de clientes ∞ Análisis de comportamiento y preferencias en los consumidores ∞ Motor de recomendaciones 34 | Mayo 2014 - Logicalis Now ∞ Publicidad orientada tado para Big Data, una plataforma open-source que permite el procesamiento distribuido de grandes sets de datos utilizando para ello los nodos de cómputo que componen el cluster. Está diseñada para escalar desde un único nodo, paralelizando el análisis sobre los nodos, logrando una gran velocidad y tolerancia a fallos. ∞ Análisis de mercado y competencia ∞ Data Sandbox ∞ Búsqueda de mejora de calidad Hadoop Hadoop es el sistema base más adop- Split Map() Map() Map() Reduce() Map() Reduce() Output Data Uno de los componentes más importantes de Hadoop es conocido como MapReduce. ¿Cómo trabaja MapReduce? Input Data Map() Apple, Yahoo!, Google, American Airlines, Wal-Mart, eBay, New York Times, LinkedIn, Agencia Nacional de Seguridad de los Estados Unidos, Amazon son solo algunos de los principales usuarios de este sistema en América. Map() MapReduce divide los datos de entrada en subsets más pequeños para ser distribuidos hacia los nodos. Estos serán los encargados de realizar la función de Map, analizando el subset de datos recibidos como clave, valor (key, value) y entregando un resultado intermedio del análisis. Este resultado será entregado a todas las funciones Reduce, cada una de las cuales se encargará de realizar un análisis específico sobre los sets entregados para dar como resultado final la información requerida. Cómo trabaja Mapreduce Logicalis Now - Mayo 2014 | 35 SOLUCIONES ViPR: la plataforma de almacenamiento definido por software de EMC Cómo administrar la infraestructura de almacenamiento y los datos que residen en ella, permitiéndoles a las organizaciones impulsar mejoras innovadoras en la automatización y establecer una arquitectura moderna para las implementaciones de aplicaciones del futuro. El EMC World 2013, que se realizó en Las Vegas, fue el momento elegido por la compañía para presentar ViPR, la primera plataforma de almacenamiento definido por software del mundo. Con EMC viPR, los proveedores de servicios y los departamentos de TI consiguen aplicar el modelo operacional de Data Center de escala web sin la necesidad de contratar a miles de expertos técnicos para desarrollar un ambiente personalizado. ción. Los servicios de datos de objetos de ViPR se integran con OpenStack por medio de Swift y pueden ejecutarse en el almacenamiento empresarial o básico. EMC ViPR se integra estrechamente con el Data Center definido por software de VMware mediante API estándares del sector e interactúa con Microsoft y OpenStack. El controlador de EMC ViPR aprovecha las infraestructuras de almacenamiento existentes para cargas de trabajo tradicionales, pero provisiona nuevos servicios de datos de objetos de ViPR –con acceso a través de las API de Amazon S3 o HDFS- para cargas de trabajo de última genera- El controlador de EMC ViPR (el plano de control, que administra la infraestructura de almacenamiento) puede brindar mejoras considerables en la automatización porque visualiza la infraestructura de almacenamiento subyacente. Las funciones comunes de administración de almacenamien- 36 | Mayo 2014 - Logicalis Now Controlador de EMC ViPR: Plano de Control to, como el aprovisionamiento y la migración, se abstraen para que diferentes arreglos de almacenamiento puedan administrarse de la misma manera que un solo recurso en pool. Ahora, para la administración de estas funciones altamente complejas, ViPR ofrece un único enfoque interactivo de señalar y hacer click. Los clientes ya no necesitan involucrarse en la tarea compleja y prolongada de interactuar con varias interfaces de administración que extienden arreglos de almacenamiento heterogéneos. Una vez creados, estos pools de almacenamiento se reparten para que las aplicaciones los utilicen. Para esta tarea, ViPR proporciona un portal de autoservicio, de modo que los ViPR ofrece una arquitectura distribuida globalmente, lo que permite a los departamentos de TI evitar transferir grandes cantidades de datos a través de la red y llevar a cabo funciones como análisis “en el lugar”. propietarios de aplicaciones puedan examinar el catálogo de servicios de almacenamiento y provisionar recursos de servicios de la forma que mejor se ajuste a sus necesidades. Para la mayoría de las infraestructuras de almacenamiento tradicionales, EMC ViPR proporcionará simplemente el plano de control. Este descubre almacenamiento, crea pools de almacenamiento virtuales, provisiona esos pools para la aplicación y luego deja de invenir, no está presente en la ruta de datos, que se deja para el propio arreglo. De la misma manera en que los sistemas operativos cuentan con inteligencia para detectar la presencia de elementos como coprocesadores de gráficos (y procesamiento de descarga), el controlador de EMC ViPR cuenta con inteligencia para buscar elementos en la infraestructura de almacenamiento subyacente. Si es posible descargar el procesamiento en el arreglo subyacente y aprovechar la inteligencia allí, lo hará. Servicios de Datos de EMC ViPR: Plano de datos Para las cargas de trabajo tradicionales que utilizan archivos y bloques, EMC ViPR no interviene en los procesos y deja que el arreglo subyacente cumpla con la función del controlador de EMC ViPR plano de control, o los datos almacenados en la infraestructura de almacenamiento. Esto representa la mayoría de las cargas de trabajo de aplicaciones dentro del Data Center e EMC calcula que esas cargas de trabajo crecerán aproxima- damente un 70% hasta 2016. ViPR es una solución única, en parte, debido a su capacidad de visualizar los objetos como archivos, lo que proporciona el rendimiento del acceso a archivos sin la atención propia del almacenamiento de objetos. Además, el servicio de datos HDFS de ViPR permite a los clientes realizar análisis en el lugar en todo el ambiente de almacenamiento heterogéneo. Como consecuencia, la agobiante tarea de administrar ambientes de almacenamiento heterogéneos se diluye, lo que permite que TI se concentre en apoyar las prioridades del negocios y en la innovación. Dada la naturaleza de estas nuevas aplicaciones, su arquitectura adquiere nuevas formas. La escala masiva que requieren dicta un enfoque más simple para la infraestructura del almacenamiento, específicamente, el de objetos. Los métodos de acceso también están cambiando de los protocolos tradicionales como NFS e iSCSI a nuevos protocolos como HDFS, el cual adquiró su fama como la base subyancente de la base de datos de Hadoop. Con el fin de admitir estas nuevas arquitecturas de aplicaciones, los proveedores de EMC ViPR ofrecen servicios de datos de objetos. Los servicios de datos de objetos de ViPR proporcionarán a Amazon S3 y OpenStack Swift métodos de acceso mediante HDFS y API de REST compatibles, por lo que las aplica- ciones de software actuales escritas en estas API deben poder ejecutarse sin inconvenientes. Los servicios de datos de objetos de ViPR admitirán los arreglos actuales de EMC Atmos, EMC VNX y EMC Isilon como una capa de persistencia adicional al hardware comercial y los arreglos de otros fabricantes. Esto permite al cliente determinar, de acuerdo con las cargas de trabajo de las aplicaciones, cuáles deben ser las características adecuadas en cuanto a rendimiento, calidad de servicio y costo. Con el transcurso del tiempo, EMC espera proporcionar un conjunto más amplio de servicios de datos como parte de la plataforma ViPR. Punto de diseño: la nube Ante todo, EMC ViPR está diseñado para ambientes de nube y, específicamente, para proveedores de servicios. No obstante, esta solución también es adecuada para la amplia variedad de departamentos de TI empresariales que se transforman para ofrecer TI como servicio y desarrollar nubes web internas. Con esta noción en mente, ViPR ofrece una arquitectura distribuida globalmente, lo que permite a los departamentos de TI evitar transferir grandes cantidades de datos a través de la red y llevar a cabo funciones como análisis “en el lugar”. A medida que aumenta la cantidad de dispositivos y datos, la plataforma ViPR escala horizontalmente sin puntos únicos de falla y proporciona un ambiente que puede ser completamente autoadministrado y autoprovisionado. Logicalis Now - Mayo 2014 | 37 SOLUCIONES El futuro de la nube Por Bryan Che, Director Senior, Estrategia de productos de nube Red Hat El mundo está evolucionando hacia un modelo de nube híbrido y heterogéneo. Del mismo modo en que las empresas siempre han obtenido servicios y capacidades de diversos proveedores, necesitarán hacer lo mismo en su transición hacia la nube. Es sumamente importante que las arquitecturas de nube empresarial de próximo generación sean capaces de incorporar una diversidad de tecnologías sin dependencia del proveedor y con una interoperabilidad y portabilidad plenas. De lo contrario, todos los beneficios que promete la nube (es decir, mayor eficiencia, agilidad y productividad, entre otros) serán abrumados por la pesada carga de gestionar el crecimiento desmedido y la complejidad entre muchos silos de nubes distintas e incompatibles. Es por esto que Red Hat y Cisco se unieron para el lanzamiento de Cisco InterCloud. Se integró OpenShift con el Catálogo de Servicios de Primer Nivel de Cisco para que los desarrolladores puedan contar con un único portal para solicitar todos sus servicios. 38 | Mayo 2014 - Logicalis Now Diseño de la nube híbrida abierta Cisco menciona las siguientes propiedades como atributos clave de su enfoque de nube híbrida InterCloud: ∞ Ausencia de clientes cautivos de un proveedor ∞ Cualquier sistema operativo para cualquier proveedor ∞ Infraestructura heterogénea ∞ Seguridad integral ∞ Gobernanza-gestión y cargas de trabajo unificadas ∞ Movilidad de cargas de trabajo entre nubes Red Hat también se dedica a brindar muchas de estas propiedades a sus clientes. Entre la extensa cartera de soluciones de software para ayudar a que las empresas diseñen una nube completa se encuentran Red Hat Enterprise Linux OpenStack Platform y Red Hat Storage (a nivel de la In- fraestructura como Servicio), Red Hat JBoss Middleware y OpenShift (a nivel de la Plataforma como Servicio - PaaS) y Red Hat CloudForms para la gestión de nubes. Cómo generar empowerment para los desarrolladores en las nubes híbridas abiertas Un ejemplo de cómo Red Hat y Cisco colaboran juntos para ofrecer una nube híbrida abierta se da en el área de la PaaS. Como parte del trabajo entre ambas empresas, se creó un Diseño Validado (Cisco Validated Design o CVD) que incorpora a OpenShift (una PaaS completa de Red Hat que posibilita que los desarrolladores construyan nuevas aplicaciones en un entorno rico y sumamente productivo) en las últimas versiones de la Automatización Inteligente para la Nube de Cisco (Intelligent Automation for Cloud) y del Centro de Datos Virtualizado Multiservicio (Virtualized Multiservice Data Center o VMDC). Esto significa que las empresas ahora podrán construir una PaaS poderosa con todo lo necesario, desde un servidor Cisco subyacente y el hardware para la conexión de red hasta OpenShift. Además, se integró OpenShift con el Catálogo de Servicios de Primer Nivel de Cisco para que los desarrolladores puedan contar con un único portal para solicitar todos sus servicios. Esta oferta conjunta surge a raíz del éxito común en la implementación de OpenShift para el propio desarrollo interno de Cisco. Cisco fue uno de los primeros en adoptar OpenShift Enterprise para el desarrollo de sus propias aplicaciones y Red Hat se complace de poder haber aportado los beneficios en términos de productividad del desarrollador a los prestadores de servicios, al sector público y a otras empresas. Tanto Cisco como Red Hat comparten una visión y un enfoque comunes frente a las arquitecturas TI de próxima generación y este trabajo en conjunto es apenas un ejemplo de colaboración brindar soluciones que definen la industria para la nube híbrida abierta. Logicalis Now - Mayo 2014 | 39 NOTA TÉCNICA La nueva generación de Data Centers, SDN e Infraestructura para Cloud Por Fabián Dominguez, Data Center Business Development Manager Cisco Ante la necesidad actual de plantear un nuevo enfoque de Data Center y Cloud, Cisco ACI (Aplication Centric Infraestructure) presenta una nueva arquitectura que tiene en cuenta las aplicaciones, la seguridad y la infraestructura coherentemente. Descubra el funcionamiento y los principales beneficios de ACI. Fabián Dominguez, Data Center Business Development Manager Cisco 40 | Mayo 2014 - Logicalis Now La transición que hoy está ocurriendo en los Data Centers y cómo las empresas utilizarán las aplicaciones y la infraestructura de los mismos en el futuro es seguramente el cambio más dinámico que les ha tocado vivir a los responsables de TI, independiente de qué tipo de empresa consideremos. A continuación, algunas significativas cifras actuales: m2) continuarán creciendo y en 2016 tendrán el 10 % del espacio total ocupado por Data Centers. ∞ El Uso de Cloud Computing tiene un CAGR de 36 % hasta 2016 impulsado mayormente por IaaS (Infraestructura como Servicio). ∞ Los Proveedores de Servicios de Telecomunicaciones seguirán liderando el gasto de TI y tendrán ¼ del espacio de todos los Data Centers para 2016. ∞ Virtualización y Cloud Computing: el número de Workloads por cada Server tradicional instalado se incrementará de 1.5 en 2011 a 2 en 2016; sin embargo el número de workloads por cada Servidor en la Nube aumentará de 4.2 en 2011 a 8.5 en 2016. En resumen, 2/3 de todas las Workloads estarán procesando en la Nube. ∞ Los MEGA Data Centers (> 3,500 ∞ En este sentido, el tráfico Global ∞ El tráfico IP Global de los Data Centers alcanzará 6.6 Zettabytes para el fin de 2016. Esto significa que el tráfico se cuadruplicará si lo comparamos con 2011 o un CAGR de 31 % entre 2011 y 2016. IP de Cloud alcanzará 4.3 ZettaBytes para el fin de 2016 y crecerá 5 veces respecto de 2011 o un CAGR de 44 % entre 2011 y 2016. El tráfico de Cloud será 2/3 del tráfico de los Data Centers para 2016, con esta distribución de acuerdo al destino: ∞ Dentro del Data Center (76%) ∞ Data Center a Data Center (7%) ∞ Data Center al usuario (17%) ¿Cómo cambian los desafíos de negocios con las tendencias del mercado? Las demandas de los nuevos usuarios y los cambios en las necesidades de las aplicaciones de negocios imponen un nuevo enfoque de cómo plantear una nueva Infraestructura de los Data Centers y Cloud, que debe ser más simple, ágil y centrado en las aplicaciones. Asimismo: ∞ Nuevos cambios de paradigmas están redefiniendo IT, cambiando de una economía basada en la Web a una economía basada en las Aplicaciones. Los nuevos modelos de consumo están cambiando rápidamente a Cloud con foco en la integración Desarrollo /Operaciones con el concepto de uso desde cualquier dispositivo (fundamentalmente móvil). ∞ Los modelos de Administración están cambiando de estar basados en equipos individuales o silos a una visión mucho más holística. Los líderes de aplicaciones y negocios necesitan y esperan una infraestructura mucho más simple, automatizada y ágil que esté alineada a las necesidades del ciclo de vida de las aplicaciones, desde su desarrollo hasta su implementación y operación. ∞ Los Data Centers son el componente clave de este cambio. En los últimos años han experimentado transiciones en el cómputo, el almacenamiento, la red y la administración de la infraestructura y aplicaciones; sin embargo los cambios que vienen son aún mayores. ∞ Cloud, movilidad y Big Data están cambiando los paradigmas y esto genera nuevas aplicaciones y cambios en la infraestructura. Las aplicaciones distribuidas (Big Data , Hadoop, etc), las Bases de Datos (Oracle, SAP, etc) que corren sobre baremetal o aplicaciones virtualizadas sobre ambientes multi-hipervisores o aplicaciones basadas en Cloud con modelos a demanda, todas imponen cambios en la infraestructura. ∞ Los modelos de Seguridad Informática han cambiado de un modelo basado en protección del perímetro a un concepto híbrido que debe contemplar los dominios físicos, virtualizados y Cloud. Al mismo tiempo, las políticas de seguridad deben ser ágiles para adaptarse a los cambios constantes de parámetros de tráfico basados en un cambio de modelo de consumo (Cloud y móvil). Por ejemplo, como tratar la protección contra amenazas en la comunicación entre máquinas virtuales, cliente a aplicación o aplicación a aplicación. ∞ La tarea de optimizar la infraestruc- tura para múltiples tipos de aplicaciones en el modelo actual de equipos individuales o silos y procesos manuales entre distintos equipos del grupo de TI es un desafío complejo. Por ejemplo, aplicaciones de productividad como Microsoft Exchange o de Web 2.0, como Sharepoint, tienen requerimientos de seguridad y conectividad especiales, mientras que las aplicaciones de I/O intensivo, como las Bases de Datos SAP u Oracle, requieren performance en el I/O (latencia y ancho de banda). Las nuevas aplicaciones Cloud distribuidas y Big Data -como Hadoopemplean decenas o cientos de servidores con patrones de I/O únicos entre servers y Terabytes de información que requieren características de I/O para tener performance óptima. ∞ Adicionalmente es imperativo proveer consistencia entre los ambientes físicos, virtualizados y Cloud, incluyendo modelos multi-tenant y multi-cloud pero sin compromisos de escala, seguridad o respuesta en todo el ciclo completo de vida de las aplicaciones. Para ello cada vez más se automatiza la interacción entre los múltiples componentes de la Infraestructura. ∞ Para lograr una operación de TI ágil y eficiente que cumpla con estos requerimientos disimiles, los líderes de TI buscan innovaciones que habiliten la automatización de aplicaciones para rápidos deployments de infraestructura, ajustes dinámicos a eventos en tiempo real, visibilidad integrada con monitoreo de performance y recuperación ante fallas con simplicidad y control. Logicalis Now - Mayo 2014 | 41 NOTA TÉCNICA ¿Cuáles son las limitaciones del modelo actual de Infraestructura? reducción de performance y agilidad de nuevos desarrollos de servicios. do en las aplicaciones y no una suma de parches y “buenas intenciones”. Los modelos que siguen las Aplicaciones están evolucionando independientemente y en paralelo a los modelos de Infraestructura. Por ejemplo, muchas aplicaciones asumen ancho de banda infinito y la realidad es que las redes son generalmente agnósticas a las aplicaciones que corren sobre ella. Los modelos basados en Software y las ofertas iniciales de modelos SDN (Software-Defined Networking) han intentado resolver esto con un modelo de virtualización de la red pero sin una verdadera integración entre los ambientes físicos y virtuales, lo cual ha generado falta de transparencia y visibilidad con múltiples puntos de administración, modelos de licenciamiento propietario, problemas de versiones de software de control y consistencia entre ambientes multi-hipervisor. El mayor problema que tienen las propuestas iniciales de SDN es que no hay una definición clara de lo que SDN es y debe cumplir. La Solución de Cisco: ACI (Application Centric Infrastructure) El enfoque tradicional usa un modelo operacional basado en silos sin una política operacional común entre las aplicaciones, red, seguridad y teams de Cloud. Esto impacta a la productividad, eficiencia y utilización de recursos, aumentando los tiempos de implementación de aplicaciones y los tiempos de respuesta. Los modelos de administración son mayormente basados en los equipos individuales, lo cual incrementa la complejidad. Esto fue aceptable en modelos de TI estáticos, pero no lo es más actualmente debido al dinamismo de los ambientes de TI de hoy en día. Aunque los nuevos modelos de Fabrics tradicional permiten mayor escala, deben proveer mayor simplicidad aumentando la consistencia e integración entre ambientes físicos, virtualizados y Cloud. Los modelos de seguridad son estáticos e inflexibles y muy a menudo se instalan, configuran y olvidan, generando altos niveles de vulnerabilidad y políticas que no están atadas a los requerimientos de las aplicaciones actuales y futuras. Hoy, el incremento de las medidas de seguridad trae aparejado una 42 | Mayo 2014 - Logicalis Now Nuevas necesidades, nuevo enfoque El nuevo enfoque debe ser simple, sin comprometer la escala , tiempos de respuesta, seguridad y visibilidad end to end de la Infraestrcutura. Asimismo, debe ser: ∞ Con automatización y programabilidad de la red. ∞ Operacionalmente simple y que abarque silos actualmente aislados cono red, almacenamiento, cómputo, aplicaciones, seguridad, Cloud, etc. ∞ Que mantenga la flexibilidad y velocidad de delivery del software pero sin comprometer la performance o posibilidad de escalar del hardware. ∞ El modelo necesitaba construirse desde la base para ser realmente centra- El modelo ACI es una nueva arquitectura con un modelo operacional en el cual las aplicaciones manejan el comportamiento de la red, permitiendo un modelo de migración a las arquitecturas actuales. Los templates de políticas pre-definen los requerimientos de las aplicaciones y automatizan el aprovisionamiento de la red, servicios a las aplicaciones, políticas de seguridad, subnets de los tenants y demás detalles. Esta automatización reduce errores y el costo de TI, permitiendo un deployment más acelerado y haciendo el negocio más ágil. Este enfoque permite, tanto a las aplicaciones tradicionales como a las aplicaciones desarrolladas internamente, usar esta innovadora infraestructura de manera simultánea, dinámica y escalable. El Fabric centrado en aplicaciones cumple este objetivo con una combinación de hardware y software estrechamente integrados para proveer ventajas no disponibles en otros modelos (por ejemplo los modelos iniciales de SDN que son basados solo en software) Componentes principales del Fabric ACI ∞ Cisco Application Policy Infrastructure Controller (Cisco APIC) El Cisco Application Policy Infras- tructure Controller es el componente principal de la arquitectura y contiene la automatización, programación de políticas y administración del Fabric (ACI Fabric) en un esquema multi-tenant. Cisco APIC es un controlador en modalidad de cluster que optimiza la performance, soporta cualquier aplicación en cualquier lugar y unifica la operación de los dominios físicos y virtuales. Cisco APIC presenta hacia arriba una API mediante XML y JSON y provee una interface CLI y GUI para utilizar esta API para administrar el Fabric. Además, presenta hacia abajo una API open source que permite a los proveedores de servicios de red implementar políticas de control de dispositivos mediante Cisco APIC. Cisco APIC no forma parte del camino del tráfico, lo cual permite que el FABRIC completo ACI siga funcionando aún en situaciones en las que la comunicación con el cluster de APIC se haya perdido. Cisco APIC es entregado en modalidad appliance y normalmente se utilizan varios en modalidad de cluster por razones de performance, disponibilidad y redundancia. de una manera lógica la cual se basa en como la aplicación está diseñada y operada. Esta configuración y cumplimiento de sus políticas es entonces administrada automáticamente por el Sistema en sí mismo mediante Cisco APIC y no por un administrador manual. ∞ Application Network Profiles Cisco ha ampliado la familia Nexus con la nueva serie Nexus 9000 para ambientes de Data Center tradicionales (sistema operativo standalone NX-OS) y en escenarios ACI .Los Nexus 9000 ofrecen configuraciones fijas y modulares de 1/10/40 Gigabit Ethernet. La capacidad dual mencionada permite a los clientes proteger la inversión en su transición gradual a ACI con solo un software upgrade. Un Application Network Profile (ANP) es una colección de grupos de end- point lógicos representando un set de servicios que son requeridos por la pólitica de una aplicación. Crea la interdependencia de una aplicación con el Fabric. Los ANPs son diseñados y modelados ∞ Nexus 9000 Switches para ACI: Expandiendo la familia Nexus Application Centric Infrastructure Protección de la inversión Nexus 9500 Nexus 9300 y 9500 APIC Physical Networking Hypervisors and Virtual Networking ® Compute L4-L7 Services Storage Multi DC WAN and Cloud Integrated WAN Edge Componentes principales del Fabric ACI Logicalis Now - Mayo 2014 | 43 NOTA TÉCNICA Innovaciones en la Serie Nexus 9000: para agregación de 40 G los 9396PX y 93128TX) ∞ Hitless ISSU y Patching: permite actualizar el software del switch sin disrupción en la operación o performance del switch ∞ Interfaces abiertas de programación con XMPP, XML/ JSON, onePK open programming interface, Puppet/ Chef IT automation, OpenStack resource orchestration y acceso a Linux Shell ∞ Cisco Application Virtual Switch (AVS) – Consistencia entre hipervisores: es un switch de networking virtual para ACI que brinda consistencia virtual en ambientes de múltiples hipervisores para simplificar la operación entre los dominios físicos y virtuales. AVS es manejado tambien por Cisco APIC. ∞ Circuito ASIC desarrollado por Cisco permite 36 placas de línea non-blocking 40 G. ∞ Terminación y routing de VXLAN Nativo a 10 G line rate ∞ Menor consumo por port de la industria. 3.5W/10G and 14W /40G. Ahorra 5000 KW por año por chassis versus otros switches del Mercado ∞ Expansión de Power Supply para soportar altas densidades de ports de 100 G ∞ Menor costo en conectores ópticos Cisco transforma la infraestructura de los Data Centers de nueva generación y Cloud con la arquitectura Centric Infrastructure (ACI) que simplifica, optimiza y acelera los ciclos de vida completo de las aplicaciones. Con una robusta integración entre los elementos físicos y virtuales, un modelo de ecosistema abierto, desarrollo de circuitos ASIC innovadores, hardware y software, ACI (Application Centric Infrastructure) realiza un desarrollo holístico desde las bases centrado en las aplicaciones. Este encuadre único despliega un modelo operacional basado en políticas que 44 | Mayo 2014 - Logicalis Now Modelos de Nexus 9000: ∞ Cisco Nexus 9508 - 8 slot, 13 RU chassis diseñado para alta densidad End-of-Row (EoR) y alta performance 10/40GbE en layers de agregación. Amplio rango de placas de línea en cobre y fibra de 1/10 and 40GE. ∞ Cisco Nexus 9300 - configuraciones fijas para escenarios Top of rack y Middle of row. Ofrece servicios non-blocking de layer 2/3 sobre puertos 1/10 y 40 Gigabit Ethernet y FCoE. (Mode- opera sobre una red ACI, elementos cómputo, almacenamiento y seguridad, uniendo los tradicionales silos y drásticamente reduciendo costos y complejidad. Esta innovación redefine el poder de TI para brindar las soluciones requeridas por las cambiantes necesidades de los negocios y sus aplicaciones, mejorando la agilidad y agregando un valor nunca antes alcanzado. Los principales beneficios de ACI incluyen: ∞ Automatización simplificada por ∞ Cisco ASA 5585-x: forma parte de la nueva generación de Appliances de seguridad y ha sido actualizado y certificado para operar con la serie Nexus 9000, tanto como switches tradicionales o en ambientes ACI. ∞ ACI-ready virtual ASA (vASA) tiene las mismas funciones que un appliance ASA pero residente dentro de un hipervisor. un modelo basado en políticas por aplicación. ∞ Visibilidad Centralizada con monitoreo real time del estado de las aplicaciones. ∞ Flexibilidad vía Open software para los teams de Desarrollo y Operaciones y nuestra comunidad de partners de ecosistema. ∞ Performance escalable y multi-tenancy en hardware. ∞ Capacidades Consistentes en los ambientes virtualizados y no virtualizados. NOTA TÉCNICA Soluciones de replicación entre Data Centers Por Daniel Reggiani, Solutions Consultant de Hitachi Data Systems En tiempos en que la calidad en el servicio exige maximizar cada vez más la agilidad en la respuesta al cliente y los datos deben estar siempre disponibles y protegidos, las tecnologías de replicación asumen un rol más que importante para las empresas. Daniel Reggiani, Solutions Consultant de Hitachi Data Systems Por estos días, los negocios demandan la disponibilidad inmediata de la información corporativa. La calidad en el servicio obliga a una mayor agilidad en la respuesta a los clientes y, en consecuencia, los datos tienen que estar disponibles, accesibles y protegidos, incluso ante posibles fallas en el normal funcionamiento de las operaciones, ya sea por razones internas o externas. Con el crecimiento exponencial de los datos, esta tarea se hace cada vez más compleja y demanda un enfoque distinto al tradicional esquema de backup. Es en este punto en donde cobran mayor importancia las tecnologías de replicación para proteger la porción del negocio más crítica. Las soluciones para replicación de datos de Hitachi Data Systems permiten hacer frente a estos desafíos, en base a una sola plataforma de almacenamiento o a través de múltiples equipos en distintos Data Centers. La habilidad de crear, mantener y actualizar volúmenes de datos está integrada dentro de las principales funcionalidades del hardware de los sistemas de almacenamiento y es gestionada por el software para la replicación. Además, permite eliminar o acortar las ventanas de backup y optimizar los tiempos de recuperación para lograr una mayor eficiencia en función de los requerimientos del negocio, cumpliendo con los niveles de servicio más exigentes. Los sectores más demandantes en todo el mundo, como salud, gobierno, fuerzas armadas, telecomunicaciones y banca, cuentan con soluciones altamente probadas de Hitachi Data Systems, dentro de las cuales se destacan las de replicación heterogénea, es decir, aquellas que permiten replicar datos entre sistemas de distintas marcas, ya sea localmente o a distancia. Ventajas de la replicación heterogénea Sin dudas, la replicación entre sub Logicalis Now - Mayo 2014 | 45 NOTA TÉCNICA sistemas de almacenamiento de diferentes proveedores es crítica para la planificación de una estrategia de continuidad de negocios efectiva en términos de costos. La solución de Hitachi Data Systems permite minimizar la complejidad en la administración del Data Center y reducir la inversión relativa a los costos de licencias de software de cada marca. Con solo un set de procedimientos, herramientas y competencias, las pruebas de recuperación, ya sea regulares o para entornos heterogéneos, se hacen más confiables y accesibles. 46 | Mayo 2014 - Logicalis Now Como las plataformas empresariales Hitachi VSP y HUS VM proveen a los entornos empresariales y de rango medio una interface común para agrupar almacenamiento heterogéneo, utilizando el software para virtualización se puede habilitar la replicación entre ellos y, consecuentemente, de manera transparente para el almacenamiento virtualizado. De esta forma, utilizando una única herramienta para replicar datos en una infraestructura de almacenamiento por niveles, los clientes disminuyen costos y acceden a múltiples beneficios en la gestión tanto en forma local como a distancia. Se destaca la funcionalidad que entrega el software Hitachi Universal Replicator, que permite realizar una replicación asincrónica integrada optimizada y una mayor performance, al mismo tiempo que reduce costos. Este software provee replicación avanzada y basada en la controladora a través de todos los sistemas de almacenamiento certificados para almacenamiento adjunto a las plataformas Hitachi VSP y HUS VM. Ofrece mayor robustez, reduce el impacto de la replicación en las aplicaciones en producción y baja los costos mediante una utilización eficiente del ancho de banda, especialmente cuando hay flexibilidad en la administración de los RPO (Recovery Point Objective) desde la perspectiva del negocio. ¿Cómo se realiza? Cuando se recaba la información a ser replicada, el sistema de almacenamiento de Hitachi del sitio primario escribe los registros designados en un conjunto especial de volúmenes especiales con perfor- Configuración de tres Data Centers Para ilustrar el funcionamiento de estas soluciones, veamos el caso de una compañía de comercio electrónico de Asia, de alto tráfico en operaciones de compraventa, que implementó una solución de recuperación ante desastres. mance optimizada, llamados “journal”. Luego, el sistema de almacenamiento remoto lee los registros desde los “journal”, descargándolos desde el sistema primario a través de los enlaces de comunicación. Al realizar esta operación, el software permite consumir menos caché del sistema, liberando recursos para las operaciones de producción, ya que el movimiento de datos lo realiza el sistema del sitio secundario. De esta forma, con solo un set de procedimientos, herramientas y competencias, las pruebas de recuperación, ya sea regulares o para entornos heterogéneos, se hacen más confiables y accesibles. Combinando el software Hitachi Universal Replicator con las plataformas VSP o HUSVM, es posible llevar adelante la continuidad de negocios basada en una configuración que integra tres o cuatro Data Centers, con menor complejidad, menores gastos generales y un mayor rendimiento en comparación con modelos tradicionales. Con más de 100 millones en ventas, 9,3 millones de usuarios registrados y dos millones de productos disponibles online, esta compañía se había convertido en el sitio más visitado de la región, reconocido por su rapidez y seguridad en sus transacciones comerciales. Su crecimiento exponencial excedía permanentemente su capacidad de expansión de la infraestructura de hardware de TI, perjudicando la performance de su base de datos. Se detectaron frecuentes errores y las interrupciones en el traspaso de información entre los servidores y los procesos de backup se volvieron cada vez más complicados. La arquitectura de la base de datos necesitaba un chequeo, pero era riesgoso y consumía mucho tiempo, a la vez que reemplazarla generaría un gran desafío. Evitar la interrupción de las operaciones era vital para asegurar su éxito a futuro. De esta forma, la compañía decidió que era fundamental la reestructuración de su configuración para recuperación de desastres, a fin de reducir los costosos errores, mantener la estabilidad de los sistemas y soportar la expansión de las operaciones. Hitachi Data Systems diseñó en- tonces un plan en base a una configuración de tres Data Centers y la implementación de un sitio primario y dos secundarios. Este modelo soportaría el respaldo continuo y estable de la misma información hacia ambos sitios, asegurando la disponibilidad e integridad de los datos críticos. Se implementó un esquema mixto utilizando el software TrueCopy para funcionalidades de sincrónicas entre dos Data Centers, y con el software Hitachi Universal Replicator, se logró unificar eficientemente la solución con el tercer data center, la cual cuenta con funcionalidades únicas como “disk journaling” y replicación asincrónica con tecnología “pull” impulsada por el sistema en el sitio remoto. En lugar de utilizar memoria caché, la replicación avanzada permitió minimizar los esfuerzos del sitio de producción primario. Los datos podrían ser copiados entre cualquiera de los sistemas soportados, sin importar las diferencias entre los sistemas operativos o protocolos, permitiendo una máxima flexibilidad para distribución de los datos y las opciones de recuperación de las operaciones. Con esta implementación se aseguró la disponibilidad de las copias actuales online en cada sitio de recuperación, garantizando la integridad de la información corporativa, a través de una infraestructura confiable, robusta y segura para lograr un nivel de servicio ininterrumpido. Logicalis Now - Mayo 2014 | 47 TENDENCIA Apuntando a la mejora del mundo virtual corporativo La plataforma de virtualización de desktops corporativos, conocida como VDI (Virtual Desktop Infrastructure), presenta tantos beneficios para las empresas que es difícil explicar por qué aún no está plenamente difundida en el mercado y sea utilizada como infraestructura standard de TI. Entre la cantidad casi innumerable de beneficios, ofrecidos por una infraestructura basada en desktops virtuales, se pueden destacar: ∞ Fácil gerenciamiento y manutención para el equipo de TI. ∞ Mayor control de las informaciones generadas y utilizadas por los usuarios. ∞ Reducción del costo total de propiedad (TCO). ∞ Mejor productividad de los usuarios. ∞ La movilidad y flexibilidad para los accesos externos. ∞ Mayor control de las aplicaciones que circulan por la empresa. Esta no es una tecnología necesariamente nueva, ya que desde 1998, con el lanzamiento de Microsoft Windows NT Terminal Server Edition, los fundamentos de la virtua- 48 | Mayo 2014 - Logicalis Now lización de desktop ya habían sido creados. Con ese sistema operacional girando en los servidores, el usuario podría tener una sesión de terminal disponible en su máquina, con toda la carga de procesamiento concentrada en el servidor de terminales, teniendo acceso a través de un aplicativo cliente instalado en su estación de trabajo. Básicamente el aplicativo envía por la red señales de control de teclado y mouse, y recibe señales de video actualizadas en la misma frecuencia que si hubiera alteraciones en su pantalla. Esto demanda bajos recursos computacionales y de red. Con la tecnología de desktop virtual, el computador utilizado por el usuario puede ser bastante más simple, de manera que el único programa que precisaría ejecutar localmente es el correspondiente a la aplicación cliente para comunicar con el servidor, siendo ésta responsable de ejecutar toda la carga del procesamiento de las aplicaciones que el usuario utiliza diariamente. La principal atracción comercial de la virtualización de desktop se basa en el hecho de que el usuario no precisa tener un equipo con alto poder de procesamiento y con múltiples recursos (léase de alto costo), y que muchas veces necesita ser renovado cada tres años para ejecutar las tareas vinculadas a su trabajo. Con un equipo potente, lo que ocurre es un alto desperdicio de recursos, teniendo en cuenta que el procesamiento necesario para ejecutar las tareas diarias de la gran mayoría de los usuarios es bastante bajo. Por eso, un único servidor de terminales podría concentrar decenas o centenas de usuarios, sumando las pequeñas cargas de procesamiento de cada uno de los usuarios para evitar desperdicios. El equipo más recomendado como estación de trabajo es el llamado “thinclient”, que es un computador con bajo poder computacional, y que presenta un costo menor que el desktop tradicional además de consumir poquísima energía. En un mundo donde el consumo de energía debe ser cada vez más racional, este tipo de equipo se adapta perfectamente ya que puede reducir el consumo de energía por usuario hasta un 85%. La tecnología de sesiones de terminales, sin embargo, tenía diversas desventajas para el usuario siendo la principal de ellas la pérdida de la individualidad. El usuario se sentía “preso” porque en la sesión de terminal todos los usuarios tenían que utilizar el mismo tipo de sistema operacional, con las mismas configuraciones básicas, y sin ninguna flexibilidad para la instalación de nuevas aplicaciones, a no ser que ellas mismas fueran hechas por el administrador de la infraestructura. Con el advenimiento de la virtualización de servidores, la misma tecnología puede ser extendida a los desktops virtuales, donde cada máquina virtual posee su individualidad e independencia en relación a las otras instaladas en el mismo servidor de virtualización. De ese modo, el usuario recuperaría parte de la flexibilidad que tenía con un desktop físico. Ese tipo de tecnología basado en máquinas virtuales exige una infraestructura más robusta y consecuentemente mucho más cara. Para alivianar las altas inversiones necesarias en el momento de la adquisición de una infraestructura necesaria para hospedar los desktops virtuales, las empresas de tecnología crearon diversos recursos que permiten aprovechar de un modo mucho mejor los recursos existentes. Entre esos recursos, está el compartir la memoria RAM entre diversas máquinas virtuales en una misma área de memoria física. De esta manera, es posible hospedar más desktops virtuales en un mismo servidor, sin aumentar la cantidad de memoria. Un recurso semejante fue creado para almacenar el disco virtual de los desktops virtuales, los llamados linked-clone. Con este recurso, es posible que decenas de máquinas virtuales compartan la misma área en disco, para bloques que sean iguales entre ellas, por ejemplo: el sistema operacional. Esto reduce bastante el área en disco necesaria y también los valores de inversión. El principal impedimento actual, para que las empresas adopten la tecnología de desktops virtuales, se concentra en los costos de adquisición de este tipo de proyecto. Aún con todos los beneficios y ventajas que la tecnología puede ofrecer, el resultado casi siempre es a mediano y largo plazo, mientras tanto la cultura de las empresas es muchas veces direccionada a resultados de corto plazo. Sin embargo, con el abaratamiento de algunas tecnologías de las innovaciones que economizan recursos, aliadas a la movilidad que los desktops virtuales proporcionan, éstos serán una realidad cada vez más presente en el mundo corporativo. Uno de los recursos que permiten aprovechar de un modo mucho mejor los recursos existenteses el de compartir la memoria RAM entre diversas máquinas virtuales en una misma área de memoria física. De esta manera, es posible hospedar más desktops virtuales en un mismo servidor, sin aumentar la cantidad de memoria. Logicalis Now - Mayo 2014 | 49 SERVICIOS Data Centers: ¿Cómo optimizar y economizar su gestión? Por Pedro Moura, Arquitecto de soluciones en servicios PromonLogicalis Actualmente, los gerentes de infraestructura y de TI se enfrentan a una situación difícil. Se espera de ellos, más que nunca, la capacidad de solucionar desafíos de integración de ambientes heterogéneos, el rápido crecimiento de datos y aplicaciones de una misión crítica, y que atiendan niveles de servicio (SLAs) más altos de forma sustentable. El gran interrogante es cómo hacer todo esto, y mucho más de manera eficiente. Al lado de la necesidad de entregar mejores niveles de servicios y mejor capacidad de respuesta al negocio, la reducción de costos en operaciones de Data Center se aleja de la prioridad de la mayoría de los gestores de TI. En este sentido, en todo el mundo, las organizaciones de TI están trabajando para hacer más, con menos. Pedro Moura, Arquitecto de soluciones en servicios PromonLogicalis 50 | Mayo 2014 - Logicalis Now Cuando se piensa en la mejor forma de operacionalizar un Data Center, la idea consiste en la posibilidad de adquirir tecnologías de un único proveedor (servidores, aplicaciones, redes, storage, etc.). Sin embargo, en la mayoría de los casos la realidad es completamente diferente de esta utopía, resultando un dolor de cabeza para los gestores de TI que precisan aplicar esa heterogeneidad en nuevos proyectos y demandas que culminan en el aumento de la complejidad operacional de sus Data Centers. Además, la economía digital en la que vivimos requiere conectividad sin restricciones independientemente de sus circunstancias. Sus empleados necesitan del acceso a los datos en todo momento, en todo lugar, usando cualquier dispositivo, a fin de responder rápidamente a los clientes, cerrar un gran negocio y manejar las operaciones diarias. Todo esto demanda una mayor infraestructura de los Data Centers y una arquitectura más flexible para el crecimiento abrupto. Pero la búsqueda por escalabilidad con niveles de servicio con más performance y rígidos puede ser muy costoso para las corporaciones. Frente a estas dificultades nace la necesidad de direccionar algunos puntos, que presentamos a continuación: ∞ Enfoque en su negocio Es importante para las empresas, principalmente de Latinoamérica, donde aún pasan por las experiencias de outsourcing o multisourcing, acostumbrarse a la idea de que alguien puede operacionalizar mejor su Data Center que uno mismo. Solucionar los puntos ya mencionados de forma más eficiente, pasa por la importancia que las compañías le den a concentrar esfuerzos en sus necesidades de negocio y compartir las responsabilidades de los requerimientos técnicos con empresas especializadas en tecnología. Proveedoras de servicios avanzados de TIC, como Logicalis, son capaces de hacer más por su Data Center ya que forman y contratan constantemente los mejores profesionales, y capitalizan la experiencia de diversos clientes con las más variadas tecnologías de las últimas décadas. Toda esa experiencia es compartida y aplicada, resultando directamente en reducción de riesgos en la operación del Data Center. ∞ Búsqueda por la “padronización” La creación de patrones ayudará a simplificar su infraestructura de TI y operación de Data Center en varias capas. Desde el proceso de la toma de decisiones sobre nuevas compras de equipos y software, costos de mantenimiento y principalmente costos relacionados directamente con el día a día de la operación. Todo gestor se encuentra con la curva de aprendizaje de su equipo técnico cada vez que trae una nueva tecnología a su Data Center. Imagine la responsabilidad de gerenciar cinco diferentes sistemas de banco de datos, cada uno con sus procedimientos operacionales propios. La necesidad de conocimientos será diferente en todos los niveles de la operación, desde el soporte final al usuario hasta el especialista que ejecutará el troubleshooting en momento de crisis. La padronización de su infraestructura de TI también traerá beneficios valiosos ya que evitará en el futuro problemas de incompatibilidad con otras tecnologías ya implementadas en el Data Center. En ambientes pluralizados cuanto más hardware y software adquirimos, más complicado se vuelve aislar y resolver problemas. Cuando padronizamos nuestras elecciones, hardware y software funcionan de forma más consistente y eficiente en todos los niveles. ∞ Evalúe constantemente nuevas opciones Las empresas deben continuar generando grandes volúmenes de informaciones y datos. El direccionamiento de esa situación – y de los posibles problemas que ella genera – requiere una estrategia más abarcativa que evalúe los escenarios constantemente y proponga mejorías. Actualmente la opción que se discute con muchos clientes es “¿Debo ir hacia la computación en la Nube, sea ella privada, pública o híbrida?”. La respuesta a esta cuestión es ¡Sí! Como cualquier medicina que tomamos para solucionar un problema, debemos evaluar la dosis de Cloud para cada corporación y en cada ambiente. Esa evaluación abarca términos técni- Logicalis Now - Mayo 2014 | 51 SERVICIOS cos, comerciales, legales y culturales. El filtro más grande será en la comprensión de qué aplicaciones serán migradas, cuál es el tipo de dato que quedará almacenado en la nube, integración con ambientes internos y externos, seguridad, acceso, entre otros. Muchos gestores continúan preocupados con este cambio porque desconfían de la capacidad de entrega de la disponibilidad ofertada en la mayoría de los proveedores de servicio; sin embargo, cuando se trata de inversiones para la creación de infraestructuras “multi-tenant” los valores son altos y la confianza es el factor de éxito para estos proveedores. Los beneficios de ese análisis van mucho más allá de poder direccionar en este artículo. Entonces, de forma resumida y entre los puntos más importantes, se puede destacar: ∞ Flexibilidad: La capacidad de tratar demandas que se mencionan inicialmente en este artículo es uno de los principales atractivos de la migración para Cloud. pago. En algunos países existen beneficios fiscales cuando hay utilización de OPEX. ∞ Recuperación de Desastre: ∞ Backup Automatizado En la mayoría de las empresas, las aplicaciones y ambientes crecen y se vuelven tan importantes, por lo que en determinado momento es necesario pensar en un plan de continuidad de negocios que invariablemente costará una considerable suma de dinero. Los datos de sus aplicaciones serán replicados y almacenados para que puedan ser restaurados rápidamente cuando sea necesario. De esta manera, hay una preocupación menos para su equipo de TI. Las proveedoras de soluciones en Nube – incluyendo Logicalis – piensan en este tema desde el inicio. La infraestructura multi-tenant fue concebida con la capacidad de replicación necesaria para casos de desastre causados por la naturaleza o por el propio hombre. ∞ CAPEX vs. OPEX: La frase “pague de acuerdo a lo que necesite” es el dilema de los proveedores de servicios en Nube. Ese beneficio puede ir más allá de la forma de La infraestructura multi-tenant fue concebida con la capacidad de replicación necesaria para casos de desastre causados por la naturaleza o por el propio hombre. 52 | Mayo 2014 - Logicalis Now ∞ Infraestructura top-class La obsolescencia de hardware y software no será más una preocupación para su empresa. Eso es tratado por el prestador de servicios que entregará servidores, redes y demás equipos de tecnología lo más avanzada posible. Para aquellos ambientes que pasen por el análisis técnico, la migración en dirección a la Nube traerá reducción de costos operacionales, volverá más ágil nuevas implementaciones y aumentará su productividad considerablemente. Logicalis ofrece consultoría en estos y otros puntos, además de ser capaz de proveer la mejor solución que atienda a sus necesidades de negocio y posibilite el crecimiento sustentable de sus operaciones de Data Center. NOVEDADES Conozca las principales novedades de Logicalis Logicalis América Latina fue premiada en el Cisco Partner Summit 2014 Nuevamente, Logicalis América Latina, proveedor de servicios y soluciones de la información y la comunicación (TIC) en América Latina, se destacó como uno de los principales socios de Cisco en la región. Cisco, Socio del año de Cisco Capital y Excelencia Arquitectónica: Proveedores de Servicios. Por su parte, en Cono Sur, Logicalis fue galardonada como Socio del año para el mercado corporativo. Durante el Cisco Partner Summit 2014, el evento más importante para los socios de Cisco, realizado en Las Vegas (Estados Unidos), la compañía fue nombrada Socio del año de América Latina en las categorías Service Provider Cloud Builder y Servicios. “Los premios han recompensado el excelente trabajo entre los equipos de Logicalis y Cisco en toda la región. Principalmente, se destaca el reconocimiento como Partner de Servicios del año, que se ajusta plenamente a la estrategia de construcción de una propuesta de servicios de alto valor agregado en las TIC”, asegura Rodrigo Parrera, CEO de Logicalis América Latina. Además de los tres premios regionales, en Brasil, PromonLogicalis fue reconocida como Socio del año de Para el logro de premios, Logicalis América Latina alcanzó los más altos estándares en diseño, implementación, gestión, operación y soporte de infraestructura compleja, posicionándose como el socio ideal de las TIC en una coyuntura marcada por desafíos, presupuestos magros y la tendencia de un rol más estratégico del CIO. Logicalis Now - Mayo 2014 | 53 NOVEDADES Logicalis Paraguay cumplió 13 años El pasado mes de marzo, la oficina de Logicalis Paraguay celebró su decimotercer aniversario. Fundada en 2001, Logicalis Paraguay S.A. rápidamente la empresa logró posicionarse a través de proyectos de gran envergadura tanto en el sector de las telecomunicaciones como en el mercado. “En Logicalis hacemos foco especial en satisfacer las necesidades que los clientes presentan, convirtiéndonos en un socio estratégico, por eso proyectamos nuestro enfoque de acuerdo con sus necesidades, tanto en términos tecnológicos como en relación a los modelos comerciales y de entrega”, cuenta Antonio Domínguez, Country Manager de la sucursal. La sucursal de Paraguay logró insertarse con fuerza en el mercado Equipo de Logicalis Paraguay gracias al trabajo serio, profesional y mancomunado de todos los integrantes del staff. Al respecto, Domínguez señala: “Estos 13 años nos encuentran más que fortalecidos y con el firme propósito de seguir creciendo como sucursal y, en lo personal, cada uno como profesional”. “El principal desafío con el que contamos a nivel local es el de posicionarnos como el mayor integrador de servicios y soluciones IT, ofreciendo a nuestros clientes servicios y soluciones innovadoras, para que puedan optimizar sus negocios. Para eso trabajamos día a día”, agrega. Logicalis renovó su website institucional Logicalis presentó su nuevo website corporativo, un sitio reestructurado globalmente, basado en tecnologías actuales como HTML5 que ofrece una vista más amigable, una mayor facilidad de navegación y dinamismo. En América Latina, las empresas del grupo Logicalis pasan a tener un único sitio, con informaciones consolidadas de los diez países en los que actúa. “En el proceso de construcción del nuevo sitio, reunimos y unificamos los contenidos relacionados a nuestra actuación en toda la región, proporcionando un intercambio de ex- 54 | Mayo 2014 - Logicalis Now periencias entre los equipos. Como resultado, pasamos a posicionarnos también en la web como una empresa de alcance regional, de referencia en el mercado latinoamericano”, señala Renata Randi, Directora de Marketing y Alianzas. En la construcción del nuevo sitio se optó por tecnología de avanzada y utiliza la novedad de geolocalización, que permite identificar la localidad del usuario por GPS o dirección IP y direccionarlo para el sitio en su idioma, ofreciendo informaciones específicas de manera más simple y precisa. - Otra actualización en el sitio, que permanece con la misma dirección (www. la.logicalis.com), está en la utilización de una plataforma actualizada y basada en HTML5, lenguaje multimedia compatible con computadoras, tablets y smartphones. Logicalis Now - Mayo 2014 | 55 56 | Mayo 2014 - Logicalis Now