O410Manuel nubes

Anuncio
OPINION
O410Manuel Nubes
5400
Nubes federadas
Por Manuel Dávila Sguerra
[email protected]
Siguen apareciendo más preguntas e iniciativas en el tema de la computación
en la nube, pues, al fin y al cabo, es un paradigma en proceso de convertirse en
un estándar.
En esta ocasión me voy a referir a una investigación que se está desarrollando
entre universidades y empresas europeas que han publicado un artículo en la
revista Computer de la IEEE y daremos algunas inquietudes relacionadas con
nuestras experiencias en el Centro de Innovación Social de Uniminuto y, más
específicamente, en el Laboratorio de software libre que usa computación en la
nube privada y pública.
La pregunta nace del hecho de que cualquier infraestructura informática creada
bajo el concepto de computación en la nube tiene características finitas de
poder computacional, de redes y de complejidad tecnológica. No es concebible
que una plataforma pueda soportar todo el crecimiento que se dé en una
organización y además surge el peligro de colapsos en las plataformas. Siendo
así: ¿qué alternativas habría para dar continuidad al negocio, en caso de darse
dichas circunstancias?
Me voy a permitir hacer un poco de historia por la similitud de la computación
en la nube de hoy, con los sistemas centralizados de antes. En los años 70 en
Bogotá, existían grandes centro de cómputo y se tenía la preocupación de un
colapso que creara situaciones catastróficas. Algunos de los centros de
cómputo más notables usaban equipos IBM 360, que fueron sistemas pioneros
de mucha de la tecnología actual. Un grupo conformado por la IBM de
Colombia, la Universidad de los Andes, Colsistemas, la Universidad Nacional,
las empresas del Acueducto y Energía de Bogotá (Ceprodate) y el Dane,
conscientes del peligro de un colapso, conformamos, en esa época, un comité
para estudiar lo que a propósito del tema que estamos tratando, lo hubiéramos
podido llamar “Centros de cómputo federados”. Personalmente dirigía el centro
de cómputo del Acueducto y la Energía - Ceprodate. El propósito era crear
políticas y estándares de configuración de los sistemas operacionales que nos
permitieran ejecutar los procesos en cualquiera de centros de cómputo en caso
de un colapso.
A propósito de esa época, hace unos años organicé un encuentro en Acis
llamado “La tecnología de hace 30 años” en el que invitamos a los pioneros
para contar cómo eran esos centros de cómputo, video que se puede ver en
youtube (http://e-logicasoftware.com/tutoriales/conferencias/video-la-tecnologiade-hace-30-anios.html) y que tiene interés histórico y académico.
Hoy, los centro de cómputo se llaman centros de datos o Data Centers y su
tecnología se basa en las telecomunicaciones y el Internet. En ellos, el riesgo
de colapso o de saturación en su capacidad de procesos existen, como bien se
formularon en la pregunta de la investigación que menciona la revista de la
IEEE sobre “Nubes federadas”, la cual es una iniciativa Europea llamada
Reservoir (Resources and services virtualization without boundaries).
Este modelo separa las actividades funcionales del centro de datos en:
aplicaciones de software, por un lado, y de infraestructura informática, por el
otro. Plantean un ejemplo en el cual las aplicaciones se reparten así:
Centro de datos 1: aplicación 1 y la 2
Centro de datos 2: aplicación 2 y la 3
Centro de datos 3: aplicación 3
Las aplicaciones se instalan en los servidores bajo un contrato de SLA o service
level agreement (acuerdos de niveles de servicio) que estipulan los servicios
que se prestarán, las prioridades, las responsabilidades, las garantías, la
disponibilidad, el rendimiento, los costos, los sistemas operacionales, los
recursos de computación como memoria y almacenamiento, redes medidas en
mbps, redes desmilitarizadas y abiertas, IP disponibles, recursos de backup y
demás. El nivel de servicio permite especificar mínimos y máximos que deben
ser monitoreados si se quiere tener un control.
Todos estos elementos deben ser medidos en una nube federada (ver
http://host97-240-14962.serverdedicati.aruba.it/uploads/Publications/The%20RESERVOIR%20Model
%20and%20Architecture%20for%20Open%20Federated%20Cloud%20Computi
ng.pdf en donde se pueden leer los detalles técnicos de este trabajo), con
políticas técnicamente definidas para que a través del software, que debe ser
desarrollado, las plataformas puedan tomar decisiones automáticas
relacionadas con el uso más eficiente de los recursos.
En nuestro caso particular del Laboratorio de investigación en software libre
hemos tomado un proyecto relacionado con la generación automática de
sistemas orientados a la web, que incluye generación de programas,
generación de portales y aplicaciones de discos virtuales, correo electrónico,
control de spam, diseño de software seguro, incluido detección de intrusos
dentro de las aplicaciones por encima de la seguridad perimetral, y una
propuesta para la auto documentación automática del software que plantea un
modelo para que él mismo genere los diagramas de UML de aplicaciones y de
clases.
Esta plataforma está en dos servidores de Cloud: uno propio con KVM, el
mismo que usa el proyecto Reservoir y el otro con Vmware de Terremark, e
influenciados por los planteamientos de las Nubes Federadas estamos
estudiando la viabilidad de implementar modelos de aseguramiento de la
continuidad de las aplicaciones vista como “Software as a service – SAAS”.
Descargar