El impulso hacia la centralización: el péndulo vuelve a cambiar

Anuncio
El impulso hacia
la centralización: el péndulo
vuelve a cambiar
L J. Roberto Evaristo, Kevin C. Desouza y Kevin Hollister
¿Qué organizaciones pueden lograr los mayores
beneficios de la recentralización
(y descentralización) de sus arquitecturas TI
de hardware?
l debate sobre si la arquitectura TI debería ser centralizada o
descentralizada es tan antiguo como la propia tecnología. A pesar
de las diversas perspectivas que se han aportado al debate, lo que
hasta ahora se ha pasado por alto es el fenómeno de vaivén relacionado
no sólo con aspectos centrados en las tecnologías de la información (TI),
sino también con los eventos actuales que se extienden a otras áreas de la
organización.
E
Un aspecto clave es la forma en la que los directivos han modificado
su interés por las TI: su enfoque ha pasado de basarse en la inversión,
“para no ser menos que los demás”, a basarse en el valor, “dónde están los
beneficios”, que hace hincapié de forma pragmática en la importancia de
la información y sus usos.
Otras consideraciones son las necesidades del negocio para un entorno
tecnológico fiable, disponible, tolerante a los fallos, respaldado y seguro,
incluso ante situaciones catastróficas. Los directivos no pueden permitirse
no saber por qué se ha producido el renovado interés en la centralización
de la arquitectura TI y cómo puede afectar a sus organizaciones.
En 1983, un acreditado análisis sobre el tema sugería que había tres
aspectos que diferenciaban la centralización de la descentralización, todos
ellos relacionados con el control: la localización física de las instalaciones
1
El impulso hacia la centralización: el péndulo vuelve a cambiar
de los servicios de información, la actividad o responsabilidad dentro de la
estructura de la organización y la toma de decisiones.
Autores posteriores llegaron a la conclusión de que el control era el
factor clave determinante en las decisiones de centralización frente a
descentralización. En este artículo adoptamos una perspectiva más
restringida de la arquitectura TI, centrada sólo en la arquitectura real del
hardware, es decir, la topología empleada para conectar todos y cada uno
de los diversos componentes de hardware en una determinada
organización.
Algunos
autores llegaron
a la conclusión
de que el control
era el factor clave
determinante
en las decisiones
de centralización
frente a
descentralización
Impulsores del cambio
Muchos de los factores que afectan a las decisiones sobre arquitectura
TI han estado presentes desde que las TI se utilizaron por primera vez en
las organizaciones. No obstante, su importancia frente a otras
preocupaciones que han tenido mayor relevancia en el tiempo ha
cambiado, lo que ha dado como resultado la doble tendencia de oscilación
que se describe en el cuadro 1.
Una observación importante es que ha habido más de un cambio en las
tendencias, algo que por lo general los escritos no reconocen. Este artículo
se centra en cuáles han sido los desencadenantes o el punto de inflexión
que han dado lugar a cambios en las tendencias. Además, se analiza la
importancia relativa de aspectos ineludibles frente a acontecimientos
localizados en el tiempo y se analiza su papel en los dos cambios más
significativos. El punto de inflexión se define como el momento en el que
aparece un factor lo suficientemente importante como para iniciar una
tendencia o una idea que propugna un cambio radical.
A principios de los años sesenta, la arquitectura del hardware era
básicamente centralizada. El coste era el factor determinante; la elevada
cuantía tanto de las telecomunicaciones como del hardware, unida a una
capacidad informática relativamente limitada, convirtió la centralización
en un imperativo. El estado de la tecnología no permitía arquitecturas
alternativas. La arquitectura estaba limitada a grandes sistemas de
mainframe que ejecutaban procesos por lotes. Debido a aspectos puramente
económicos, esos sistemas estaban bien protegidos y proporcionaban sólo
una accesibilidad limitada.
La necesidad de mejorar el nivel de respuesta y la flexibilidad, unida a
los avances tecnológicos, permitió la aparición de equipos descentralizados
cada vez más baratos y sofisticados. A mediados de los años setenta era
habitual cierto grado de descentralización, por lo general mediante
terminales sin capacidad de procesamiento conectados a líneas alquiladas
o nodos de acceso telefónico. Éste fue un salto gigantesco, ya que dejó de
2
El impulso hacia la centralización: el péndulo vuelve a cambiar
CUADRO 1
Centralización frente a descentralización de las TI
Descentralización/centralización
Coste
A
• Redundancia
de datos
• Reingeniería
• Sistemas dispares
Percepción
del usuario
Servicio
C
B
• Descentralización
Internet
• Sistemas operativos
dispares
Período de capacidad
de respuesta-costes
Período de uso intensivo
1960
• Menor coste
de un aspecto
• Acceso y fiabilidad
de los datos
• Seguridad
de los datos
• Instalaciones
redundantes
• ERP (anteriormente)
1987
E
D
Conscientes del valor
Período de grandes
volúmenes de datos
1992
1997
Fechas (no a escala)
2003
ser necesario desplazarse físicamente hasta el equipo de TI para ejecutar
un trabajo o un programa. Las personas podían enviar la tarea al
mainframe a través de este tipo de terminales. Los miembros de un
departamento, equipo u organización local compartían terminales y
enviaban sus trabajos a los mainframes electrónicamente, en lugar de
hacerlo mediante entradas físicas de tarjetas perforadas.
El primer punto de inflexión
La introducción del microordenador en 1981 dio lugar al fenómeno del
usuario final. Ahora, el procesamiento se podía realizar tanto localmente
como de forma repartida. A mediados de los años ochenta, el software
había evolucionado hasta tal extremo que era accesible para las personas
que no poseían conocimientos técnicos de programación, para lo cual se
contaba con que los usuarios finales fueran capaces de desarrollar y
ejecutar una serie de aplicaciones relativamente sencillas.
Los servidores fueron el siguiente avance tecnológico y de costes. La
consecuencia directa fue que la función de TI pasó poco a poco a ser
descentralizada y los departamentos gestionaban su propio software y
hardware. Debido a la falta de estándares y controles de calidad comunes
a toda la empresa, esta tendencia generó una enorme cantidad de
hardware diferente y no siempre compatible, así como aplicaciones de
Un factor importante
que influyó
en la tendencia hacia
la descentralización
fue el hecho
de que grandes
organizaciones,
como Siemens
y General Motors,
comenzaron
a utilizar el comercio
electrónico con
sus proveedores
3
El impulso hacia la centralización: el péndulo vuelve a cambiar
La recentralización
del ‘hardware’
no invalida el empuje
de Internet hacia
la descentralización
de la arquitectura TI
software no integradas y dispares. La amplia variedad de hardware y
software llevó, a su vez, a la redundancia de la información y la
consiguiente incongruencia de los datos. La línea A-B del cuadro 1
describe esta primera época.
La apremiante necesidad de lograr la integración de los datos y la
simplificación del paisaje de la arquitectura TI dio lugar al primer punto
de inflexión (B) en la anteriormente sistemática tendencia hacia la
descentralización. En el año 1987 se publicó el artículo “Wither the IT
organization”, el cual debatía las virtudes de la centralización o
“recentralización”. Sus autores defendían la gestión centralizada de
diversas funciones: telecomunicaciones (“para garantizar la rentabilidad y
la coordinación del negocio”); metodologías estándar de hardware y
software operativo (“compatibilidad de los sistemas en todas las unidades
de negocio”); políticas de información (“para gestionar la propiedad
corporativa y el intercambio de datos”); gestión compartida del riesgo y
los servicios (“para lograr economías de escala”); utilidades compartidas;
recursos humanos compartidos (incluyendo las trayectorias profesionales
de los expertos en TI); y la centralización del hardware y el software.
Es posible que otro factor que haya influido en el trayecto hacia la
centralización haya sido el deseo de iniciar nuevos esfuerzos de
reingeniería, algo que es más sencillo cuando los sistemas son
compatibles. Este factor comenzó a desempeñar un papel importante a
principios de los años noventa, casi al final del ciclo (véase la línea B-C
del cuadro 1).
Apoyos y excepciones
Otras razones que han impulsado la evolución hacia la centralización
son los elevados costes de los centros de procesamiento de datos
independientes (y la duplicación de las licencias de software), los cambios
en la demografía de los profesionales de los servicios informáticos y, el
más importante, el énfasis por integrar las funciones empresariales con los
servicios informáticos y apoyar las nuevas oportunidades de negocio.
Se estableció un grupo central con extensos conocimientos a lo largo
de toda una organización para promover la integración de una manera
más efectiva. Algunos autores defienden la existencia de excepciones
como, por ejemplo, la que se produce al gestionar de forma
descentralizada el desarrollo de aplicaciones informáticas, lo que da lugar
a una estructura híbrida. Esta tendencia hacia la centralización también
fue reconocida por los medios de comunicación; entre las razones
aducidas, se aludía a restaurar el orden dentro del caos existente, la
presión del presupuesto, el crecimiento de las redes y la necesidad de
mayor seguridad.
4
El impulso hacia la centralización: el péndulo vuelve a cambiar
En 1992, el inicio del siguiente cambio hacia la descentralización
(véase el punto C del cuadro 1) estaba en marcha, creado no sólo a través
de la renovada percepción de una mayor calidad de servicio
proporcionada por la descentralización, sino también por los límites de la
comunicación entre multitud de sistemas operativos disponibles en aquel
momento y por un incipiente impulso hacia las soluciones web. Aunque
limitada a mediados de los años noventa, la iniciativa “punto-com” estaba
en pleno apogeo en 1997.
Otro factor importante que influyó en la tendencia hacia la
descentralización fue el hecho de que grandes organizaciones, como
Siemens y General Motors, comenzaron a utilizar el comercio electrónico
con sus proveedores. Al mismo tiempo, las empresas orientadas a los
consumidores (como Amazon.com) estaban instalando sus servidores por
todo el mundo con el fin de mejorar el tiempo de respuesta y utilizando
soluciones (como las de Akamai). En 1997, Thomas Malone analizaba la
descentralización de la toma de decisiones y de qué forma la decisión de
centralización afectaba a los siguientes tres factores: disponibilidad de
información, confianza y motivación. A pesar de que Malone llegó a la
conclusión de que era muy probable que el control organizacional futuro
fuera incluso más descentralizado, no fue capaz de explicar de qué forma
la arquitectura TI física subyacente que apoyaba esta tendencia sería
implementada.
A finales de los años noventa, se hizo evidente el siguiente punto de
inflexión (véase el punto D del cuadro 1), que conducía a la
recentralización del hardware. Cabe señalar que la tendencia hacia la
recentralización del hardware no invalida el empuje de Internet hacia la
descentralización de la arquitectura TI, lo que pone de manifiesto que hay
diferentes factores que pueden influir simultáneamente en la decisión
centralización-descentralización en direcciones opuestas.
¿Por qué la recentralización?
La tendencia hacia la recentralización que había comenzado a finales
de los años noventa tenía diversas motivaciones (como el coste) más allá
de los culpables tradicionales. La clave era la necesidad de acceso
instantáneo a los datos a través de una multitud de entornos de toma de
decisiones geográficamente dispersos, junto con la necesidad de fiabilidad
y seguridad en tales intercambios.
El coste de las telecomunicaciones y de la capacidad informática ha
disminuido en gran medida en los últimos treinta años, con lo que se ha
convertido en un factor mucho menos importante de lo que era antes. Se
podría caer en la tentación de afirmar que el coste ya no es una variable
en la ecuación. A menos que los costes de adquisición y de operación de
El coste de las
telecomunicaciones
y de la capacidad
informática
ha disminuido
en gran medida
en los últimos treinta
años, con lo que
se ha convertido
en un factor mucho
menos importante
de lo que era antes
5
El impulso hacia la centralización: el péndulo vuelve a cambiar
las TI lleguen a ser insignificantes, el aspecto económico de las nuevas
instalaciones tecnológicas no cambiará. Además, al correspondiente
descenso en los costes le siguen otras necesidades nuevas.
En la actualidad
es más probable
que las corporaciones
adquieran soluciones
flexibles más baratas
con una arquitectura
abierta, en especial
desde el pinchazo
de la burbuja
de las “punto-com”
En la actualidad es más probable que las corporaciones adquieran
soluciones flexibles más baratas con una arquitectura abierta,
especialmente desde el pinchazo de la burbuja de las “punto-com” y el
aumento de los gastos de TI. La revista The Economist señaló un
incremento del 16% en los gastos de TI en 2000, seguido de un descenso
del 6% en 2001. En resumen, los costes siguen siendo una parte
importante de las razones para la recentralización, pero su papel es
diferente al que desempeñaban en las primeras fases.
Otra diferencia entre los puntos B y D es una perspectiva de gestión
radicalmente diferente entre un punto y otro. A pesar de que ambos
puntos marcan un aumento en la centralización del hardware, en el
primer caso, la variedad tanto de software como de hardware fue la
principal motivación, mientras que, en el segundo, el problema era más de
seguridad y acceso fiable a los datos en un entorno distribuido.
En ambos casos, los costes fueron relevantes, pero de una manera
ligeramente diferente. Algunas de las consideraciones sobre los costes en
el primer caso implicaban cómo se podían reducir directamente costes
(externos), como, por ejemplo, facilitar la reingeniería y probablemente la
reducción del número de trabajadores, mientras que el objetivo en el
segundo caso era mejorar el acceso y la seguridad de los datos, mejorando
de este modo el rendimiento y, hasta cierto punto, disminuyendo también
los costes (internos). Por ejemplo, es mucho más costoso crear centros de
respaldo alternativos (de crisis) para cada una de las piezas del entorno
distribuido que crear un conjunto de centros de crisis para una
arquitectura TI centralizada.
Además, la capacidad para acceder de forma rápida y fiable a los datos
en servidores geográficamente distantes en un entorno descentralizado
puede verse comprometida. A medida que aumenta el número de
servidores, también aumenta la probabilidad de que al menos uno no
funcione o de que haya dificultades en la conexión. Una consecuencia de
ello es que la preparación de los estados financieros y operativos puede
no ser posible dentro del marco temporal que pretendían las significativas
inversiones en tecnologías realizadas en los últimos años.
El debate continúa
Es probable que en los años ochenta un problema fuera cómo
garantizar que los sistemas de correo electrónico pudieran comunicarse en
6
El impulso hacia la centralización: el péndulo vuelve a cambiar
un formato que no fuera simplemente texto. Hoy día, sin embargo, no hay
duda con respecto a la capacidad de conexión, a pesar de que es posible
que características tales como las libretas de direcciones no se
comuniquen perfectamente entre, digamos, el Outlook de Microsoft y
Lotus Notes. Por tanto, el problema es más una cuestión de ajuste en este
último impulso hacia la recentralización.
Además, en el contexto de los servidores descentralizados, no sólo es
más difícil la aplicación de estándares, sino que también se ve afectada la
seguridad de la información. Es mucho más fácil aplicar estrictos controles
de acceso de seguridad cuando hay pocas entradas o cuando los puntos de
entrada están centralizados. La centralización, según Malone, reduce “la
complejidad de entornos con múltiples servidores y las numerosas
solicitudes de cambio de red”.
A pesar de que se ha defendido una arquitectura TI descentralizada
como una forma de lograr que un sistema TI sea más tolerante a los fallos
en caso de que tenga lugar la eliminación de un nodo (por ejemplo, en el
caso de un devastador ataque terrorista), nosotros opinamos exactamente
lo contrario. La eliminación de un nodo podría inutilizar o comprometer
la parte en concreto de las operaciones o contenido que era
responsabilidad de ese nodo, a menos que el nodo haya sido duplicado
totalmente en otro lugar. La probabilidad de duplicar todos los nodos
imaginables está limitada por el coste.
Por tanto, una instalación centralizada con múltiples puntos de
respaldo y de duplicación es la plataforma de arquitectura TI con mayores
probabilidades no sólo de sobrevivir a un desastre, sino también de
hacerlo a un coste razonable. Esto se ve agravado por las dificultades
inherentes a la hora de gestionar múltiples aplicaciones de software que
realizan operaciones de respaldo en diferentes ubicaciones. Además, la
centralización tiende a reducir la redundancia de los datos y las
actualizaciones incongruentes.
Algunos ejemplos
Algunas razones van más allá de los aspectos técnicos. Por ejemplo,
Valeo, un fabricante de piezas para automóviles francés, con una
estructura compleja y tradicionalmente muy descentralizada de 180
plantas de producción en todo el mundo y más de 100 divisiones
operativas independientes, descubrió que, debido a cuentas de explotación
independientes, los directivos de las divisiones tenían pocos incentivos
para trabajar juntos con el fin de optimizar los beneficios globalmente.
La solución de la empresa consistió en aumentar el uso de Internet
para que los grupos estuvieran más interconectados y pudieran
Es mucho más fácil
aplicar estrictos
controles de acceso
de seguridad
cuando hay pocas
entradas o cuando
los puntos
de entrada están
centralizados
7
El impulso hacia la centralización: el péndulo vuelve a cambiar
beneficiarse mutuamente –un importante movimiento hacia la
centralización–. Entre otras soluciones, la compañía también creó
catálogos web, mejoró las adquisiciones entre las unidades creando
economías de escala y abordó los problemas de calidad.
Cemex, un importante productor de cemento mexicano, se encontró
compitiendo con gran éxito con fabricantes de renombre mundial. La clave
fue la automatización de la producción mediante una gran variedad de
aplicaciones TI específicas. Además de reducir el número de trabajadores, la
integración de los datos resultante mejoró el control de calidad y la gestión
de las ventas. A pesar de que seguía siendo necesario hardware TI en una
forma distribuida, la información se transmitía a una localización
centralizada para su análisis y gestión en tiempo real. Cemex ha crecido a
través de fusiones y adquisiciones. Curiosamente, inmediatamente después
de una determinada adquisición, la empresa impulsa la armonización de
sus sistemas técnicos y de gestión con los de las empresas del holding. En
la actualidad, los planes exigen la utilización de un solo portal
personalizado, con las operaciones centralizadas a través de Internet.
Otro ejemplo es Siemens, un conglomerado de empresas con más de 24
unidades de negocio que operan en 190 países y emplean a 470.000
personas. Hasta hace poco, era muy poco probable que sus unidades
intercambiaran información como consecuencia de sus sistemas
tecnológicos y su estilo de gestión altamente descentralizados.
Sin embargo, el consejero delegado creó un plan con cuatro principios,
tres de los cuales requieren una fuerte centralización de TI, aun cuando
también incluyen una serie de piezas descentralizadas; entre ellas, la
gestión del conocimiento, las compras on-line y las relaciones con los
clientes. Desde más de veinte países, el cliente puede hacer clic en
“Comprar en Siemens” y realizar un pedido. El cuarto principio consiste
en modificar la cadena de valor de la empresa, incluyendo las solicitudes
de empleo. Con el fin de lograr estos objetivos, es necesario unir el
fragmentado conjunto de sistemas, creando un enfoque corporativo
estandarizado.
La centralización
tiende a reducir
la redundancia
de los datos
y las actualizaciones
incongruentes
8
Por último, es mucho más fácil iniciar cualquier proyecto de
externalización partiendo de una arquitectura TI centralizada; por
consiguiente, esta arquitectura ofrece a los directivos una mejor selección
de alternativas.
Implicaciones
¿Cuáles son las consecuencias de este argumento? La respuesta varía
según el sector, el tipo de organización (grande o pequeña), el tipo de
El impulso hacia la centralización: el péndulo vuelve a cambiar
vinculación (orientada a otras empresas o a los consumidores), el ancho de
banda, las necesidades de conexiones en tiempo real y la cantidad de
información que es necesario intercambiar a la hora de realizar informes o
generar transferencias que requieren la toma de decisiones. Por tanto, es
posible que nuestras conclusiones tengan importantes implicaciones para
una organización en un extremo al tiempo que sirven de recordatorio para
una organización en el otro extremo.
Una organización debe considerar dos aspectos para comprender su
posición con respecto a la recentralización de la arquitectura TI de
hardware. El primer aspecto es la estructura de toma de decisiones. A
pesar de que un pormenorizado debate sobre este tema va más allá del
tema de este artículo, sus implicaciones son críticas para el desarrollo de
las mejores soluciones posibles de arquitectura TI de hardware. En otras
palabras, ¿qué herramientas precisan las personas que toman las
decisiones, especialmente aquéllas cuyas responsabilidades abarcan todo el
planeta? ¿Y qué grado de centralización de su arquitectura TI de hardware
podría satisfacer mejor sus necesidades?
La decisión con
respecto al grado
de centralización
varía probablemente
según el tamaño
y los vínculos
de la organización
con otras
organizaciones
J. Roberto Evaristo
El segundo aspecto es el estado de los indicadores clave del negocio
para la centralización de la arquitectura TI. La decisión con respecto al
grado de centralización varía probablemente según el tamaño y los
vínculos de la organización con otras organizaciones. Cuanto mayores
sean el grado de conexión y dispersión de una gran organización (en
especial, si algunas partes se encuentran en áreas con una infraestructura
menos adecuada o en áreas menos estables políticamente), la dependencia
de la información en tiempo real para tomar las decisiones, el interés en
reunir datos en tiempo real o la vulnerabilidad ante una catástrofe en
parte de su red, mayor es su necesidad de centralización de las TI de
hardware. I
Profesor auxiliar del
Departamento de Ciencias
de la Información y Decisión
de la University of Illinois.
© ACM.
Kevin Hollister
Kevin C. Desouza
Doctorando del Departamento
de Ciencias de la Información
y Decisión de la University
of Illinois.
Director de sistemas
de la información de Vivendi
Water Systems en Madrid.
9
Descargar