Comparación analítica de arreglos de antenas Yagi por los métodos

Anuncio
INGENIERÍA Investigación y Tecnología VI.2. 89-101, 2005
(artículo arbitrado)
Comparación analítica de arreglos de antenas
Yagi por los métodos de momentos y
multiplicación de patrones
R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís
Departamento de Telecomunicaciones
Facultad de Ingeniería, UNAM
E-mails: [email protected], [email protected] y
[email protected]
(recibido: agosto de 2002; aceptado: marzo de 2003)
Resumen
Las propiedades de operación de arreglos horizontales y verticales formados con tres antenas Yagi
son analizadas por el método de momentos, considerando la impedancia mutua entre ellas, para
Yagis con número creciente de elementos ( 3, 6 y 9), optimizando la impedancia total de entrada de
cada arreglo a una frecuencia central de 500 MHz. Adicionalmente, el patrón de radiación obtenido
para cada caso es comparado con la aproximación dada por el método de multiplicación de
patrones, variando la separación entre las Yagis para conocer hasta qué distancia influye
significativamente la im pedancia mutua entre los elementos del arreglo. Además de ser útil
comercialmente, esta información sirve como material didáctico para la asignatura de Antenas enlas
c a r r e r a s de Ingeniería.
Descriptores: Método de momentos, método de multiplicación de patrones, arreglo de antenas,
antenas Yagi, Troica.
Abstract
T h e o p e r a t i o n a l properties of horizontal and vertical arrays formed by 3 Y a g i a n t e n n a s
are analized by t h e M e t h o d o f M o m e n t s ( M o M ) , t a k i n g i n t o a c c o u n t t h e m u t u a l
i m p e d a n c e s b e t w e e n t h e m . Y a g i s with a n i n c r e a s i n g n u m b e r o f e l e m e n t s ( 3 , 6 and 9)
a r e u s e d , o p t i m i z i n g t h e i n p u t impedance of each arra y a t a fixed center frequency of
500
MHz.
The
radiation
pattern obtained i n
each
case is compared to the
a p p r o x i m a t i o n g i v e n b y t h e P a t t e r n M u l t i p l i c a t i o n M e t h o d for different s e p a r a t i o n s
b e t w e e n t h e Y a g i a n t e n n a s of each arra y, to determine the influence of distante i n the
calculation of the radiation c h a r a c teristics. Besides being commercially useful, this
i n f o r m a t i o n is also of teaching value on the subject of a n t e n n a s i n t e l e c o m m u n i c a t i o n s
engineering.
Keywords: M e t h o d o f m o m e n t s , p a t t e r n m u l t i p l i c a t i o n m e t h o d , a n t e n n a a r r a y s , Y a g i a n t e n n a s .
Introducción
Las antenas Yagi, como la mostrada en la figura
1, pueden ser utilizadas de forma sencilla en aplicaciones tales como recepción de señales de TV en
las bandas de VHF y UHF, repetidores en las
bandas de telefonía celular y PCS, en 800 y 1900
MHz respectivamente, comunicaciones rurales, etc.
La ganancia que proporcionan estas antenas
depende del número de elementos parásitos
que las componen y se encuentra
típicamente entre 6 y 15 dBi, según los
requerimientos de su aplicación; (Balanis,
1997; Decibel Products, 2000).
Sin embargo, existen casos en la práctica
donde es necesario incrementar la
directividad de la antena, y para ello, se
recurre a formar
Comparación analítica de arreglos de antenas Yagi por los métodos de momentos…
arreglos integrados con dos o más antenas
elementales idénticas, que pueden ser del tipo Yagi,
dipolos sencillos o doblados, platos parabólicos,
etc. Si la separación entre dichas antenas elementales
y las alimentaciones (magnitud y fase) de cada una de
ellas son elegidas adecuadamente, entonces el
arreglo resultante ofrece las ventajas buscadas de
mayor directividad. En el caso de las antenas Yagi es
muy común utilizar arreglos de dos, tres o cuatro
antenas elementales para incrementar la directividad
en comunicaciones de control o punto a punto (Decibel
Products, 2000). Uno de estos arreglos, también
conocido como troica (Rossier, 1986) consiste de tres
antenas Yagi que pueden estar colocadas formando
una cortina horizontal (Figura 2) o una cortina
vertical (Figura 3). No obstante, la información relativa
a sus características de operación es escasa en los
folletos de fabricantes y prácticamente nula en los
libros de texto. Es evidente que si sus separaciones
y alimentaciones son seleccionadas correctamente, la
ganancia de cada arreglo debe ser mayor que la de una
sola antena elemental; pero para realizar una
alimentación correcta, es necesario conocer la
impedancia de entrada de cada una, y ésta de pende del acoplamiento mutuo de impedancias entre
todos los conductores del arreglo. Es de esperarse
que esta impedancia mutua se reduzca de antena a
antena conforme aumente la separación D mos-
trada en las figuras 2 y 3. La única forma de saber el
efecto de dicha separación sobre el acoplamiento entre
las Yagis y, por ende, sobre las impedancias de
entrada y los patrones de intensidad de radiación
relativa de cada antena elemental es usando el
método de momentos (Harrington, 1968; Neri, 1999)
o realizando exhaustivas mediciones. Estas últimas no
son fáciles de llevar a cabo, pues aún si se
contase con una cámara anecoica, se requeriría de
una estructura de montaje a la vez rígida y con la
flexibilidad
suficiente
para
incrementar
progresivamente la separación D entre las antenas.
Por lo anterior, en el presente trabajo se han
analizado varias cortinas horizontales y verticales por
el método de momentos, variando progresivamente la separación D y usando como antenas
elementales para cada arreglo Yagis con 3, 6 y 9
elementos (1 reflector, 1 dipolo doblado y 1, 4 y 7
directores, respectivamente). La separación D
influye en el patrón de radiación resultante; no puede
ser demasiado grande (del orden de varias longitudes
de onda) y también hay que evitar que las antenas
hagan contacto entre sí, de tal manera que un valor
típico recomendado con base en mediciones
prácticas es de aproximadamente 0.75λ, (Rossier,
1986), por lo cual, se modelaron arreglos con valores
de D entre 0.5λ, y 1.0λ,.
INGENIERÍA Investigación y Tecnología
FI-UNAM
R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís
Vol VI No.2 – abril-junio -2005
Comparación analítica de arreglos de antenas Yagi por los métodos de momentos…
Los arreglos de antenas Yagi, además de brindar mayor
ganancia que una antena sola, ya que el ancho de su haz
principal es más angosto, tienen además aplicaciones
muy importantes en comunicaciones ionosféricas y en
la recepción de TV en áreas con alta interferencia
electromagnética. Esto se debe a que, al montar las
Yagis sobre un pedestal muy alto, el efecto del plano
de tierra sobre el patrón final del arreglo es reducir
el ángulo de inclinación del lóbulo principal, con
respecto al plano del terreno, varios grados menos
que el ángulo de inclinación que tendría el lóbulo
principal de una Yagi sola, cuando también se toma
en cuenta el efecto del plano de tierra.
Por lo anterior, muchos radioaficionados en
todo el mundo utilizan arreglos de Yagis con el fin de
comunicarse a miles de kilómetros de distancia, usando
como puntos de reflexión las capas ionosféricas
(http://www.uksmg.org/stack.htm). Mientras menor sea
el ángulo de ataque del lóbulo principal del arreglo
sobre dichas capas, se obtiene mayor alcance. En
cuanto a su aplicación en la recepción de TV, los
arreglos de Yagis, además de mejorar la ganancia,
reducen el ancho del haz principal, y con ello, se
reduce la probabilidad de recibir interferencias (con la
consiguiente aparición de "fantasmas"). Estas
interferencias pueden provenir de reflexiones con
vehículos terrestres, aviones, edificios y otros
obstáculos (http://pages.cthome,net/fmdx/stackant.html).
Como se mencionó anteriormente, en el presente
trabajo se estudian las propiedades de varias cortinas
o arreglos de antenas Yagis. Es importante aclarar
que en este estudio se consideró que los arreglos están
en el espacio libre y, por lo tanto, no se tomó en
cuenta el efecto del plano de tierra. Sin embargo,
con los resultados y la metodología que se aportan,
dicho efecto puede calcularse con el método de
imágenes. No se incluye en este trabajo porque la
extensión del artículo sería excesiva, dado que habría
que usar otros parámetros como tipo del terreno, altura
del arreglo sobre el piso, tipo de polarización, etc., y
puede ser objeto de otro estudio posterior.
Los patrones de radiación obtenid os por el
método de momentos serán comparados con los
patrones que serían predichos por el método
gráfico de multiplicación de patrones. Este último
método no toma en cuenta los acoplamientos de
impedancia entre los conductores de las Yagis de
cada arreglo y, por tanto, sólo da una visión
aproximada del patrón de radiación. Sin embargo,
como se demostrará en este trabajo, dicha aproximación tiende a empeorar cuando las antenas del
arreglo están muy próximas entre ellas. De ahí que en
este artículo se aporta información nueva en lo que se
refiere a la precisión del método de multiplicación
de patrones en comparación con el método de
momentos, en función de la separación eléctrica entre
las antenas elementales.
Desarrollo por el método de momentos
No existe una regla única ni un desarrollo matemático
que permita encontrar directamente las características
de radiación de una antena Yagi, y menos de un
arreglo, ya que se pueden obtener buenos
resultados de operación con una gama de
diferentes longitudes y separaciones entre los
elementos parásitos (Balanis, 1997). Sin embargo,
existen referencias experimentales de parámetros
típicos sobre la longitud de dichos parásitos y la
separación entre ellos (Balanis, 1997); (Kraus et al.,
2002), que dan resultados óptimos cuando dichas
antenas trabajan en forma aislada o individual. Si se
toman en cuenta estos parámetros típicos como
punto de partida, es posible ajustarlos mediante un
programa de computadora (Hernández et al..
2002) diseñado especialmente para tal propósito, con
el fin de optimizar la impedancia de entrada. Dicha
impedancia se considera óptima cuando su parte real
es cercana a 75Ω y su parte imaginaria despreciable,
lo cual garantiza un acoplamiento ideal entre la
antena aislada y un cable de alimentación con
impedancia característica comercial de 75Ω . Este
programa de computadora fue elaborado por los
mismos autores de este artículo para el análisis de
antenas Yagi que trabajan de forma individual y se
utilizó para calcular las longitudes óptimas l1 y 12 que
se muestran en las tablas 1 y 2 para cada antena de
cada arreglo. Como facilidad para el lector
interesado, el sitio (Hernández et al., 2002) donde
dicho programa puede ser descargado, también
contiene todas las fórmulas y el procedimiento
matemático del método de momentos aplicado a
antenas Yagi.
Además de los parámetros de las antenas
analizadas, en las tablas 1 y 2 también se muestra la
impedancia de entrada (R+ jX) calculada para cada
Yagi, así como la impedancia de entrada total
INGENIERÍA Investigación y Tecnología
FI-UNAM
R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís
(Ri+ j Xi ) del circuito de alimentación de cada
troica y la ganancia y FBR de cada arreglo. Por lo
que se refiere al circuito de alimentación, se ha
demostrado experimentalmente que la forma
más efectiva de conectar las tres antenas
elementales con el cable de alimentación es como
se muestra en la figura 4 (Rossier, 1986). En ella se
observa que la impedancia de entrada de las Yagis en
los extremos (A y C) de las figuras 2 y 3 quedan en serie
y su resultante, a la vez, queda en paralelo con la
impedancia de entrada de la antena elemental
central_ (B). De ahí que los voltajes de alimentación
utilizados en el método de momentos (Neri, 1999) se
eligieron como VB= 1<0° y VA = VC = VB/2=0.5<0°
De acuerdo con la simetría con respecto al plano
xz (Figura 2), las impedancias de entrada de las
antenas Yagi en los extremos de una cortina horizontal
son iguales y sólo es necesario reportar una de ellas en
la tabla 1; en cambio, en la tabla 2, sí se muestran los
valores de impedancia de entrada de las tres antenas
del arreglo, puesto que no existe la condición de
simetría con respecto al plano xy (Figura 3).
Tabla 1 . C o r t i n a h o r i z o n t a l . L o s v a l o r e s p r e s e n t a d o s f u e r o n o b t e n i d o s a u n a f r e c u e n c i a d e t r a b a j o d e 500 M h z c o n
1 = 0 . 4 2 . , s l= 0 . 2 2 , y s = 0 . 3 2 , para todos los casos. Por la simetría del arreglo, ZC=ZA ( F i g u r a 4 )
Número
elementos
en cada
Ya gi
l1 [λ]
l 2 [λ]
D[λ]
G[dBi]
RA [ Ω ]
RB[Ω]
XA [Ω]
XB [Ω]
R.i [Ω]
Xi [Ω]
0.439
0.447
0.50
0.50
14.0
18.8
150.7
121.8
24.5
120.0
-9.3
86.8
6
0.49
0.47
16.7
89.5
-6.7
66.0
-1.2
11.0
9
0.49
0.439
0.50
17.5
128.5
15.0
105.1
-5.3
75.0
-0.2
11.8
3
0.49
12.4
15.0
119.7
107.6
8.7
1.8
-3.2
80.1
0.5
8.6
0.47
0.60
0.60
119.9
6
0.415
0.417
121.3
-1.1
77.6
0.0
7.9
9
0.49
0.415
0.60
16.5
118.6
-2.3
131.9
2.5
84.8
3
-0.9
FBR[B]
0.4
8.6
10.5
(continúa...)
Vol VI No.2 – abril-junio -2005
INGENIERÍA Investigación y Tecnología VI.2. 89-101, 2005
(artículo arbitrado)
Tabla 1 . C o r t i n a h o r i z o n t a l . L o s v a l o r e s p r e s e n t a d o s f u e r o n o b t e n i d o s a u n a f r e c u e n c i a d e t r a b a j o d e 500 M h z c o n
1 = 0 . 4 λ,
Número
de
elementos
en cada
Yagi
s 1 =0.2λ, y s=0.3λ p a r a t o d o s l o s c a s o s . P o r l a s i m e t r í a d e l a r r e g l o , Z C =Z A ( F i g u r a 4) (...continuación)
l1 [λ]
D[λ]
l2 [λ]
G[dBi]
RA [Ω ]
X A [Ω]
RB [Ω]
Ri [Ω]
X B [Ω]
Xi [Ω]
FBR[dB]
3
0.49
0.410
0.75
12.7
111.1
1.0
110.0
1.0
73.6
1.0
10.0
6
0.47
0.417
0.75
14.5
104.4
2.5
110.8
-1.6
72.4
-0.1
8.5
9
0.49
0.414
0.75
15.4
120.1
- 1.3
138.3
1.1
87.8
0.1
11.6
3
0.49
0.409
0.90
12.8
110.9
110.6
0.415
0.90
13.8
94.2
91.6
0.5
0.7
10.4
0.47
0.7
2.0
73.8
6
0.7
- 0.3
9
0.49
0.416
0.90
15.6
115.0
16.5
120.8
-2.8
79.2
-0.8
12.8
3
0.49
0.409
1.00
12.8
111.1
0.7
111.0
0.8
74.0
0.5
10.1
6
0.47
0.416
1.00
14.9
98.0
0.8
97.9
-0.1
65.3
0.2
9.9
9
0.49
0.416
1.00
15.6
111.8
2.1
113.2
- 1.1
75.2
1.7
13.3
61.7
8.2
T a b l a 2. C o r t i n a v e r t i c a l . L o s v a l o r e s p r e s e n t a d o s f u e r o n o b t e n i d o s a u n a f r e c u e n c i a d e t r a b a j o d e 500 M h z c o n 1=0.4X,
s 1 =0.2X y s=0.3?, para todos los casos. Aquí Zc '# Z A ( F i g u r a 4)
Número
de
elementos
en cada
Yagi
D [ λ]
1 1 [ λ]
1 2 [ λ]
RC [Ω ] X C [Ω ]
R i[Ω] X i [ Ω ]
FBR[dB]
3
0.49
0.410
0.50
13.0
113.5
24.2
110.0
-2.8
110.9
1.1
73.9
- 0.9
12.5
6
0.47
0.414
0.50
14.1
112.5
-1.6
135.0
4.0
109.0
-3.0
83.9
0.9
8.1
9
0.49
0.404
0.50
16.4
128.7
- 18.7
140.1
13.3
123.7 - 20.5
91.4
0.6
15.2
3
0.49
0.409
0.60
13.6
6
0.47
0.419
0.60
14.6
112.2
- 0.5
110.2
3.6
119.6
1.8
- 4.3
110.7
110.0
108.2
1.0
5.3
73.7
77.4
0.8
- 0.7
16.4
9.7
9
0.49
0.415
0.60
15.9
139.8
-2.4
179.0
0.1
137.2
1.0
108.7
- 0.2
15.3
3
0.49
0.410
0.75
12.7
112.2
1.5
113.4
- 1.3
113.0
2.8
75.4
- 0.1
6
0.47
0.418
0.75
14.8
98.6
3.3
96.9
- 3.3
99.3
4.6
65.1
-0.6
10.5
9
0.49
0.421
0.75
15.1
128.3
10.5
128.3
-4.0
129.4
12.7
85.9
0.8
10.1
3
0.49
0.408
0.90
12.4
107.7
- 1.2
106.2
- - 0.4
108.5
- 2.5
71.2
-0.6
8.2
6
0.47
0.415
0.90
13.8
94.2
- 0.3
91.6
2.0
94.8
- 1.2
61.7
0.7
8.2
9
0.49
0.414
0.90
14.6
112.9
1.6
112.0
-0.9
113.5
-0.1
74.9
- 0.2
10.6
3
0.49
0.408
1.00
12.8
110.7
- 0.4
110.5
0.4
109.9
- 1.2
73.6
0.0
9.8
6
0.47
0.414
1.00
14.2
96.9
- 1.3
98.1
0.1
96.3
-2.0
65.1
- 0.3
9.3
9
0.49
0.413
1.00
14.9
116.3
- 0.5
113.4
- 0.8
115.2
- 1.1
76.1
- 0.5
12.8
G[dBi]
RA [Ω]
XA [Ω]
RB [Ω] XB [Ω]
8.78
R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís
Sin embargo, la diferencia entre estas impedancias de
las antenas Yagi en los extremos de la cortina vertical
son muy pequeñas (del orden de algunos Ohms), de
modo que, como se ve más adelante en la sección del
método de multiplicación de patrones, es posible
considerar que la magnitud de radiación es la misma
en las antenas Yagi que se encuentran en los
extremos de una troica.
Aun cuando la ganancia obtenida para una
separación D= 0.75λ no es siempre la mejor, es
menor a la de otras separaciones solamente por
algunas décimas de decibel, y de las figuras 7 y 8 se
observa que para distancias menores se tiene un
ancho de haz principal mayor, por lo tanto, una menor
directividad; en cambio, para separaciones mayores,
se incrementa el número de lóbulos laterales, lo cual
generalmente no es deseable. Por estas razones, y
por cuestiones de espacio, en la figura 5 se muestra
la distribución de ganancia en función de la frecuencia
para cada uno de los arreglos modelados, pero
solamente para una separación D= 0.75λ.
Se demuestra que la ganancia de una troica, ya
sea horizontal o vertical, es siempre mayor a la de una
antena Yagi elemental con el mismo número de
directores, independientemente de la frecuencia a la
que se trabaje dentro del intervalo estudiado (480
MHz a 520 MHz). En cuanto a su ganancia, no es fácil
decidir si una troica se comporta mejor con una
cortina horizontal que una vertical, puesto que ambas
tienen ganancias similares y los pares de curvas son
distintos según el número de directores que tenga
cada Yagi, aunque la cortina horizontal tiene una
ganancia mayor en las frecuencias superiores a la
frecuencia central. Todos los arreglos aquí mostrados
tienen una ganancia relativamente estable con
respecto a la frecuencia, puesto que la máxima
diferencia entre sus valores máximo y mínimo es de 2
dB, por lo que se puede afirmar que el ancho de
banda de 3 dB con respecto a la ganancia máxima es
mayor que la banda mostrada en la figura 5. Sin
embargo, también se puede definir el ancho de banda
como una función del VSWR (Voltage Standing Wave
Ratio) o Relación de Onda Estacionaria, el cual está
dado por:
donde el coeficiente de reflexión p se define como:
considerando una impedancia característica de 75Ω
para el cable de alimentación. Un acopla miento de
impedancias se considera aceptable para valores de
VSWR menores que 1.5 (Collin, 1985). En la figura 6
se muestra el VSWR de los arreglos con respecto a la
frecuencia; se observa que el VSWR más alto se
obtiene para las antenas Yagi. Esto sucede porque
no fueron optimizadas para igualar su impedancia de
entrada a 75Ω, sino que simplemente se utilizaron
las dimensiones de las troicas pero en antenas
aisladas. En lo que respecta a las troicas, una cortina
horizontal de 3 elementos tiene aproximadamente el
mismo ancho de banda que su análogo vertical;
mientras que para un número mayor de elementos (6
o 9) el ancho de banda del arreglo horizontal es mayor
que el del vertical por 6-7 MHz. Regresando a las
figuras 7 y 8, en ellas también se muestra el patrón de
radiación obtenido por el método de multiplicación
de patrones, superpuesto al patrón predicho por el
método de momentos.
Vol VI No.2 – abril-junio -2005
Comparación analítica de arreglos de antenas Yagi por los métodos de momentos…
INGENIERÍA Investigación y Tecnología
FI-UNAM
R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís
Vol VI No.2 – abril-junio -2005
Comparación analítica de arreglos de antenas Yagi por los métodos de momentos…
INGENIERÍA Investigación y Tecnología
FI-UNAM
R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís
Método de multiplicación de
patrones
El método de multiplicación de patrones permite
encontrar el patrón de radiación aproximado de un
arreglo, pero su utilidad se reduce solamente a eso y
no es posible obtener mediante él las demás
características operativas de la antena, tales como su
ganancia e impedancia de entrada. A continuación se
describe brevemente cómo calcular dicho patrón
aproximado por el método de multiplicación de
patrones.
El campo lejano de radiación de un arreglo de
elementos idénticos (antenas elementales) es igual al
producto del campo producido por uno solo de
estos elementos, localizado en un punto de
referencia determinado (usualmente el origen del
sistema de referencia), y el factor del arreglo. Es decir:
E(total) = [E(elemento único en el punto de
referencia)]x [factor del arreglo]
(3)
A esta relación se le conoce como. multiplicación
de patrones para arreglos de elementos idénticos
(Balanis, 1997), ya que al evaluar la ecuación (3) en
muchos puntos alrededor del arreglo, es posible
obtener su patrón de radiación. En la figura 9 se
muestran arreglos de tres elementos isotrópicos
separados una distancia D y con magnitudes de
alimentación an no uniformes. A partir de dichas
geometrías se puede obtener el factor del arreglo
(FA) tanto para la cortina horizontal (Figura 9a) como
para la vertical (Figura 9b). En ambos casos
se utilizaron las magnitudes normalizadas a B= 1 y
aA = ac= aB/2= 0.5, de acuerdo con el circuito de
alimentación de la figura 4 y suponiendo un mismo
voltaje de excitación en las antenas A y C, aun cuando
en la cortina vertical, su impedancia de entrada varía
en algunos Ohms por la asimetría de la alimentación
en el arreglo (Figura 3), tal como se comentó
anteriormente. Para un punto en el campo lejano en
una dirección Φ , el factor del arreglo en el plano
xy de la figura 9a (cortina horizontal) está dado por:
y para encontrar el factor del arreglo en el plano xz de la
figura 9b (cortina vertical) es suficiente intercambiar el
ángulo Φ en la ecuación 4 por el ángulo Θ, como
se muestra en la siguiente ecuación:
En las figuras 7 y 8 se muestran los patrones de
radiación normalizados para cortinas horizontales y
verticales respectivamente, con 3, 6 y 9
elementos y con separaciones D entre antenas Yagi
de 0.5λ, 0.7λ, y 1.0λ obtenidos mediante el método
de momentos (-) y también por el método de
multiplicación de patrones ( - - - ) .
Se nota que, en todos los casos, la diferencia
entre los patrones predichos por cada método es
mayor conforme D es más pequeña; esto se debe a
que el efecto de las impedancias mutuas es mayor
para estas separaciones pequeñas, por la cercanía de
los conductores vecinos, y esto no lo toma en cuenta
el método de multiplicación de patrones, mientras que
el método de momentos sí incluye estas impedancias
mutuas. Sin embargo, hay que resaltar que el método
de multiplicación de patrones predice, en todos los
casos, el mismo número de lóbulos laterales y en las
mismas direcciones que el método de momentos,
pero con algunas diferencias importantes de
magnitud, tanto en estos lóbulos como en el
posterior. De allí que, al efectuar dicha
comparación, es posible determinar un límite
para la separación D donde sea permisible usar el
método de multiplicación de patrones, el cual aporta
resultados muy rápidos mediante cálculos muy
sencillos.
Vol VI No.2 – abril-junio -2005
Comparación analítica de arreglos de antenas Yagi por los métodos de momentos…
Conclusiones
El método aproximado de multiplicación de patrones
permite obtener el patrón de radiación de arreglos de
tres antenas Yagi (troicas) con cierta precisión, siempre
y cuando la distancia entre ellas no sea muy pequeña.
Para usar este método se recomienda que la
separación D sea igual o mayor que 0.75λ. Sin
embargo, resulta impráctico desde el punto de vista
de montaje, altura de mástiles o extensión de terreno,
construir arreglos con separaciones mayores, y por
ello, es necesario usar un método más preciso para
conocer las características de operación de arreglos
prácticos que usan separaciones menores.
Esto se logra usando el método de momentos,
mismo que al tomar en cuenta todos los acoplamientos mutuos de impedancia entre los conductores de las Yagis del arreglo, da resultados
mucho más aproximados a la realidad. Este método
tiene, además, la virtud de que no sólo permite
calcular el patrón de radiación sino también la
impedancia de entrada, que es información necesaria
para alimentar la antena con óptimos resultados. En
este trabajo se ha demostrado que la ganancia de los
arreglos estudiados es mayor que la de una antena Yagi
aislada, entre 2 y 4 dBs más, según el número de
conductores que tenga cada Yagi.
Por ejemplo, la ganancia de una troica con Yagis de un
solo director es equivalente a la ganancia de una sola
antena Yagi con siete directores. Sin embargo, el
montaje de esta última es más complicado y puede ser
un factor en contra de su uso. También se ha
encontrado que las curvas de ganancia de las troicas
horizontales y verticales son muy parecidas, pero que
existe una diferencia importante en el funcionamiento
de dichos tipos de troica en lo que se refiere al
comportamiento de su VSWR, en función de la
frecuencia. Esto es importante para determinar la
alimentación óptima del arreglo porque el VSWR está
directamente asociado con su impedancia de entrada,
ya que al depender de la frecuencia influye sobre el
ancho de banda de operación. En este sentido, el ancho
de banda de una cortina horizontal es mayor que el de
una vertical, aproximadamente un 40%.
El elegir un tipo de troica sobre otro, depende del
patrón de radiación con el que se desee trabajar, ya
que una cortina horizontal tiene un ancho de haz en su
lóbulo principal que es menor en el plano horizontal
que el de una Yagi sola, mientras que una cortina vertical
tiene un ancho de haz de su lóbulo principal que es
menor en el plano vertical que el de una antena Yagi
sola.
INGENIERÍA Investigación y Tecnología
FI-UNAM
R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís
Referencias
Balanis C.A. (1997). Antenna Theory, Analysis and
Design. Second Edition, John Wiley & Sons, Inc.,
EUA.
Collin R.E. (1985). Antennas and Radiowave
Propagation.
McGraw
Hill International
Editions. EUA.
Decibel Products (2000). Base Station Antennas and
RF Components. Product Catalog. Decibel
Products, Dallas, Texas, EUA.
Harrington R.F. (1968). Field Computation by
Moment Methods. Macmillan, Nueva York.
Hernández V., Valiente L.A. Y Neri R. (2002).
The Method of Moments. Http://telecom.fib.unam.mx/weblink /TheMethod of
Moments.htm
Kraus J.D. y Marhefka R.J. (2002). Antennas for all
Applications. Third Edition. McGraw Hill, EUA.
Neri R. (1999). Análisis de Antenas Lineales por
el Método de Momentos. Ingeniería Investigación
y Tecnología, UNAM. Vol. 1, No. 2, pp.73-83.
Rossier H. (1986). Antenas Colectivas. Boixareu
Editores, Barcelona, México.
Semblanza de los autores
Rodolfo Neri-Vela. En 1975, obtuvo su título de ingeniero mecánico-electricista en el área de comunicaciones y electrónica por la
Facultad de Ingeniería de la UNAM. En 1976, recibió el grado de maestría en sistemas de telecomunicaciones otorgado por la
Universidad de Essex, Reino Unido. En 1979, alcanzó el grado de doctorado en electromagnetismo aplicado por parte de la
Universidad de Birmingham, también en el Reino Unido. En 1985, se convirtió en el primer astronauta de México, al participar en
la misión 61- B de la NASA de los EU y orbitar la Tierra 109 veces. Es profesor e investigador del Departamento de
Telecomunicaciones de la Facultad de Ingeniería de la UNAM desde hace 23 años y pertenece al Sistema Nacional de
Investigadores del CONACYT.
Luis Alán Valiente-Montaño. Obtuvo su título en el año 2000 como ingeniero en telecomunicaciones por la Facultad de Ingeniería de la
UNAM . En el 2003, recibió el grado de maestría en ingeniería de comunicaciones otorgado por el Instituto de Ciencia y
Tecnología de la Universidad de Manchester (UMIST), Reino Unido. Actualmente está becado por el CONACYT y realiza sus
estudios de doctorado en la misma Universidad de Manchester, en el área de microscopía por microondas en el campo
cercano.
Vladimir Hernández-Solís. Se tituló como ingeniero en telecomunicaciones en el 2000, en la Facultad de Ingeniería de la UNAM. En el año
2003 recibió el grado de maestría en ingeniería de comunicaciones, otorgado por el Instituto de Ciencia y Tecnología de la
Universidad de Manchester (UMIST), Reino Unido. Tiene experiencia en arreglos adaptivos para redes celulares CDMA, antenas y
óptica no lineal. Actualmente realiza sus estudios de doctorado en el Centro de Investigaciones en Optoelectrónica de la
Universidad de Southampton, Reino Unido, en el área de amplificadores de fibra de alta potencia.
Vol VI No.2 – abril-junio -2005
INGENIERÍA Investigación y Tecnología VI. 2. 103-118, 2005
(artículo arbitrado)
Hacia la convergencia total de las tecnologías de la
información
L.R. Vega-González
Centro de Ciencias Aplicadas y Desarrollo Tecnológico, CCADET
Coordinación de Vinculación, Laboratorio de Cibernética y Sistemas
E-mail: [email protected]
(recibido: octubre de 2003; aceptado: abril de 2004)
Resumen
Diversos estudios indican que la dinámica de la innovación tecnológica ha crecido en
forma exponencial durante los últimos cincuenta años, impulsada aparentemente
por los avances sustanciales y continuos de las tecnologías de la información (TI’s).
La disponibilidad de información con bajo costo relativo, en cualquier momento y en
cualquier lugar, ha propiciado que se identifique a la actual sociedad como “sociedad
de la información”, la cual está evolucionando hacia la “sociedad del conocimiento”.
Este es y será, tal vez uno de los fenómenos más importantes y de mayor impacto en
las décadas por venir. En este trabajo se presentan los primeros resultados de un
estudio sobre la evolución de las tecnologías de la información que dieron origen y
propiciaron el fenómeno de la globalización económica. La prospectiva indica que en
algunas décadas se dará la convergencia absoluta de las TI’s. De esta manera, parece
muy probable que el continuo avance de tres tecnologías fundamentales, los
dispositivos semiconductores (S), los sistemas de cómputo (C) y de los protocolos de
comunicaciones (P), con sus diferentes impactos, transformará definitivamente la
vida del ser humano, sus organizaciones y sus sociedades. El fenómeno plantea la
problemática y la necesidad de generar un sistema de adaptación individual y
colectiva que sea capaz de responder adecuadamente ante la dinámica de los
cambios.
Descriptores: Tecnologías de la información, convergencia, globalización, impactos.
Abstract
Sev eral works in di cate that the tech no log i cal in no va tion dy nam ics has grown ex po nen t ially during the last fifty years, ap par ently driven by the sub stan tially con tin u ous ad vances in t he in for ma tion tech nol ogy (IT). The low cost in for ma tion avail abil ity in any place, and in any mo ment, has pro pi ti ated the iden ti fi ca tion of the ac tual so ci ety as the “in for ma tion soci ety”, which
in turn has been trans formed to the “knowl edge so ci ety”. This will may be the most im por tant
and ma jor im pact ing phe nom e non in the fol low ing de cades. In this work, we pres ent pre lim i nary
re sults of an IT evo lu tion ary study, sup port ing the fact that they gave or i gin and ac tu ally support the eco nomic globalisation pro cess. In such a way, it seems very prob a bly that the con tin uous ad vance ment of three fun da men tal in for ma tion tech nol ogy types, semi con duc tor de vi ces (S),
Com puter Sys tems (C), and Com mu ni ca tion pro to cols (P), with their dif fer ent im pacts will defin i tively trans form hu man be ing life, its or ga ni za tions and so ci et ies. Finally, the prob lem of the
need of an ad ap ta tion sys tem for ad e quate in di vid ual and col lec tive re sponse in front of the dynamic changes is ad dressed.
Keywords: In for ma tion tech nol ogy con ver gence, globalisation, im pacts.
Hacia la convergencia total de las tecnologías de la información
El entorno tecnológico en la primera
década del Siglo XXI
El cambio tecnológico ha sido el propulsor de la
situación que hoy en día guarda el sistema socioeconómico y político mundial, así como de los
diversos impactos que se perciben en las organizaciones y en los individuos. En sus trabajos
sobre los ciclos económicos, Modelski (2001),
señala que la onda No. 19 de Kondratieff, dio inicio
con la aparición de Internet a finales de los
setentas y que llegará hasta el año 2020 cubriendo
el promedio de cincuenta años que toman los
ciclos de innovación. A todas luces parece, que
du rante los años que perdure este ciclo económico, el desarrollo tecnológico de las comunicaciones será impresionante, dando lugar a sistemas
muy sofisticados que serán desarrollados con la
aparente intención de mejorar el nivel de vida de
los individuos, pero dando lugar también, a una
gran acumulación de cap i tal que va a generar un
mayor aumento en los niveles de pobreza.
Esta contradicción es muy clara para Dubois,
quien citado en la revista Fiap (1998), considera que
en el desarrollo de la economía global intervienen
tanto las tecnologías como las ideologías, por lo
que en un nuevo mundo global será necesario
eliminar la marginación del hombre y respetar la
naturaleza. El problema es, que las innovaciones
que no respeten estos principios no darán paso a
una revolución, sino a una involución.
La era de la información se reconoce como tal a
partir del descubrimiento del transistor por los
Laboratorios Bell en 1951, ya que du rante las décadas siguientes, las diversas tecnologías relacionadas con el uso de los dispositivos semiconductores para el manejo de las comunicaciones sufrieron una evolución extraordinaria y
constante. En un principio, la ola de innovación se
dio en el hardware de los sistemas, lográndose
sistemas muy poderosos y eficientes a partir de la
integración de los procesadores, las memorias y
los periféricos. Aunado a esto, se desarrolló soft ware operativo de alta eficiencia y confiabilidad, el
cual estuvo disponible en diversas versiones a fi na les del siglo XX.
Por otra parte, el incremento en el negocio de
las empresas que ofrecían el servicio de transporte
de señales telefónicas, “carriers”, propició el desarrollo del software especializado en comunica-
104
INGENIERIA Investigación y Tecnología
ciones. Las diferentes versiones de este software
son conocidas como protocolos de comunicación.
Los protocolos permitieron el establecimiento
de redes de computadoras usadas inicialmente
con fines bélicos y posteriormente para facilitar y
mejorar el manejo de datos, imágenes y audio a
través de los multimedios, haciendo uso de redes
de comunicación satelital con medios de transmisión de fibra óptica de banda ancha. Este nuevo
esquema disminuyó los costos de las comunicaciones y mejoró la calidad del servicio.
De tal manera que podemos afirmar, que el
desarrollo de distintas tecnologías dirigido hacia la
mejora de las comunicaciones, generó el fenómeno conocido como convergencia de las tecnologías de la información. Como explicaremos
más adelante, es la razón de que hoy en día sea
posible establecer comunicaciones prácticamente
instantáneas entre dos sitios opuestos en el mundo. Este alarde tecnológico dio sustento y factibilidad a las transacciones comerciales y financieras múltiples, derrumbando las barreras comerciales. La situación fue aprovechada, y tal vez
provocada, por los impulsores de las corrientes
económicas neoliberales para dar forma a un
nuevo esquema geopolítico global sin fronteras
físicas.
En los siguientes apartados haremos una breve
reseña de la forma en que han evolucionado du rante las últimas décadas las tecnologías de la
información que mayormente han contribuido para formar al entorno tecnológico global que existe
en la actualidad. También se presentarán las tecnologías que se espera cobrarán una importancia
es pe cial en el fu turo próximo. Todo parece indicar
que la conformación de la situación futura del
sistema mundial estará definida por el desarrollo
que sufran los sistemas de comunicación, los
cuales serán cada vez más abiertos y envolventes.
La evolución de los dispositivos
electrónicos
El tran sistor y los circuitos de alta escala de
integración
La primera versión del bulbo o válvula electrónica
de vacío, fue patentada en 1904 por Flemming.
Dos años más tarde, fue mejorado y patentado
por Lee de For rest, en su versión de tríodo. Este
FI-UNAM
L.R. Vega-González
dispositivo fue aplicado en una gran diversidad de
aparatos, destacando los grandes sistemas de
conmutación telefónica y los sistemas de radar tan
exitosos en la segunda guerra mundial. El tran sistor a su vez, fue el resultado de un proyecto de
investigación y desarrollo que buscaba un sustituto para las distintas versiones de bulbos.
La motivación de la investigación fue la de
obtener dispositivos que requirieran menor consumo de potencia en su operación, ya que los sistemas
de conmutación telefónica de la época consumían
grandes cantidades de kilowatts, lo que hacia muy
costosa su operación. En menos de diez años, los
transistores de silicio y de germanio habían reemplazado los bulbos en casi todas sus aplicaciones.
En la década de los cincuenta, se presentó un
problema muy serio en la manufactura de circuitos
electrónicos que usaban transistores para diversas
aplicaciones: su alambrado e interconexión. Este
problema se convirtió en un factor básico que
afectaba el costo y la confiabilidad de los equipos.
Así fue como se motivó el desarrollo del circuito
integrado monolítico.
Sorprendentemente, llevar a la práctica la idea
de integrar varios transistores en un solo semi conductor tomó trece años. El circuito integrado fue
inventado independientemente y en paralelo por
Jack Kilby de Texas In stru ments y por Rob ert Noyce
de Fairchild en 1958 (Smith y Antoniadis, 1990).
Los fabricantes de semiconductores evaluaron
rápidamente la potencialidad de la invención, por lo
que en 1964, Gordon Moore, quien fue uno de los
fundadores de Intel en 1968, predijo que la densidad
de integración de circuitos se duplicaría cada año.
Esta predicción resultó ser muy exacta, por lo que
después sería considerada como la “ley de Moore”.
A partir de entonces se desarrollaron fábricas
de semiconductores basados en silicio. Para fi nales de los años sesenta, los circuitos de “gran
escala de integración” (Large Scale Integration,
LSI), estaban listos.
A finales de los setenta los fabricantes ya
contaban con circuitos de “escala de integración
muy grande”, (Very Large Scale In te gra tion, VLSI) y
a finales de los ochenta con dispositivos de la llamada ultra alta escala de integración (Ultra-Large
Scale In te gra tion, ULSI). Los chips ULSI son hoy en
día los módulos de construcción básica de todos
los dispositivos electrónicos modernos, tales como radios, TV, sistemas de telefonía, radar,
computadoras, y en general, productos electrónicos caseros e industriales.
El objetivo cen tral del desarrollo tecnológico en
semiconductores, era el disminuir los requerimientos de potencia en las nuevas aplicaciones. Esto se
cumplió a plenitud, además se ahorró espacio y
disminuyeron los costos de fabricación. En la figura
1 se muestra la evolución de los procesadores en
términos de la capacidad de transistores que tiene
cada oblea semiconductora o chip.
Durante finales de los años ochenta y los noventa, el problema de espacio y consumo ya estaba
resuelto, pero las empresas buscaron nuevas formas
de optimización de los dispositivos electrónicos. La
naturaleza del proceso del desarrollo de semiconductores cambió sustancialmente. Recientemente se han elaborado dispositivos que aprovechan el
“efecto cuántico” basados en nuevas aleaciones de
Arseniuro de Galio (AsGa), tales como el MODFET y
el PRESTFET (Smith & Antoniadis, OP Cit).
Evolución de la memoria de acceso aleatorio
(RAM)
Los computadores no hubieran podido evolucionar contando sólo con la tecnología de los
nuevos procesadores, también fue necesaria la
evolución de los chips de memoria, por lo que los
fabricantes de semiconductores participaron
activamente en este desarrollo.
El mercado de semiconductores fue dominado
desde un principio por los fabricantes de los
Estados Unidos de Norteamérica, y continuó así
du rante las dos primeras décadas; sin em bargo, en
los años ochenta se manifestó la presencia de
nuevos fabricantes de semiconductores en Asia.
Un grupo de compañías japonesas encabezadas por Hitachi, NEC y Toshiba obtuvieron gran
ventaja en el desarrollo de nuevas tecnologías de
producción e invirtieron en tecnologías de integración y nuevas capacidades de manufactura. Según
Iansati (1997), un grupo de científicos e ingenieros
Koreanos educados en los Estados Unidos de
Norteamérica, regresaron a sus paises con el último conocimiento en litografía y diseño de transistores, por lo que construyeron la base tecnológica
y científica que ayudó a compañías como la
Samsung Koreana a ser líder en el mercado de
memorias dinámicas (DRAM’s) a principios de los
años noventa.
Vol.VI No.2 -abril-junio- 2005
105
Hacia la convergencia total de las tecnologías de la información
1 00 ,00 0,0 00 de tr ans istor es ,
Spec trum IEEE
µP P entium IV
42,000,000
µP P entium III
µP de 64 bits
Pentium II
24,000,000
7,500,000
Número de
T ransistores
Equivalentes
4,098,304
256,144
8,192
256
ULSI (EV U)
U LS I (E VU)
ULS I (E VU)
µP de 32 bits
Pentium I
ULSI
µP de 16 bits
VLSI
µP de 8 bits
LSI
Circuitos
Integrados de
Media Escala
De Integración
(286)
MSI
1
1950
1960
1970
1980
1990
2000 2005
Figura 1. Evolución en el tiempo de las Escalas de Integración de los Semiconductores. (Elaboración propia)
En la figura 2 se muestra cómo la dinámica del
mercado impulsó la evolución de la capacidad de
las memorias RAM de menos de 1 MB por chip en
1988, a chips de RAM dinámica con capacidad de
32 y 64 MB por chip en menos de una década.
El costo de una instalación de tamaño mínimo
para la fabricación de chips de memoria, se incrementó de 4 millones de dólares en 1971 a más de
1200 millones en 1996, y se incrementó a más de
4000 millones en el 2001.
Evolución de la computadora
La computadora main frame
La computadora electrónica ENIAC fue desarrollada en 1950 por la Universidad de Pensilvania EUA.
Ideada para realizar cálculos matemáticos sofisticados, en algunas décadas se convertiría en un
106
INGENIERIA Investigación y Tecnología
dispositivo de cálculo de aplicación universal. Los
fabricantes visualizaron un gran potencial en el
mercado empresarial y pronto orientaron el hard ware y soft ware de los computadores a la ejecución
de programas para aplicaciones empresariales,
administrativas, contables, de control de personal,
con trol de la producción e inventarios que requerían
el manejo de grandes volúmenes de información.
Una de las primeras aplicaciones de los chips
VLSI en las computadoras electrónicas, fue el desarrollo de sistemas de procesamiento de datos de
tarjetas múltiples o Unidades de Procesamiento Cen tral (CPU’s). Esto dio origen a la aparición en el
mercado de equipos grandes y poderosos, conocidos como computadores “mainframe” de gran
escala. Estos equipos en sus primeras etapas se
aplicaron a la solución de tareas administrativas sin
descuidar su aplicación a la investigación en las
universidades e institutos.
FI-UNAM
L.R. Vega-González
8.0
MB P ro medio
en RAM
6.0
4.0
2.0
1988
1 991
1994
1998
Añ os
Figura 2. Crecimiento promedio del tamaño de las memorias RAM (ODISSEO-DIS, Facultad de Ingeniería de la
Universidad de Nápoles, Federico II, (Esposito y Mastroiani, 1998)
La computadora mainframe logró un tremendo
éxito de mercado, lo que hizo a IBM una de las
corporaciones internacionales más ricas y poderosas entre 1960 y 1980.
En esa época, las primeras versiones de los
programas de aplicación consistían de miles de
líneas de instrucciones, desarrolladas en programas
poco eficientes, entonces para que los fabricantes
de computadoras se mantuvieran competitivos, fue
esencial desarrollar computadoras más veloces en
cuanto al procesamiento de las instrucciones de
sus programas.
Así se inició la carrera de la velocidad de procesamiento, tratando de ser el líder en esta guerra
mercantil. Texas Instruments patentó en 1970 el
primer microprocesador de silicio. Este dispositivo
era un procesador de datos monolítico embebido
en una sola oblea semiconductora, el cual sería
aplicado a los sistemas de cómputo de la empresa.
El manejo de información masiva planteaba
otro problema: ¿dónde y cómo almacenar los
datos que se procesaban?; es decir, el problema
de la memoria temporal y fija. Las primeras memorias utilizadas en computadores híbridos fueron
de ferrita magnética de baja velocidad y alto
consumo de potencia. En 1969, Intel introdujo el
primer chip de memoria con capacidad de almacenamiento de 1024 bits.
La tecnología de semiconductores ya estaba en
el mercado; sin embargo, los fabricantes de equipos de cómputo integrados tardaron un promedio de entre 5 y 10 años para asimilar las
tecnologías de microprocesadores y memorias.
Fue hasta mediados de los años setenta y
principios de los ochenta que lograron la optimización de los primeros computadores electrónicos. Los microprocesadores usados en esas
computadoras sustituyeron las tecnologías mecánicas de válvulas de vacío, de transistores e
híbrida, usadas previamente.
Hacia finales de los setenta, al difundirse la
aplicación de circuitos integrados de alta escala de
integración, aparecieron los primeros computadores
electrónicos dedicados, los cuales estaban destinados a realizar una aplicación específica. Los sistemas de telefonía de esa época son un buen ejemplo, ya que prácticamente eran computadoras digitales especializadas. Lo mismo sucedió con los
sistemas de instrumentación y control, los sistemas
para transmisión de radio y TV de la época, los
sistemas aplicados a la medicina, la manufactura y el
entretenimiento, entre muchos otros.
A principios de los ochenta, las líneas telefónicas
enlazaban computadoras. Las industrias del computo y telefonía empezaban a entrelazarse.
La computadora personal
IBM dejo de ser el líder tecnológico en los noventas, sus directivos fallaron en sus pronósticos.
Ellos consideraron que el futuro de la computación a escala mundial estaba en los grandes
sistemas de cómputo mainframe de usuarios
múltiples y no en las computadoras individuales.
Sus pronósticos se sustentaban en la percepción del mercado que dominaban y no en un
Vol.VI No.2 -abril-junio- 2005
107
Hacia la convergencia total de las tecnologías de la información
monitoreo que ayudara a predecir el futuro de las
tecnologías fundamentales de los computadores.
Esto es sorprendente, pues para 1975, los fabricantes de semiconductores ya habían sacado al
mercado los famosos procesadores de la serie 286.
Tomando como referencia la velocidad de los
microprocesadores monolíticos de 1970, para el año
1978, la investigación y desarrollo de las empresas
fabricantes de semiconductores monolíticos había
logrado velocidades muy superiores. En la tabla 1
puede verse que la velocidad del microprocesador
Pentium I que salió al mercado en 1994 era 12 veces
mayor que la de su primer antecesor.
Las computadoras personales (PC’s) aparecieron a finales de los años setenta, su aceptación y difusión entre las empresas y usuarios
particulares fue lenta inicialmente. La primera
versión muy popular de PC, fue la basada en el
procesador 286. En ella se podían correr las
primeras versiones de procesadores de palabra y
hojas de cálculo para aplicaciones de oficina.
Durante los ochenta se implementaron versiones
386, 386SX, 386DX, 486S, 486DX, 486DX2. A
mediados de los noventa se lanzaron al mercado
internacional las primeras versiones de procesador
Pentium y 586. A mediados de los noventa prácticamente cada empresa contaba ya con una PC.
Hoy en día existen diferentes versiones Pentium
IV que trabajan a diferentes velocidades y estamos
en la víspera de la aparición de versiones más
poderosas.
Nicolás Negroponte (1992) pronosticaba que la
tendencia para cada hogar en el futuro sería la
existencia de al menos una PC y un sin numero de
computadoras dedicadas para controlar todas las
tareas caseras, como la temperatura y el inventario
del refrigerador, la optimización de consumo de
com bus ti ble, entre muchas otras aplicaciones.
“Las máquinas, escucharán, verán, hablarán y se
comportarán como sirvientes. Cada individuo usará al día
más de mil microprocesadores en diversas tareas, y es
posible que en cada hogar existan unos mil procesadores”.
Tabla 1. Comparacion entre procesadores AMD, CYRIX e INTEL, (Esposito y Mastroiani, 1998)
1
Familia de procesador
Fabricante
Frecuencia
(MHZ)
Velocidad del CPU
(Velocidad 2.0)
Velocidad FPU 1
(Velocidad 2.0)
386SX
AMD
40
54
386DX
AMD
40
54
486SX
INTEL
25
84
486SX
INTEL
33
111
486DX
CYRIX
33
112
320
486DX
INTEL
33
112
284
486DLC
CYRIX
40
130
486S
CYRIX
40
131
486DX
CYRIX
40
132
355
486DX2
AMD
25
167
425
486DX2
CYRIX
25
167
481
486DX2
INTEL
25
167
440
486DX2
AMD
33
223
588
486DX2
INTEL
33
223
586
PENTIUM
INTEL
60
346
La velocidad de la Unidad de Punto Flotante (FPU, Floating Point Unit) se obtiene por cálculos en los que se considera los
millones de instrucciones de punto flotante por segundo (MIPS) que pueden ser intercambiadas en las unidades de
procesamiento y de memoria de una PC. Su utilidad puede verse al notar que la velocidad FPU de los procesadores 486DX2 de
AMD, CYRIX e INTEL, es diferente, mientras que la velocidad de su CPU es igual en todos los casos.
108
INGENIERIA Investigación y Tecnología
FI-UNAM
L.R. Vega-González
Su pronóstico empieza a cumplirse, los hogares
“inteligentes” han sido una realidad desde el año
2003, ya que empresas como Samsung anunciaron
la disponibilidad en el mercado de sus dispositivos
inteligentes NetHome®.
Actualmente se están desarrollando máquinas
con sentido del tacto y existe el sueño entre los
investigadores que las mismas lleguen a tener sentido común y entendimiento.
Supercomputadoras aceleradas y
computadoras cuánticas
El 26 de junio del 2000 la Agencia de Noticias
(Reuters), confirmó el lanzamiento al mercado de
la computadora más rápida que existe hoy en el
mundo, desarrollada por iniciativa del Departamento de Energía de los Estados Unidos de
Norteamérica. (Department of Energy’s Accelerated Stra te gic Com puting Ini tia tive, ASCI).
Esta computadora cuenta con una capacidad
de 12.3 Teraflops y es utilizada para simular pruebas de armas nucleares. Una de sus características
singulares es que usa clusters que agrupan 8192
microprocesadores de cobre.
Esta tecnología es extraordinaria, ya que los microprocesadores comerciales conocidos, usualmente se han fabricado de aleaciones de Silicio,
Galio y otros semiconductores . Así pues, parece que
las opiniones de los expertos se han quedado
cortas, porque no sólo los semiconductores
impulsaron el desarrollo de supercomputadores
con velocidades y capacidades insospechadas,
sino también las tecnologías de microprocesadores
con base en conductores. Esto concuerda con el
reporte hecho por Foner y Or lando (1987), desde
fines de los ochenta, sobre las investigaciones en
superconductores aplicables a computadoras hiper rápidas.
Continuando con esta carrera ascendente,
Batelle (2000), en el reporte R&D Funding Fore cast
de enero del 2000 indicó que IBM en Yorktown
Heights NY, asignó un financiamiento de 100
millones de dólares hasta el año 2004 para la
obtención de una supercomputadora paralela
basada en un conjunto de procesadores con
capacidad de un PetaFLOP, es decir, 100x 10 12
operaciones de punto flotante por segundo, lo que
equivale a 100 teraflops.
Impulsando esta línea de investigación, la ASCI
mantendrá proyectos en Súper cómputo Acelerado
con un financiamiento de 320 millones de dólares
hasta el año 2010.
Por otra parte, con el advenimiento de la
electrónica óptica, cada vez parece más probable
que en un fu turo mediato se convierta en realidad
lo reportado por Zeilinger, a principios del 2000,
en el sentido de que la tecnología sea conocida
como “teleportación cuántica”, la cual ya ha sido
probada con fotones y tendrá su mayor aplicación
en los sistemas de cómputo. De hecho, hoy en día
ya existen las computadoras cuántica experimentales.
Evolución de los sistemas operativos
Paralelamente a la evolución del “hardware” de
procesamiento y memoria que han permitido hoy en
día tener sistemas con capacidad de millones de
operaciones de punto flotante por segundo (Mflops
y Teraflops), se han dedicado miles de horas hom bre
en la elaboración y optimización de los sistemas
operativos y del software de aplicación. Los costos
de investigación, desarrollo, equipamiento y operación han sido extremadamente elevados. Aunque
las inversiones para el desarrollo de sistemas
computacionales son de alto riesgo, éste ha sido uno
de los mejores negocios de los últimos tiempos. El
punto fundamental que las promueve, es que las
aplicaciones se pueden volver universales con una
buena estrategia de mercado. La tabla 2 es un
resumen de la historia de algunos de los sistemas
operativos más importantes y de sus características
(García et al., 2003), CSF ( a, b y c ).
La digitalización de las
comunicaciones y el fenómeno de la
convergencia
Desde los orígenes del hombre, una de sus necesidades primordiales y de su organización ha sido la
comunicación. Para que esta exista, se requiere la
conjunción de una serie de tecnologías, por lo que se
trata de tecnologías integradas. La imprenta de tipo
móvil, inventada por Gutemberg en el año 1450, fue
el principal medio de comunicación por más de 450
años. Con el tiempo, se hizo necesario utilizar alguna
tecnología por medio da la cual se pudieran enviar y
recibir señales a través del espacio abierto.
Vol.VI No.2 -abril-junio- 2005
109
Hacia la convergencia total de las tecnologías de la información
Tabla 2. Resumen de la evolución de Sistemas Operativos y algunas de sus características
Sistema Operativo
Año
Desarrollador
Gestión de procesos
Multiusuario
Atlas
1950-1960
Universidad de Manchester
Lotes
No
Unix
1969
Ritchie/Thompson Labs.
ATT & Bell
Multiprogramado
T compartido
Si
Unix PC Xenit
1983
Ritchie/Thompson Labs.
ATT & Bell
multiprogramado
No
Sprite
1984
multiprogramado
Si
Merlin
1984
Lotes
No
Windows NT
1985
MIcrosoft
multiprogramado
Si
Mach
1986
DARPA
multiprogramado
Si
OS/2 ver. 1.0
1987
Microsoft & IBM
multiprogramado
No
Os/2 ver. 1.1
1988
Microsoft & IBM
Unix System V (redes)
1989
AT&T
multiprogramado
Si
Linux
1991
Linus Torvals
multiprogramado
No
Windows 3.1
1992
Microsoft
multiprogramado
No
Unix 64 bits
1993
Novell - HP
multiprogramado
Si
Windows 95/98
1995/98
Microsoft
multiprogramado
No
Coyote
1996
Trinity College Dublin
Distribuido
Si
Linux 2.2
1998
Linus Torvals y contribución
mundial de
programadores
multiprogramado
Si
El telégrafo inventado por Samuel Morse en 1844
fue el primer dispositivo que usó electricidad para
enviar y recibir señales, pero estaba limitado a los
códigos de combinaciones de puntos y guiones.
Su prin ci pal limitación consistía en la necesidad de
instalar pares de alambres entre el emisor y el re cep tor (Volti, 1992).
La primera aplicación de las comunicaciones
que aprovechó el principio de la propagación de
las ondas electromagnéticas, cuya teoría fue desarrollada por James Clerk Maxwell en 1860, fue la
transmisión del telégrafo inalámbrico de Guillermo
Marconi en 1896.
La primera transmisión de voz por radio fue
hecha por Fesseden en 1900, quien patentó su
invento en 1905 y lo llamó transmisor heterodino.
En 1918, Armstrong aplicó el bulbo triodo al receptor de radio y lo patentó con el nombre de
superheterodino. La televisión experimental apareció en 1920. En 1936, la BBC de Londres hizo la
primera transmisión de TV de “alta definición”
110
INGENIERIA Investigación y Tecnología
Si
usando un sistema llamado iconoscopio. Las
primeras transmisiones de TV a color se hicieron
en los Estados Unidos de Norteamérica en 1954.
El primer radio transistorizado salió al mercado
en 1955.
Hoy en día se entiende de forma coloquial que las
“comunicaciones” son el proceso de manejo de señales para la transmisión de información a distancia.
En este sentido, los primeros sistemas de comunicación como el radio, la televisión, el teléfono y el
video se basaban en circuitos de procesamiento de
electrónica analógica; esto es, trataban a la señal de
una forma análoga a su forma física.
Posteriormente, la proliferación de los circuitos
digitales permitió un manejo diferente para las
señales de comunicaciones. La transmisión pudo
realizarse por medio del muestreo y codificación
de la información y datos en forma de bits. Los
trenes de bits codificados según un protocolo
preestablecido se conocen como señales digitales
de alta resolución.
FI-UNAM
L.R. Vega-González
En la gráfica mostrada en la figura 3 se puede ver
que desde los años setenta el progreso de las
tecnologías LSI aceleró la tendencia hacia la
digitalización, lo que a la postre eliminó la barrera
que había entre las computadoras y la tecnología
de las comunicaciones.
Desde 1977, los directivos de la corporación industrial japonesa National Electric Cor po ra tion,
(NEC), líder tecnológico en áreas como el radar,
equipos de telecomunicaciones, materiales y
dispositivos electrónicos, fueron los primeros en
pronosticar la aparición de un fenómeno al que
llamaron C&C; es decir, la even tual fusión de las
tecnologías de comunicaciones y la tecnologías de
computo, debido a los progresos en las tecnologías de semiconductores (Saito, 1997).
Para disminuir el impacto del fenómeno de
convergencia C&C, los dirigentes de NEC diseñaron un Programa de Competencias Tecnológicas
(Core Tech nol ogy Pro gram), en el cual se avistaban
algunos puntos esenciales, tales como el de mantener la coherencia entre la administración tecnológica y la estrategia de negocios, identificar las
familias de tecnologías nucleares (Core Technologies) y definir programas de inversión y de
investigación para hacer frente a los retos del
fenómeno.
Para no quedarse atrás, muchas otras empresas
relacionadas con la electrónica en el ámbito mundial,
prepararon diversas estrategias, relacionadas generalmente con mayores inversiones en investigación y
desarrollo para enfrentar la situación.
Este proceso rindió sus frutos, ya que hacia el
año de 1993, el fenómeno de convergencia presentó nuevas oportunidades de mercado para la
industria electrónica norteamericana. Se consolidaron nuevas alianzas y dio inicio la era de los
nuevos medios o mul ti me dia.
Un actor muy importante en este proceso de
innovación continua, fue el gobierno norteamericano a través de sus financiamientos. Uno de los
principales promotores ha sido sin duda el Instituto Nacional de Ciencia y Tecnología, (National
Science & Technology Institute, NIST) de los
Estados Unidos de Norteamérica. Este organismo
dispuso de fondos en 1993 por 68 millones de
dólares para investigación, de 200 en 1994 y de
750 en 1997. Estas investigaciones financiadas por
el gobierno, fueron un fuerte impulsor de la convergencia al promover la creación de la supercarretera de la información o Internet. El objetivo
primario de esta red de alta velocidad era cubrir
toda el área de los Estados Unidos de Norteamérica con propósitos de seguridad militar.
C&C
Año
200 0
Procesamiento
In teli gente
199 0
P ro ces amient o
Dist ri buido
198 0
R edes de
Com unicaciones
In tegra das
VLSI
Pr oc esamiento
Central iz ado
197 0
Comun ic aci ón
de i mágene s
LSI
Mu ltif unción
Dedic adas
196 0
IC
Computado ras
El ectrónicas
195 0
Bulbos
Tr
Conmutac ión
Elec trónic a por
tiempo
F AX
Comunic ación
de dato s
Conmutació n
Ele ctrónica por
e spac oi
Redes de
T ransmi si ón
Digi tal
Conmuta dore s
de b arr as X
Transmi si ón Digital
Tel éfono
1900
190 0
Digi tali zación
Tr ansm is ión A nalóg ic a
195 0
1960
1 970
1980
1990
2000
Comunic aciones
Figura 3. El fenómeno C&C, convergencia de computadoras y comunicaciones (Saito, 1997)
Vol.VI No.2 -abril-junio- 2005
111
Hacia la convergencia total de las tecnologías de la información
En poco tiempo se unieron al fenómeno de
convergencia de las computadoras y las comunicaciones la electrónica de consumo y la in du stria
del entretenimiento.
Los protocolos de comunicaciones
catalizadores de la convergencia
En la figura 3 puede observarse que hasta los años
ochenta con la tecnología de ultra escala de
integración (ULSI), aparecieron en el mercado los
procesadores inteligentes o microprocesadores.
La disponibilidad de este hard ware era insuficiente
para lograr sistemas integrales de comunicación,
ya que la diversidad de fabricantes, sistemas y
aplicaciones, dio origen a una diversidad enorme
de protocolos propietarios.
De esta forma, los fabricantes de sistemas de
manufactura, administrativos, de control, au tomatización y comunicaciones, disponían de sus
propios protocolos en forma cerrada, lo que
originó una gran lucha por el control de los
mercados. Esto generó más problemas de los que
resolvió, ya que los usuarios tenían que navegar en
una diversidad muy compleja de sistemas que
muchas veces no eran compatibles.
El concepto que resolvió el problema fue la
normalización y estandarización de protocolos.
Esto funcionó como catalizador, ya que incentivó
la innovación y finalmente dio origen a redes de
comunicación integradas.
El primer resultado de protocolos de alto
impacto lo fue la red internacional Internet (In terna tional Net work), que es la denominación de una
red de computadoras en el ámbito mundial que
tienen en común el protocolo TCP/IP. Surgió en
1964 como una necesidad del gobierno de los
Estados Unidos como estrategia militar du rante la
guerra fría. Se trataba de encontrar los medios
tecnológicos para establecer comunicación entre
puntos geográficos distantes en caso de una
guerra.
La empresa RAND Cor po ra tion encargada de la
estrategia militar de EUA planteó la solución de
crear una red de comunicaciones que no
dependiera de un organismo cen tral, la cual estaría
integrada por nodos o puntos de enlace de igual
rango con la misma capacidad de originar, recibir y
transmitir mensajes. En el caso de que alguno de
los nodos dejara de funcionar, el resto de la red
112
INGENIERIA Investigación y Tecnología
seguiría en operación. Los mensajes en esta red se
dividirían en paquetes con una dirección propia.
En diciembre de 1969 ya existían 4 nodos en la
red ARPANET, desarrollada por la agencia del
Pentágono ARPA (Advanced Research Pro ject
Agency). En 1972 ya contaban con 37 nodos con
líneas de transmisión de alta velocidad. La ventaja
de la red ARPANET era que no importaba el
tamaño ni el tipo de maquinas que estuvieran
interconectadas mientras cumplieran con el protocolo NCP (Network Con trol Pro to col), que fue
establecido originalmente. En esa época, diferentes fabricantes establecieron sus propios protocolos para sus redes de comunicación. Así nacieron los estándares Ether net, FDDI y X.25 entre
muchos otros.
En 1974, se cambió el NCP por un nuevo
protocolo estándar más sofisticado llamado
TCP/IP (Transmission Control Protocol/Internet
Pro to col), cuyos inventores fueron Vint Cerf y Bob
Kahn. La ventaja de este protocolo era que
convertiría los mensajes en cadenas de paquetes
en el nodo de origen y los volvería a ensamblar en
el nodo destino. El TCP/IP además podría rutear
paquetes de mensajes en redes que trabajaban
con protocolos diferentes.
En 1989, México ingresó a Internet a través de
NSFNET y la red BITNET que permitían acceso a
recursos de información existentes en México y en
el mundo.
En 1992 se fundó ISOC (Internet So ci ety ) para
coordinar el uso de las tecnologías existentes en
beneficio de todos los usuarios. Es así como se
desarrolló el World Wide Web (WWW) que permitió
un acercamiento más fácil a través del hipertexto a
todos los recursos de Internet, también dando una
muestra de la transmisión de audio y video en
tiempo real a través de la red.
El crecimiento de la red se volvió exponencial
con el uso de los exploradores que son programas
especialmente diseñados para navegar en forma
óptima. El primero de ellos que aprovechó la gran
capacidad del WWW, fue denominado Mosaic,
desarrollado por la Universidad de Il li nois
Ur ban-Champagne.
En 1995, los sistemas de servicios vía modem
ofrecidos por compañías como Compuserve, Prodigy y Genie comenzaron a ofrecer servicios por
Internet. A fi na les de los noventa, el navegador de
Netscape obtuvo el mayor índice de ganancias
FI-UNAM
L.R. Vega-González
jamás obtenido en Wall Street. Hoy en día el
Internet Ex plorer de Microsoft do mina el mercado
amenazando con un dominio monopólico mundial
de esa firma para los sistemas de oficina.
Tal vez una de las aplicaciones hasta hoy más
sobresalientes del Internet es el correo electrónico (email), el cual permite a la gente y a las
organizaciones enviar y recibir mensajes usando su
computadora personal, un módem y una línea telefónica. El correo electrónico se encuentra basado en el concepto de dirección. La dirección
email provee toda la información específica para
comunicarse con cualquier parte del mundo.
La era de la información multi media
Un resultado espectacular del proceso continuo de digitalización, el cual trabaja en conjunto
con la disponibilidad de Internet es la explosión
multimedia del día de hoy. La tecnología digital
traduce información de virtualmente cualquier
medio a código binario permitiendo que sea
transmitida por medio de protocolos y códigos
comunes y procesada por computadoras.
Los servicios por Internet, junto con la electrónica de consumo, se han convertido en dos
áreas de inmenso potencial para las empresas de
la industria mundial electrónica. Las empresas
norteamericanas se mantienen al frente, desarrollando y suministrando nuevas herramientas para
impulsar la productividad en el trabajo, simplificar
los procesos de negocios, modificar los patrones
de educación y establecer nuevos sistemas de
salud. Los sistemas multimedia han atraído una
diversidad de empresas, una muestra de ellas
puede verse en la tabla 2.
La convergencia C&C se ha extendido a otros
cam pos, tales como el del entretenimiento, debido
al enlace comercial de las empresas proveedoras
de servicios telefónicos y las compañías de
televisión por cable. Algunos de los factores
técnicos que han contribuido en este proceso han
sido los siguientes:
– Las redes digitales se han convertido en
manejadoras de software en forma incre mental, esto ha impulsado a las empresas a
adquirir y desarrollar más capacidad de software bajo contrato.
– El costo de las memorias ha disminuido
constantemente. Los requerimientos de memoria para el manejo masivo de videos y
películas son elevados, por lo que sólo disponiendo de memorias más baratas se posibilitará el producto “películas sobre demanda”
– El costo de las transmisiones disminuye
constantemente. El equipo de multiplexaje
se ha mejorado cada año desde que apareció
la fibra óptica, hace aproximadamente unos
veinte años, logrando cada vez mayores
anchos de banda. La capacidad de transmisión se ve hoy en día como un commodity ó
producto de alto consumo.
– Las capacidades de las redes inalámbricas
se han expandido tremendamente
Las compañías de televisión por cable están
instalando gradualmente cable de fibra óptica en
lugar de cable coaxial. También se están reemplazando las redes de pares trenzados de cobre
usadas tradicionalmente por las compañías telefónicas. Hoy en día una empresa de televisión por
cable puede convertirse en una empresa de
servicio telefónico y viceversa.
La expansión de los sistemas satelitales de
comunicación en conjunto con el dominio de las
nuevas tecnologías de soft ware y la integración de
los recursos tecnológicos de transmisión están
provocando una gran competencia en las empresas de telecomunicaciones y de Soft ware.
A través de protocolos de comunicación como
el ATM o el IP /WDM, hoy en día están disponibles
servicios convergentes que incluyen el manejo de
voz, datos, video y servicios de redes con buena
calidad de servicio (Vega et al., 2003).
Un ejemplo espectacular de estas tecnologías
multimedia convergentes salió al mercado a principios del año 2000 y es el teléfono celular con
capacidad de acceso a Internet. Este es un Sistema
de Comunicación Per sonal (PCS) que hace uso de
la supercarretera de la información, aprovechando
las capacidades de alta velocidad, potencia, ancho
de banda y confiabilidad de las redes de comunicación satelital.
En el contexto descrito en los apartados
anteriores, las oportunidades para servicios
Vol.VI No.2 -abril-junio- 2005
113
Hacia la convergencia total de las tecnologías de la información
orientados a negocios se han expandido de
manera sustancial. Actualmente, disponemos de
los sistemas de video conferencia de escritorio, de
dispositivos digitales de uso personal, soft ware de
trabajo en grupo, pizarrones electrónicos y otros
servicios y productos multimedia que están
conformando lo que se ha dado en llamar la nueva
ola de herramientas de productividad en los
negocios.
Microsoft está trabajando en software para
interfase de teléfonos con diversos dispositivos de
oficina con la capacidad de acceso a servicios
avanzados de redes. AT&T ha introducido nuevos
sistemas de mensajería integrada, por lo que en el
futuro los mensajes de oficina tendrán más
contenido multimedia: se enviará y recibirá voz,
texto y video. De hecho, esto ya se hace frecuentemente utilizando las capacidades de Internet a
través del soft ware para redes internas corporativas
Intranet. Otra área de crecimiento espectacular ha
sido la aplicación de los microprocesadores en los
Asistentes Digitales Personales (PDA), tales como
agendas, comunicadores personales y la computadora tipo pluma.
Por otra parte, el fenómeno de trabajadores
móviles está creando una demanda cada vez más
creciente para la electrónica portátil. En suma, los
sistemas mul ti me dia están permeando el mercado
con un número tremendo de aplicaciones. En la
tabla 3 puede verse una pequeña fracción de las
empresas relacionadas hoy en día con la producción de sistemas mul ti me dia.
En poco tiempo se espera el desarrollo del
mercado del “videoservidor” con capacidad de
almacenar cientos de películas comprimidas digitalmente y transmitir su contenido a casas, escuelas y negocios. En este mercado se encuentran
compitiendo Hewllet Packard, Silicon Graphics,
nCube, Digital Equipment, IBM y ATT. También
empresas de soft ware como Or a cle y Microsoft se
beneficiarán de esta tecnología del video-servidor
y sus productos derivados.
Tabla 3. Empresas relacionadas con sistemas multi media
Empresas de electrónica
establecidas
Nuevas empresas de
multimedia
Empresas proveedoras de
servicios de Redes
Otras empresas con
potencial multimedia
Apple
3DO
AT&T
Acclain Entertaiment
Broderbund
Books that Work
Bell Atlantic
Atari
Cisco Systems
Compston’s New
Bell Canada
Commodore
Media
Compaq
Crystal Dynamics
Bell South
Disney
General Instrument
General Magic
MCC/First
Cities Electronic Arts
Consortium
Hewlett Packard
Ikonic Interactive
Nynex
Kodak
IBM
Kaleida Labs
Pacific Bell
LucasArts: Industrial
Light & Magic
Intel
Media Vision
Sierra on Line
Next
Lotus
PF Magic
Sothwest Bell
Nintendo
Matsushita
Pop Rocket
TBS
Paramount
Microsoft
Rocket Science
TCI
Sega
United Video
Time Warner
Games
NEC
Sanctuary Woods
Multimedia
continúa...
114
INGENIERIA Investigación y Tecnología
FI-UNAM
L.R. Vega-González
Tabla 3. Empresas relacionadas con sistemas multi media (continuación...)
Empresas de electrónica
establecidas
Nuevas empresas de
multimedia
Empresas proveedoras de
servicios de Redes
Philips
Spectrum Holobyte
Satellite Group
Scientific Atlanta
Virgin Interactive
US West
Otras empresas con
potencial multimedia
Entertaiment
Silicon Graphics
Viacom
Sony
Sun Microsystems
Toshiba
Resumen
Las computadoras se aplicaron en los años
setenta del siglo pasado, principalmente como
equipos terminales en las redes de sistemas de
comunicación. Algunos computadores específicos
se utilizaron en los sistemas satelitales de transporte y en los sistemas electromecánicos de conmutación. La información manejada por los sistemas digitales era fundamentalmente voz (telefonía) y datos. El servicio era de mala calidad, ya
que frecuentemente se presentaban interrupciones, pérdidas de información y se requería de
procedimientos de chequeo intensivo y retransmisión, por lo cual, la comunicación era de baja
eficiencia. Los sistemas operativos de la época
estaban enfocados a la gestión de procesos por
lotes para equipos terminales individuales.
En los años ochenta la diferencia sustancial fue
que los computadores se utilizaron como redes
terminales cuyo acceso a los sistemas de datos de
conmutación y transporte se realizaba mediante
equipos computarizados PBX. La información
manejada por los sistemas digitales era fundamentalmente datos y voz. La calidad fue un poco
mejor, debido a la mayor velocidad y capacidad de
los sistemas de conmutación al utilizar los procesadores más poderosos de las tecnologías VLSI.
Los protocolos de comunicación usados entre los
distintos computadores que formaban alguna red
de aplicación externa de tipo médico, control,
instrumentación, manufactura , etcétera, eran del
tipo cerrado. Si se corría la aplicación y se quería
comunicar a alguna localidad distante geográficamente, había que seleccionar los datos requeridos,
transportarla a alguna computadora terminal de
los sistemas de comunicación de acarreo (car ri ers)
y enviarla por medio de protocolos que hacían la
función de transporte. La comunicación era de una
calidad de servicio y alcances limitados.
En la primera parte de los años noventa fueron
utilizados los medios de transmisión de banda
ancha, específicamente la fibra óptica, que permitió incluir imágenes en los sistemas de comunicación, aunque en un principio de muy baja calidad. Tanto las computadoras de los equipos
terminales, de los sistemas PBX como de los sistemas de conmutación, utilizaban procesadores
ULSI. Aparecieron los sistemas operativos Mach,
Windows NT y Uníx System V para redes, permitiendo una mejor comunicación en las redes
terminales. A finales de los noventas, la ola de
innovación tecnológica en los distintos constituyentes de los sistemas de comunicación permitieron comunicaciones de alta calidad de servicio,
incluyendo voz, imágenes y video, telefonía celular, equipos terminales multimedia y sistemas de
acceso, transporte y conmutación de banda muy
ancha y alta velocidad. Los protocolos de comunicación para las redes de comunicación de enlace
entre puntos apartados geográficamente estuvieron a punto y se generaron estándares para
conexiones abiertas a partir de los computadores
de aplicación de los usuarios.
Vol.VI No.2 -abril-junio- 2005
115
Hacia la convergencia total de las tecnologías de la información
Protocolo Digital Estándar
2020
Computadoras y Sistemas
Operativos
Computad oras C uánti cas
20 10 Electrónica
Optica
I nternet 2
Comp ut adoras Pentium
y Sist emas Operativos
para redes
Comput ado ra PC, MSDos y
Uni x
1 99 0
Intern et 1
C
2000 µP Pentium 4
¿¿H acia las
comunicaci ones
Unive rsale s ??
1980 µP de 32 b it s
Pentium I
RAM Dinámica
Eniac
TC P/I P
1 97 0
µP de 16 bits VLSI
Arpanet
Globalización
Semiconduct ores
procesador es y memorias
1 960
1950 trans istores, memorias de
ferrit a
P
P rotoc olos de
Comunic aciones
S
Inicio de la era
de la información
Figura 4. La convergencia total de las tecnologías de la información (Elaboración propia)
Conclusiones
A partir de la discusión de los diferentes apartados
en los que hemos revisado brevemente cuál ha
sido la evolución tecnológica de las TI y tomando
como ejes impulsores de la innovación tecnológica: 1) los dispositivos semiconductores, procesadores y memorias (S); 2) las computadoras y sus
sistemas operativos (C); y 3) los protocolos de
comunicaciones (P), es posible construir la figura
4, la cual muestra la clara posibilidad, de que en
un par de décadas la tendencia de la dinámica de
las vari ables nos lleve a la convergencia total de la
tecnologías de la información.
Analizando la figura, es evidente que con la
integración, en el sentido descrito por Iansati
(op.cit.), de las tecnologías de la información disponibles para la década de los 90’s del siglo
pasado, se sentaron las bases para la globalización. A partir de entonces, la humanidad ha
dispuesto de tecnología de comunicación de voz,
datos e imágenes con alta calidad de servicio entre
puntos distantes geográficamente de la tierra.
La convergencia C&C pronosticada en los 70’s
no sólo fue cumplida a plenitud, sino que fue
rebasada en cuanto a sus alcances. Para el futuro
116
INGENIERIA Investigación y Tecnología
se considera que los sistemas de protocolos
estandarizados prevalecerán generando sistemas
abiertos de comunicación absoluta. Esto podría
abrir el paso a los sistemas de tele transportación
cuántica. Hoy en día los sistemas computacionales tienen enormes capacidades de procesamiento y memoria y se están desarrollando por
medio de la electrónica óptica. Los nuevos
protocolos de comunicación IP/WDM están buscando la transmisión de información sobre medios
ópticos con la mira de usar el ancho de banda
infinito de la luz.
El ejercicio prospectivo de ex tender la tendencia de las variables, nos señala que hacia el año
2020 podemos esperar la convergencia absoluta
de las tecnologías de la información (S, C&P). Esto
promoverá la definición de nuevos estándares
mundiales y dará origen a las tecnologías estandarizadas de la información o tecnologías de información estándar (TIE) (Vega op. cit.). Prob a blemente estemos en camino hacia un sistema de
comunicaciones universales en el que por medio
de dispositivos electro-ópticos sea posible establecer contacto con los tripulantes de las colonias
humanas que habitarán las futuras estaciones
espaciales.
FI-UNAM
L.R. Vega-González
Todo avance tecnológico tiene impactos. Las
tecnologías de la información integradas en sistemas de comunicaciones abiertos absolutos
seguramente impactarán a la sociedad y al género
humano. Consecuentemente se impulsarán todos
los cam pos de las ciencias, como en el caso de la
bioingeniería, en que las supercomputadoras ayudarán a la finalización de extensiones del proyecto
“Genoma Humano” y a la explotación de la información que de ahí se derive. Se desarrollarán
nuevos dispositivos militares de defensa y ataque.
También se promoverá el desarrollo de nuevos
vehículos y estaciones espaciales.
En el ámbito casero, la mayor parte de los
dispositivos, ostentarán inteligencia y tal como lo
predijo Negroponte una década atrás, todo apunta
a que la computadora será un dispositivo omnipresente.
El gradiente del cambio tecnológico se muestra
con una aceleración vertiginosa. Los ciclos de vida
de los productos electrónicos se están reduciendo
de años a meses y probablemente en algunos años
serán de apenas unos días. La convergencia absoluta S,C&P, generará nuevos dispositivos cibernéticos, los cuales tendrán influencia y con trol en
todos los cam pos de la vida humana.
Una tarea pendiente es que los individuos, sus
organizaciones y sus sociedades, se deben preparar
para asimilar los cambios por venir. Rivers (2002),
sostiene que el progreso tecnológico se sustenta en
su propia mitología, la cual extiende y perpetúa la
idea de progreso indefinidamente en el fu turo.
Dependerá de nosotros que el progreso tecnológico se convierta en progreso humano, éste
enorme problema será tarea de todos y seguramente no será fácil resolverlo.
Referencias
Batelle (2000). R&D Funding Fore cast, January.
(a).Computer Story CSF, Sistemas Operativos, Línea de tiempo Uníx:
http://www.comsto.org/so/linux.htm
(b) .Computer Story CSF, Sistemas Operativos, Uníx, el fenómeno:
http://www.comsto.org/so/unix.htm
(c) .Computer Story CSF, Sistemas Operativos,
OS2: el divorcio entre IBM y Microsoft:
http://www.comsto.org/so/os2.htm
Esposito E. y Mastroiani M. (1998), Tech nological Evolu tion of Personal Computers and
Market Impli ca tions . Tech no log ical Fore casting and Social Change 59, pp. 235-254.
Fiap (1998). La alternativa social: la sociedad
global del conocimiento. Revista Digital DesenReda, No. 2, Año 2.
. http//:www.arrakis.es/fiap/revi2art6.htm
Foner S. y Orlando T.P. (1987). Super con duc tors, the Long Road Ahead. Technology Review, Febru ary-March, pp. 36-47.
Garcia L., Peralta L. y Fernández S. (2003).
Sistemas Operativos. Un paseo por la historia,
http://spisa.act.uji.es/~peralta/os/
Iansiti M. y West J. (1997). Tech nology Inte gra tion: Turning Great Research into Great
Prod ucts. Harvard Busi ness Review , May-June,
pp. 69-79.
Modelski G. (2001). “What causes K – waves?
Tech no log ical Fore casting & Social Change , Vol.
68, pp. 75-80. Elsevier Science Inc.
Negroponte N. (1992). Machine Dreams. Tech nology Review, January, pp. 33-39.
Reuters,http://dailynews.netsc...ntz0725-stor
y-bcnewstechibmdc.html
Rivers T.J. (2002). Prog ress and Tech nology:
their Interdependency. Tech nology in Society,
Vol. 24, pp. 503-522.
Saito F. (1997). Managing Tech nology development at NEC Corpo ra tion. Inter na tional
Journal of Tech nology Manage ment, Vol 14, No
2/3/4, pp. 196-207.
Smith H. y Antoniadis D. (1990). Seeking a
Radi cally New Elec tronics. Tech nology Review, April, pp. 26-49.
Volti R. (1992). Society and Tech no log ical Change.
2 nd . Ed. St. Martin Press, NY.
Vega G.L.R., Avilés F. y Montalvo T.M. (2003).
Evolución y evaluación tecnológica de los
protocolos de comunicaciones. Revista Ingeniería, Investigación y Tecnología , Vol.4, No. 2,
abril-junio, pp. 71-81.
Zeilinger A. (2000). Quantum Tele portation.
Scien tific Amer ican, Vol. 282, No. 4, April, pp.
32-42.
Vol.VI No.2 -abril-junio- 2005
117
Hacia la convergencia total de las tecnologías de la información
Bibliografía sugerida
Ayres R.U. (1990). Tech no log ical Trans for ma tions and Long Waves. Part I. Tech no log ical
Fore casting and Social Change. Vol. 37, pp.
1-37. Elsevier Publishing Co.
Ayres R.U. (1990). Tech no log ical Trans for ma tions and Long Waves. Part II. Tech no log ical
Fore casting and Social Change, Vol. 36, pp.
111-137, Elsevier Publishing Co.
Gross Neil editor (1996). Gilding the Ulti mate
Chip in Devel op ments to Watch. Busi ness
Week, October 14, p. 88.
Lemonick M.D. (1995). Future Tech is Now.
Times, July 17, pp. 36-39.
Semblanza del autor
Luis Roberto Vega-González . Es ingeniero mecánico electricista por la Facultad de Ingeniería de la UNAM. Obtuvo la maestría en
ingeniería de sistemas en el área de planeación por la DEPFI-UNAM y la maestría en administración d e las organizaciones
por la División de Estudios de Posgrado de la Facultad de Contaduría y Administración de la UNAM. Asimismo, se
especializó en gestión de la innovación tecnológica por el Centro para la Innovación Tecnológica y la FCyA de la UNAM.
Durante más de veinte años colaboró en diversas firmas nacionales e internacionales con proyectos en las áreas de
instrumentación, control y potencia. Actualmente es coordinador de vinculación y gestión tecnológica del Centro de
Ciencias Aplicadas y Desarrollo Tecnológico (CCADET) de la UNAM.
118
INGENIERIA Investigación y Tecnología
FI-UNAM
INGENIERÍA Investigación y Tecnología VI. 2. 119-126, 2005
(artículo arbitrado)
Atenuación natural en suelos contaminados con
hidrocarburos
L. Corona-Ramírez y R. Iturbe-Argüelles
Instituto de Ingeniería, UNAM
E-mail: [email protected]
(recibido: julio de 2004; aceptado: agosto de 2004)
Resumen
Se realizó un experimento con suelo contaminado proveniente de una refinería, el cual
contaba con hidrocarburos derivados de petróleo, específicamente con concentraciones elevadas de hidrocarburos poliaromáticos (HAP). El estudio consistió en
preparar 7 cajones con 7 kg de suelo, cada uno con las siguientes condiciones:
S1 suelo contaminado con hidrocarburos y 15% de contenido de agua.
S2 suelo contaminado con hidrocarburos y adición de Nitrógeno y Fósforo (N y P) con
15% de contenido de agua.
S3 suelo contaminado con hidrocarburos y adición de N y P más un surfactante no
iónico, Emulgin W600, con 15% de contenido de agua.
S4 igual a S1 pero con 30% de contenido de agua.
S5 igual a S2 con 30% de contenido de agua.
S6 igual a S3 con 30% de contenido de agua.
S7 suelo contaminado testigo, sin control de humedad y sin aireación.
La experimentación consistió en airear el suelo diariamente y controlar el contenido de
agua de manera que éste fuera constante. Los resultados, indican que la mejor remoción
se obtuvo para el contenido de agua de 30%, con adición de nutrientes y surfactante.
Los compuestos con mayor eficiencia de remoción para todas las opciones son
naftaleno y antraceno. Por lo tanto, de acuerdo con los resultados, los compuestos
poliaromáticos (HAP) son susceptibles de ser removidos con atenuación natural y
biorremediación.
Descriptores: Biorremediación, HAP, degradación.
Abstract
A con tam i nated soil ex per i ment was per formed us ing sam ples from a re fin ery, con tain ing oil deri vate
hydrocarbons, spe cif i cally those with high con cen tra tions of polyaromathic hy dro car bons (PAH). The
test ing con sisted in 7 pans with 7 kg of soil, the prep a ra tion of 6 pans un der spe cific condi tions and one
as a blank, the con di tions were: wa ter con tent (15 y 30%), ad di tion of nu tri ents (N&P) and ad di tion a
non-ionic surfactant.
The pro cess con sisted in the daily aer a tion and wa ter con trol of the sam ples. The PAH were analyzed:
anthracene, benzo(a)pyrene, chry sene, phenanthrene and naph tha lene. The re sults af ter 8 weeks
showed a grad ual deg ra da tion of PAH, in di cat ing a better re moval ob tained when the wa ter con tent was
30% with nu tri ents ad di tion.
Keywords: Bioremediation, PAH, deg ra da tion.
Atenuación natural en suelos contaminados con hidrocarburos
Introducción
La contaminación con compuestos orgánicos en
suelos y sedimentos es un problema ambiental
importante por la cantidad de sitios contaminados. Los hidrocarburos aromáticos policíclicos
(HAP) presentan un interés mayor debido a la
toxicidad de muchos de ellos y a la frecuencia con
que se detectan.
La biorremediación y la atenuación nat u ral son
tecnologías que favorecen la remoción de compuestos orgánicos; sin embargo, los HAP se
consideran persistentes, y por tanto, difíciles de
degradar.
La atenuación natural es la reducción de las
concentraciones del contaminante en el ambiente
con los procesos biológicos, los fenómenos físicos
(advección, dispersión, dilución, difusión, volatilización, sorción/desorción) y las reacciones químicas (intercambio iónico, complejación, transformación abiótica) (US Army, 1995).
La biodegradación es uno de los principales
procesos que ayudan a la atenuación nat u ral en el
suelo, siendo los microorganismos esenciales para
cambiar la química del mismo. La adaptabilidad
que tenga la población microbiana, así como el
requerimiento nutricional, es lo que permite degradar a los contaminantes por medio de reacciones.
Entonces, los cambios químicos causados por los
microorganismos pueden disminuir directa o indirectamente las concentraciones de los contaminantes.
Dentro de la clasificación de los hidrocarburos
se encuentran los HAP, los cuales se presentan
como resultado de diversos tipos de actividad
humana. Los procesos de combustión industrial
contribuyen en gran medida, debido princi palmente al humo generado por carbón, com bus tibles fósiles y petróleo refinado, las descargas de
aguas municipales, las actividades de transporte y
los derrames son algunas de las principales
fuentes de estos contaminantes. Los HAP son
contaminantes orgánicos que provienen de los
hidrocarburos del petróleo y de la pirólisis de combustibles, así como sus homólogos alquil y los
sustituidos con azufre o nitrógeno. Los HAP, por lo
general, se producen a altas temperaturas de
400-500°C. Son sustancias liposolubles que se
forman como productos de la combustión del
petróleo y residuos del procesamiento del carbón.
120
INGENIERIA Investigación y Tecnología
La característica química prin ci pal es su estructura
de varios anillos bencénicos que pueden tener un
origen natural (las plantas y las bacterias son
fuente de hidrocarburos) o antropogénico, derivado tanto de las actividades que emplean petróleo, como de combustiones incompletas, (incineración de residuos urbanos e industriales,
incendios forestales, centrales térmicas, etc.) (Blumer, 1975).
Por su persistencia en el ambiente y la genotoxicidad, actualmente se realizan investigaciones para la remediación de estos compuestos,
ya que son removidos de los sitios contaminados,
principalmente por la degradación microbiana. Sin
embargo, pueden sufrir procesos tales como volatilización, fotoxidación, oxidación química, bioacumulación y adsorción en la matriz del suelo.
Hay dos clases de hidrocarburos aromáticos:
los de bajo peso molecular que tienen de 2 a 3
anillos aromáticos como el naftaleno, fenantreno,
antraceno y derivados, y los de alto peso mo lecular que tienen de 4 a 7 anillos aromáticos como el
criseno y benzo(a)pireno. Sus características físicas y químicas varían de acuerdo con su peso mo lecular y, en consecuencia, en su distribución y
efecto en el ambiente, lo mismo sus efectos en los
sistemas biológicos.
Los compuestos que se identificaron en un
estudio realizado en aceite crudo menciona que se
encuentran con mayor frecuencia el naftaleno y
criseno, también se presentan con un 100% de
frecuencia el fenantreno con un 98%, seguido del
benzo(a)pireno con un 75% y finalmente el
antraceno con un 40% (Kerr et al., 2001).
En el caso del fenantreno, varios estudios
reportan la alta degradació n que se alcanza,
gracias a las bacterias nativas del suelo; es por
esto que el fenantreno ha sido usado como
modelo en estudio de vías de degradación, ya que
su estructura es muy similar a la del benzo(a)–
pireno; tomando en cuenta que dicha situación se
presenta si el contenido de agua que se tenga en el
suelo es elevada, aproximadamente el 40% de su
capacidad de campo (Liu et al., 2001). En este
estudio se reporta que a los 2 meses comienza una
notoria disminución en su concentración.
FI-UNAM
L. Corona-Ramírez , R. Iturbe-Argüelles
Metodología
cajones S1 y S4 únicamente tuvieron suelo
contaminado. El experimento tuvo una duración
de 60 dí as con un muestreo cada 30 días. La
clasificación de los cajones es la siguiente:
Caracterización del suelo
Se utilizó un suelo contaminado con compuestos
poliaromáticos provenientes de una refinería. La
primera parte de la experimentación consistió en
la caracterización del suelo. En la tabla 1 se
presentan los resultados.
Tabla 2. Distribución de cajones
Número de
cajón
Características
S1
Suelo (15% de contenido de agua)
S2
Suelo (15% de contenido de agua)
+ nutrientes
Suelo
contaminado
con HAP
S3
Suelo (15% de contenido de agua)
+ nutrientes + surfactante
Conductividad eléctrica ( µS/m)
1.608
S4
Suelo (30% de contenido de agua)
Densidad aparente (g/cm3 )
1.421
S5
Densidad real (g/cm3)
2.646
Suelo (30% de contenido de agua)
+ nutrientes
Fracción de carbono orgánico
foc (%)
1.3938
S6
Suelo (30% de contenido de agua)
+ nutrientes + surfactante
pH
6.37
S7
Testigo
Porosidad
0.4624
Materia orgánica (%)
2.3973
Fósforo (mg/kg)
7.0312
Tabla 1. Características del suelo
Prueba
Granulometría
Cu
31.75
Cc
0.6375
Experimentación
El experimento consistió en la colocación de 6
cajones que sirvieron como contenedores, a los
cuales se les colocaron 7 kg de suelo contaminado
a cada uno. Las vari ables consideradas fueron las
siguientes: contenido de agua (15% y 30%), adición
de nutrientes y adición de surfactantes.
Para la adición de nutrientes se consideró la
concentración de carbono en el suelo como el 80%
de la concentración inicial de hidrocarburos totales del petróleo (HTP) y con la relación para
C:N:P de 100:10:1.
A los cajones S2, S3, S5, S 6 se les agregaron
nutrientes en la proporción mencionada. A los
cajones S3 y S6 además, se les agregó el surfactante no iónico probado en estudios previos
(Iturbe et al., 2002) para que sirviera como coadyuvante para la degradación (John et al. , 1998). Los
No se realizó un análisis estadístico del experimento, ya que para ser representativo deberían
llevarse a cabo duplicados y más combinaciones
de los tratamientos. Dado que el tiempo fue
limitado no fue factible aumentar el número de
cajones experimentales.
Resultados y discusión
Caracterización del suelo
Con base en los resultados obtenidos de la
caracterización del suelo, puede decirse que es un
suelo nor mal en salinidad, es decir, que las propiedades morfológicas y fisiológicas del perfil no
están influenciadas por el carácter salino. La determinación de la conductividad eléctrica de un
suelo es un parámetro importante, ya que tiende a
cambiar el contenido de agua, parámetro que en
este caso se considera relevante en la degradación
de los hidrocarburos.
De acuerdo con el conteo de bacterias hay
presencia de bacterias heterótrofas en el suelo,
encontrándose dentro del intervalo establecido
para suelos contaminados con hidrocarburos
(10 6 – 108 UFC/g).
Vol.VI No.2 -abril-junio- 2005
121
Atenuación natural en suelos contaminados con hidrocarburos
Concentración y eficiencias de remoción de HAP
En la prueba de análisis granulométrico de acuerdo
con el sistema unificado de clasificación de suelos
(SUCS) se obtiene un suelo arenoso mal graduado,
con muy poca cantidad de finos.
En las tab las 3 y 4 se presentan las concentraciones
iniciales y fi na les de los HAP en el suelo contaminado.
Las eficiencias totales de remoción en cada cajón
resultaron satisfactorias, es decir, que la concentración
de los HAP disminuyó en más de 80%, con respecto a
la que se tenía en el suelo inicialmente (Tabla 5).
De acuerdo con la concentración de nutrientes,
es un suelo con concentración baja en fósforo y medianamente pobre en nitrógeno total.
Tabla 3. Concentraciones iniciales de HAP
Contenido
de agua
15%
30%
Concentraciones de HAP (mg/kg)
Número de
cajón
Antraceno
Benzo (a) pireno
Criseno
Fenantreno
Naftaleno
S1
3.5944
0.0724
0.1410
ND
4.3655
S2
2.4132
0.0523
0.1180
ND
ND
S3
6.5072
0.1090
ND
5.6842
ND
S4
4.0465
0.0527
0.1287
0.0321
0.2632
S5
1.7812
0.0419
0.1009
0.0492
0.2046
S6
3.5183
0.1098
0.2584
0.0615
0.4787
ND= No Detectado
Tabla 4. Concentraciones finales de HAP
Contenido
de agua
15%
30%
Concentraciones de HAP (mg/kg)
Número de
cajón
Antraceno
Benzo (a) pireno
Criseno
Fenantreno
Naftaleno
S1
0.3250
0.0145
ND
ND
ND
S2
0.1736
0.0205
0.0215
ND
ND
S3
0.7350
0.0279
0.0524
1.0356
ND
S4
0.2467
0.0079
0.0155
0.0026
0.0049
S5
0.1106
0.0050
0.0121
0.0030
0.0058
S6
0.0450
0.0022
0.0135
0.0027
0.0058
Tabla 5. Eficiencias totales de remoción en cada cajón
Contenido
de agua
15%
30%
122
Eficiencias totales de remociónηT
Número de
cajón
Antraceno
Benzo (a) pireno
Criseno
Fenantreno
Naftaleno
S1
90.96
79.97
99.99
-
99.999
S2
92.80
60.80
81.92
-
-
S3
88.70
74.40
-
81.78
-
S4
93.90
85.00
87.96
91.90
98.14
S5
93.79
88.07
88.00
93.90
97.16
S6
98.72
98.00
94.77
95.61
98.79
INGENIERIA Investigación y Tecnología
FI-UNAM
L. Corona-Ramírez , R. Iturbe-Argüelles
CO 2 por parte de los microorganismos, lo que in dica que al consumir los contaminantes están
consumiendo oxígeno y lo liberan como CO 2.
Como se observa en la figura 2, en todos los
cajones se obtuvo producción de CO 2, a diferencia
del testigo, en el cual se presentó liberación de
CO 2 por parte de los microorganismos du rante las
primeras 24 horas, tiempo en el cual comienza a
haber menor producción de CO 2 , ocasionado por
la falta de aireación en ese suelo.
Puede observarse en la figura 2 que la mayoría
de los cajones tienen tendencia a producir CO2
con respecto al tiempo, a excepción de los cajones
S4 y S6, los cuales aumentan en las primeras 24 h y
en el período siguiente medido de 24 a 48 h su
tendencia es relativamente constante; siendo notoriamente menor en el cajón S 4.
En los demás cajones, S1, S2, S3 , S 5 su
tendencia va en aumento; sin embargo, en este
caso los cajones con el 15% de contenido de agua
son los que presentan mejor comportamiento en
cuanto a la producción de CO2, es decir, en
cuanto a la actividad microbiana. En los cajones
S1 y S3, con el menor contenido de agua se encuentran los microorganismos, con mejor actividad metabólica y únicamente el cajón S5, con
contenido de agua de 30% es uno de los tres
mejores cajones en cuanto a las pruebas de
respirometría realizadas. En la figura 3 puede
observarse la producción de CO2 a sus distintos
tiempos de incubación, 6, 24 y 48 h.
De acuerdo con las concentraciones obtenidas
puede notarse que, aproximadamente el 90% de los
casos presentó disminución en la concentración de
los hidrocarburos considerados, obteniendo en la
mayoría altas eficiencias de remoción.
Las curvas de eficiencia para cada cajón
muestran la degradación de los HAP (Figura 1),
donde se presentan las eficiencias de remoción
con respecto a los hidrocarburos estudiados;
antraceno, benzo(a)pireno, criseno, fenantreno y
naftaleno. Se puede observar la baja eficiencia en
el caso del criseno en el cajón S 5 y la no detección
en los cajones con el 15% de contenido de agua
para el fenantreno y naftaleno.
Respirometría
Conocer la tasa de respiración microbiana en el
suelo (mg de CO 2/kg de suelo/tiempo de incubación), es de gran importancia, puesto que con
ayuda de los resultados de las concentraciones,
eficiencias de remoción y bacterias heterótrofas,
puede tenerse un completo panorama para identificar el motivo por el cual se ve favorecida la
degradación de los HAP.
Se realizaron pruebas de respirometría (Prueba
de Jarras Cerradas) (Gauger, 1999), para conocer si
la población microbiana estaba asimilando a los
hidrocarburos como fuente de energía y con esto,
la capacidad de degradarlos. Esta actividad
microbiana se demuestra por la producción de
100
90
An tr ace no
80
Be nzo(a )pireno
70
Cr ise no
60
Fe na nt ren o
50
Na ft ale no
40
30
20
10
0
S1
S2
S3
S4
S5
S6
Cajones
Figura 1. Eficiencia de remoción de los HAP estudiados
Vol.VI No.2 -abril-junio- 2005
123
Atenuación natural en suelos contaminados con hidrocarburos
4.5
4
3.5
S1
S2
3
2.5
2
1.5
1
0.5
S3
S4
S5
S6
SB
0
0
10
20
30
40
tiempo de in cubación (h)
50
Figura 2. Respiración microbiana en el suelo de los cajones estudiados
0.25
0.2
t incubación 6h
t incubación 24h
0.15
t incubación 48h
0.1
0.05
0
S1
S2
S3
S4
S5
S6
SB
Cajones
Figura 3. Tasa de respiración microbiana en el suelo
Debido a que las mayores eficiencias de remoción
se presentan en los cajones con contenido de
agua del 30%, es de suponerse que de igual
manera la producción de CO2 sea mayor con este
contenido de agua; sin embargo, la tasa de
respiración en el suelo es muy variada, pues a un
tiempo de incubación de 6 h, los cajones S1, S6, S 3
y S 5 son los que tienen mayor producción de CO 2
(de 0.1901–0.1027 mg/kg de suelo/tiempo de incubación) y los de menor producción, S4 y S 2 (con
0.0697 y 0.0293 mg/kg de suelo/tiempo de incubación) respectivamente, de igual manera sucede a las 48 h, siendo menor el CO 2 producido
que en las primeras horas.
124
INGENIERIA Investigación y Tecnología
Como puede observarse en la figura 3, en todos los
cajones de manera general, se tiene mejor producción a las primeras horas, y conforme es mayor
el período, menor es la actividad metabólica que
presentan los microorganismos, mostrando en
promedio mejor comportamiento el cajón S 6.
De manera muy similar sucede a las 24 h de
incubación, cambiando únicamente S2 y S5 como
los cajones de menor producción. Aunque en
estos seis cajones se haya obtenido una mayor
eficiencia de remoción, la diferencia entre los
miligramos (mg) de CO 2 producido por kilogramo
(kg) de suelo por tiempo de incubación (h), puede
ser justificado por la población microbiana que
FI-UNAM
L. Corona-Ramírez , R. Iturbe-Argüelles
habita en el suelo, considerando que no todos los
microorganismos presentes en el suelo desempeñan una actividad metabólica favorecedora para la
biodegradación de los HAP.
Para favorecer la producción de CO2, diariamente se airearon cada uno de los cajones para
estimular a las bacterias heterótrofas presentes en
el suelo, las cuales se encargan de la biodegradación de los compuestos de interés.
Conclusiones
La caracterización física, química y biológica del
suelo es fundamental para conocer si la atenuación natu ral y biorremediación son viables como
técnicas de saneamiento, pues es parte de la
perspectiva microbiológica y el esencial conocimiento de su habitat natural de las poblaciones
microbianas degradadoras de hidrocarburos, tales
como las Pseu do mo nas, Flavobacterium, Achrom- bacter,
Anthrobacter, Micrococcus y Actinobacter , principalmente.
La adición de un surfactante sirve como
coadyuvante a los microorganismos del suelo para
degradar los HAP presentes, siempre y cuando la
dosis suministrada al suelo no altere la preferencia
del hidrocarburo como sustrato al microorganismo.
En gen eral, se obtuvo el 90% de degradación en
los hidrocarburos de interés (HAP), siendo el alto
contenido de agua factor importante para favorecer la tasa de degradación en un menor período.
Teniendo que para un suelo arenoso el contenido
de agua constante de 30% presenta mejores eficiencias de remoción que a un 15%.
Experimentalmente, el cajón S1 con 15% de
contenido de agua es el que presenta la mejor eficiencia de remoción para todos los compuestos,
principalmente el naftaleno.
De los experimentos en cajones con 30% de
contenido de agua el que presenta mejor eficiencia
de remoción es el S6, con adición de nutrientes y
surfactante.
Las gráficas de respirometría evidencian la
importancia que hay entre la actividad microbiana
y la aireación, comprobando experimentalmente
en el suelo que se tomó como blanco (SB) que
después de las 24 horas ya no hay producción de
CO 2, indicando que hay presencia de bacterias
heterótrofas degradadoras de hidrocarburos, pero
después de cierto tiempo la actividad microbiana
disminuye, debido a que las bacterias no tienen su
principal aceptor de electrones, el O 2.
Considerando que la respiración es un indicador de la actividad microbiana bajo condiciones
aerobias, se determina que la atenuación nat u ral y
biorremediación son una opción viable y efectiva
en suelos arenosos contaminados con HAP,
debido a la poca inversión que requiere; lo cual
dependerá de las concentraciones y el tipo de
contaminante, pues esto determinará la rapidez y
la eficiencia que se obtenga.
No se llevó a cabo un análisis estadístico del
experimento porque para esto se requiere aumentar el número de cajones experimentales, lo
cual para esta etapa no era posible. Sin embargo,
debido a que los resultados se consideran muy
alentadores se va a continuar la investigación con
HAP y se desarrollará el diseño de experimento
correspondiente.
Referencias
Blumer M. (1975). Policyclic Aromatic Hydro car bons in Soils and Recent Sedi ments.
Science. p. 188.
Gauger W.K. (1999). Pruebas de Biotrata- bilidad
para el Suelo. Radian Corpo ra tion,Texas.
Iturbe A.R., Orantes J.L. y Torres L.G. (2002).
Biodegradation of two Anionic Surfac tants
Employed for Oil-Contaminated-Soils in SituFlushing. Envi ron mental Geosciences.
John G.F., White (1998). Mecanism for Biotransforma tion of Nonylphenol Polyethoxilates in
Pseu do monas Putida. Journal of Bacteriology,
pp. 4332-4338.
Kerr J.M., McMillen S.J., Magaw R.I., Melton
H.R y Naughton G. (2001). Risk-Based Soil
Screening Levels for Crude Oil: The Role of
Polyaromatic Hydro car bons. The Petro leum Envi ron mental Research Forum, USA.
Liu-Baozhi, Banks M.K. y Schwab P. (2001).
Effects of Soil Water Content on Biodegrada tion of Phenanthrene in a Mixture of
Organic Contam i nants. Soil and Sedi ment
Contam i na tion. An Inter na tional Journal. Volumen 10, Issue 6.
U.S. Army Science Board. (1995). Infra struc ture
and Envi ron mental Issue Group, Remediation of
Contam i nated Army Sites: Utility of Natural
Vol.VI No.2 -abril-junio- 2005
125
Atenuación natural en suelos contaminados con hidrocarburos
Atten u a tion. Draft Report, Depart ment o f
the Army, Wash ington, D.C.
Semblanza de los autores
Lilia Corona-Ramírez . Es ingeniera ambiental egresada del IPN en el año 2002. Realizó la maestría en ingeniería ambient al con
especialidad en suelos y agua subterránea en la División de Estudios de Posgrado de la Facultad de Ingeniería, UNAM.
Actualmente forma parte del grupo de saneamiento de suelos y acuíferos del Instituto de Ingeniería de la UNAM, dirigido
por la Dra. Rosario Iturbe-Argüelles.
Rosario Iturbe-Argüelles . Ingeniera civil y doctora en ingeniería egresada de la Facultad de Ingeniería, UNAM es investigadora del
área de ingeniería ambiental en el Instituto de Ingeniería, principalmente dedicada a la caracteriz ación y saneamiento de
suelos contaminados por hidrocarburos desde hace más de diez años. Actualmente dirige el grupo de saneamiento de
suelos y acuíferos en el que participan más de 20 académicos y alumnos de posgrado.
126
INGENIERIA Investigación y Tecnología
FI-UNAM
INGENIERÍA Investigación y Tecnología VI. 2. 127-137, 2005
(artículo arbitrado)
Control óptimo determinista aplicado al problema
económico de crecimiento endógeno
V.M. García-Guerrero y F. Venegas-Martínez
División de Estudios de Posgrado de la Facultad de Ingeniería, UNAM y
Centro de Investigación en Finanzas, Tecnológico de Monterrey, Campus Ciudad de México.
E-mails: [email protected] y [email protected]
(recibido: junio de 2004; aceptado: septiembre de 2004)
Resumen
El propósito de este trabajo consiste en desarrollar, dentro de un marco determinista, un
modelo de crecimiento económico que explique endógenamente los determinantes del
mismo. Asimismo, el modelo propuesto describe el comportamiento de la dinámica de
las trayectorias de consumo y capital de los agentes. Se supone que la economía está
poblada por individuos idénticos con vida infinita que desean maximizar su utilidad por
un bien de consumo perecedero. Distintos índices de satisfacción se revisan. Las
empresas comparten la misma tecnología. En dicha tecnología, el producto marginal del
capital se mantiene constante en el tiempo. En este contexto, el problema de decisión
de un consumidor representativo se plantea como un problema de control óptimo
determinista en tiempo continuo. Las decisiones óptimas del consumidor se examinan
utilizando subrutinas de MATLAB .
Descriptores: Control óptimo, optimización dinámica, crecimiento endógeno.
Abstract
The aim of this pa per is to de velop, in a de ter min is tic frame work, a model of eco nomic growth that explains its de ter mi nants en dog e nously. The pro posed model also de scribes the be hav ior of the dy nam ics
of the agent’s con sump tion and cap i tal paths. It is sup posed that the econ omy is pop u lated by iden ti cal
and in fi nitely lived in di vid u als that wish to max i mize their util ity for the con sump tion of a sin gle perish able good. Sev eral sat is fac tion in dexes are re vised. Firms share the same tech nol ogy. In such a technol ogy it is as sumed that the mar ginal prod uct of cap i tal re mains con stant through time. In this context, the con sumer’s de ci sion prob lem is stated as a de ter min is tic op ti mal con trol problem in con tin u ous
time. Con sumer’s op ti mal de ci sions are ex am ined by us ing MATLAB  subroutines.
Keywords: Op ti mal con trol, dy namic op ti mi za tion, en dog e nous growth.
Introducción
En la actualidad, la búsqueda de soluciones a los
problemas económicos requiere de un planteamiento
multidisciplinario que integre diversas áreas del conocimiento científico. En particular, el análisis financiero es la disciplina que más se ha combinado con la
economía en el modelado del comportamiento de los
agentes y de los mercados en que estos participan.
Asimismo, entre las herramientas matemáticas
que se utilizan para resolver muchos de los
problemas económico-financieros destaca la
optimización dinámica, la cual agrega las técnicas del cálculo de variaciones, el control
óptimo y la programación dinámica.
En este trabajo se desarrolla un modelo de
crecimiento endógeno balanceado que permite
analizar las decisiones óptimas de los agentes
Control óptimo determinista aplicado al problema económico de crecimiento endógeno
bajo diferentes funciones de utilidad. Los supuestos del modelo se mantienen tan simples como
sea posible, de tal manera que se puedan obtener
soluciones analíticas. En esta investigación, también se estudia la evolución del consumo y el cap ital en función de la tasa subjetiva de descuento y
del producto marginal de capital. Asimismo, se
analiza la evolución del consumo y del capi tal en
función del tiempo.
La estructura de este trabajo se encuentra
organizada de la siguiente manera. En la sección 2,
se presenta el Hamiltoniano en valor presente, uno
de los conceptos importantes en el planteamiento
matemático del problema de crecimiento. En el
transcurso de la sección 3, se plantean los problemas de optimización asociados con un consumidor racional con vida infinita que desea maximizar
su utilidad por un bien de consumo perecedero.
Dichos problemas se resuelven con con trol óptimo
determinista en tiempo continuo. Asimismo, las
decisiones óptimas del consumidor se examinan
utilizando subrutinas de MATLAB ©. Por último, en
la sección 4 se establecen las conclusiones y algunas limitaciones.
El Hamiltoniano en valor presente
Existen muchos problemas económicos que se
pueden plantear como problemas de control
óptimo. En la mayoría de ellos el funcional objetivo es una in te gral, en cuyo integrando aparece un
fac tor de descuento,
H (k t, c t, m t)= F (k t,ct )e
Maximizar J (k t ) = ∫ 0∞ F (k t , ct ) e −ρ t dt
suje to a
k&t = G(k t , ct ),
k0 constante,
ct ∈ Ω,
donde ct es la vari able de con trol y kt es la vari able
de estado. El Hamiltoniano del problema anterior
se de fine como
128
INGENIERIA Investigación y Tecnología
+m t G (kt , c t )
donde m t es el multiplicador de Lagrange asociado
a la restricción. Ahora bien, las condiciones necesarias de un máximo están dadas por
∂H
= 0,
∂c t
∂H
∂F − ρt
∂G ,
−
=−
e − mt
∂k t
∂k t
∂k t
∂H
−
= G(k t , ct ).
∂m t
−
El Hamiltoniano en valor presente se de fine de
la siguiente manera:
H = He
ρt
ρt
= F(k t , c t ) + m t e G(kt , ct ).
Si se denota m t = λ t e −ρt , la ecuación an te rior se
puede reescribir de la siguiente manera:
H(k t , ct , λt ) .
= F (k t , ct ) + λ t G(k t , ct ).
Bajo este cambio de variable, las condiciones
necesarias para un máximo son ahora las
siguientes
∂H
= 0,
∂ ct
∂H &
−
= λt −λ t ρ,
∂k t
∂H &
−
= kt
∂λ t
−
e −ρt ,
donde ρ es una tasa de descuento. Asimismo, la
restricción de estos problemas es una ecuación
diferencial. En este marco, se plantea el siguiente
problema:
–ρt
El lector interesado puede consultar Cerdá
(2001) y Chiang (1992) para más detalles del
principio del máximo y del Hamiltoniano en valor
presente.
Modelos económicos de crecimiento
endógeno
Considere una economía cerrada que pro duce y
consume un bien perecedero. En este caso, la
identidad de la renta nacional en términos per ca pita está dada por
FI-UNAM
V.M. García-Guerrero y F. Venegas-Martínez
yt = c t +i t + g t
Esta condición establece que toda la producción, yt, del bien es destinada a tres fines: al
consumo, ct, a la inversión, i t , y al gasto de
gobierno, gt. En lo que sigue, por simplicidad, se
supondrá que gt = 0. La condición (1), asegura el
equilibrio en el mercado de bienes. El problema de
optimización que desea resolver un consumidor
racional, maximizador de utilidad, es el siguiente:
Maximizar
∫
∞
0
u( ct )e
−ρ t
u(c t ) =1n (ct )
(1)
El Hamiltoniano asociado a este problema está
dado por:
H(k, c, λ) =1n(ct ) + λ t (Akt − c t )
donde ? t es la variable de coestado. A partir de la
condición (4) se sigue que
λ&t = λ t (ρ − A)
dt
Por lo tanto,
sujeto a yt = ct + k& t ,
k 0 da do,
λt = λ 0 e
donde c t es el consumo del individuo al tiempo t; kt
es el capital del individuo al tiempo t ; u (ct) es la
función de utilidad o satisfacción del individuo y ?
es la tasa subjetiva de descuento. Si se supone que
la empresa representativa pro duce el bien con una
tecnología de la forma yt=Ak t, entonces el producto marginal de capital, A, se mantiene constante en el tiempo. De esta manera, el problema
an te rior se transforma en
Maximizar ∫ u (ct ) e
∞
0
−ρ t
dt
La condición (3) con duce a
ct =
1
λt
Si se sustituye el valor de ? t en la ecuación an terior, se sigue que
ct =
(2)
sujeto a k& t = Ak t − c t ,
k 0 da do
1 ( A− ρ )t
e
λ0
Ahora bien, como ct = Akt–k& t, se tiene que
ct e
Con base en el principio del máximo, las condiciones de primer orden (o condiciones necesarias) están dadas por:
∂H
= 0,
∂ ct
t
( ρ− A )
(4)
∂H = Ak − c
t
t,
∂λ t
(5)
donde H = H (k, c, λ , t) =u( ct ) − λ t (A k t − c t ).
Función de utilidad logarítmica
Suponga que la función de utilidad del problema
(2) es la siguiente:
=Ak t e
− At
- At
− k&t e
Si se integra la expresión an te rior se obtiene
∫
(3)
∂H &
–
= λt − λ t ρ,
∂kt
−A t
∞
0 t
c e
− At
dt =
∫
∞
0
− At
Ak t e
∞
−A t
dt − ∫ 0 k&t e dt
(6)
Observe que la integración por partes del
primer sumando del lado derecho de la ecuación
an te rior pro duce
ó
k&t e −A t dt ,
∫
∞
0
Ak t e − At dt = k0 + ∫
∫
∞
0
Ak t e − At dt − ∫ 0∞ k&t e − A t dt = k 0
∞
0
Por lo tanto, de la ecuación (6), se sigue que
∫
∞
0
ct e
− At
dt = k 0
Vol.VI No.2 -abril-junio- 2005
129
Control óptimo determinista aplicado al problema económico de crecimiento endógeno
=k 0 e ( A −ρ)t
En la figura 2 se observa la trayectoria óptima del
De esta manera,
k 0 = ∫ 0 ct e
∞
− At
dt =
1
λ0 ρ
En consecuencia,
1 =k ρ
0
λ0
Por lo tanto, la trayectoria óptima de consumo
satisface
ct =k 0 ρe ( A− ρ)
t
donde c0= k0? . Claramente, esta trayectoria es un
máximo (global), ya que ln(c t ) es una función
cóncava. En la figura 1 se observa la trayectoria
óptima del consumo como función de la tasa
subjetiva de descuento ? y del producto marginal
de cap i tal A .
capital como función de la tasa ? y del producto
mar ginal de cap i tal A.
Figura 2
Ahora bien, como
c&t = ( A − ρ)c t
k&t = ( A − ρ)k t
se tiene que la tasa de crecimiento del consumo y
la tasa de crecimiento del capital se encuentran
respectivamente expresadas por las siguientes
identidades
&ct
= A − ρ,
ct
k&t
= A −ρ
kt
Figura 1
Por otro lado, se tiene que
( A− ρ )
k&t = Ak t − ct = Ak t −k 0 ρe
t
Asimismo, como y t= Akt, se tiene que y& t= Ak& t.
De lo an te rior, se concluye que
y& t Ak& t A k&t k& t
=
=
= = A -ρ
yt
yt
A kt k t
cuya solución, en términos del cap i tal, es
k t = k 0 e At − e At
= k0 e
130
At
∫
t
0
k 0 ρe ( A −ρ ) s e− As ds
At
− e (1 − e
− ρt
)
INGENIERIA Investigación y Tecnología
En consecuencia, el consumo, el capital y el
producto crecen (o decrecen) exactamente a la
misma tasa A–ρ . Si A>ρ, la producción crece,
mientras que si A <ρ la producción decrece.
FI-UNAM
V.M. García-Guerrero y F. Venegas-Martínez
Cuando todos los sectores crecen (o decrecen) a la
misma tasa se dice que el crecimiento en la
economía es balanceado. En las figuras 3(a) y (c) se
muestra el comportamiento del consumo y del
capital respectivamente, cuando A>ρ. Asimismo,
en las figuras 3(b) y (d) se muestra el compor-
y al sustituir ?t en la ecuación an te rior, se tiene que
1
ct = λ 0 γ −1 e
(ρ − A ) t
γ −1
Ahora bien, como ct= Ak t – k&t, se sigue que
ct e
− At
= Ak t e
− At
− At
− k& t e
Si se integra la expresión an te rior se obtiene
∫
c e −A t dt = ∫ 0∞ Ak t e − At dt − ∫ 0∞ k&t e −A t dt
∞
0 t
(7)
Observe que la integración por partes del
primer sumando del lado derecho de la ecuación
an te rior pro duce
tamiento del consumo y del capital respectivamente, cuando A<? .
Figura 3
ó
∫
∞
0
Ak t e − At dt = k0 + ∫ ∞0 k&t e −A t dt
∫
∞
0
Ak t e
Ahora, suponga que la función de utilidad del
problema (2) está dada por
ctγ
γ
t
c
H(kt , ct , λt ) = + λ t ( Akt − c t )
γ
donde ?t es la vari able de coestado. A partir de la
condición (4) se sigue que
λ& t = λ t (ρ −A)
λt =λ 0 e ( ρ− A )
La condición (3) con duce a
ct = λt
1
γ −1
∫
∞
0 t
ce
− At
dt = k 0
De esta manera,
k 0 = ∫ 0 ct e
∞
γ
Donde k t y ct se definen como en el modelo an terior. El Hamiltoniano asociado a este problema
se de fine como:
Por lo tanto,
∞
− At
dt − ∫ 0 k&t e dt = k 0
Por lo tanto, de la ecuación (7), se sigue que
Función de utilidad exponencial I
uc( t ) =
− At
− At
1  γ −1 
d t = λ0 γ −1 

 γA − ρ 
En consecuencia,
λ0
1
γ −1
 γA− ρ 
= k 0 

 γ−1 
Por lo tanto, la trayectoria óptima de consumo
satisface
 γA − ρ 
ct = k 0 
e
 γ −1 
( p − A)t
γ −1
t
donde c0 = k0 [( ?A – ? )/ (? –1)]. En la figura 4 se
observa la trayectoria óptima del consumo como
función de la tasa ? y del producto marginal de
cap i tal A.
Vol.VI No.2 -abril-junio- 2005
131
Control óptimo determinista aplicado al problema económico de crecimiento endógeno
En la figura (5) se observa la trayectoria óptima
de cap i tal como función de la tasa ? y del producto
mar ginal de cap i tal A .
Ahora bien, como
Figura 5
&ct =
y
Por otro lado, se tiene que
 γA- ρ 
k&t = Ak t − ct = Akt −k 0 
e
 γ -1 
c&t  ρ − A 
=

ct  γ −1 
( ρ − A)t
γ− 1
k&t
cuya solución en términos del cap i tal se encuentra
dada por la siguiente expresión
At
−e
At
∫
t
0
 γA - ρ 
k o 
 e
 γ −1 
 ρ −A

 γ -1


s


e
− As
ds =
kt
INGENIERIA Investigación y Tecnología
=
ρ −A
γ −1
Del mismo modo, como y t =Akt, se tiene que
&yt= A&kt . De donde se concluye que
}
y& t Ak&t A k& t k& t ρ − A
=
=
= =
yt
yt
Ak t k t
γ −1
 ρ− A t
 γ-1 

k 0e 
132
 ρ − A
k& t =
k t
 γ −1 
Se tiene que la tasa de crecimiento del
consumo y la tasa de crecimiento del cap i tal, son
expresadas respectivamente, por las siguientes
ecuaciones
Figura 4
kt = k 0 e
ρ −A
ct
γ −1
En consecuencia, el consumo, el capital y el
producto crecen (o decrecen) exactamente a la
misma tasa (? –A)/(?–1). Si A >?, la producción
crece, mientras que si A<? la producción
disminuye debido a que ?<1. Cuando todos los
sectores crecen (o decrecen) a la misma tasa se
dice que el crecimiento en la economía es
balanceado. En las figuras 6 (a) y (c) se muestra el
comportamiento del consumo y del capital, respectivamente cuando A >? . Asimismo, las figuras
6(b) y (d) muestran el comportamiento del consumo
y del cap i tal, respectivamente cuando A< ?.
FI-UNAM
V.M. García-Guerrero y F. Venegas-Martínez
Figura 6
ct =
Función de utilidad exponencial II
 A − ρ t
θ 
/θ 
ct = λ−1
e
0
Ahora bien, como ct= Ak t – k&t, se tiene que
1− θ
t
c
λ
Si se sustituye ? t en la ecuación an te rior, se sigue que
Suponga ahora que la función de utilidad para el
problema (2) se encuentra con la siguiente forma
u(ct ) =
1
1 /θ
t
−1
1−θ
ct e
− At
= Ak t e
- At
− k& t e
-A t
Si se integra la expresión an te rior se obtiene
Donde k t y ct se definen como en el modelo an terior. El Hamiltoniano asociado a este problema
se de fine como:
∫
∞
0
c te
− At
dt =
∫
∞
0
Ak t e
− At
∞
−A t
dt − ∫ 0 k&t e dt
(8)
1− θ
c −1
H(k t , ct , λ t ) = t
+ λ (Ak t − ct )
1−θ
donde ?t es la vari able de coestado. A partir de la
condición (4) se sigue que
λ& t = λ t (ρ −A)
Por lo tanto,
λt =λ 0 e
( ρ− A )t
La condición (3) con duce a
Observe que la integración por partes del
primer sumando del lado derecho de la ecuación
an te rior pro duce
∫
∞
0
Ak t e
− At
∞
−A t
dt = k0 + ∫ 0 k&t e dt
∫
∞
0
Ak t e
− At
∞
− At
dt − ∫ 0 k&t e dt = k 0
ó
Por lo tanto, de la ecuación (8), se tiene que
∫
∞
0
ct e
− At
dt = k 0
Vol.VI No.2 -abril-junio- 2005
133
Control óptimo determinista aplicado al problema económico de crecimiento endógeno
De esta manera,
∞
k0 = ∫ 0 c t e
− At
1
−
θ

dt = λ 0 θ 

 ρ − A(1− θ) 
En consecuencia,
− 1/ θ
λ0
ρ − A(1 − θ) 
= k 0 

θ


Por lo tanto, la trayectoria óptima de consumo
satisface
=k 0 e
 A −ρ 

 t
 θ 
En la figura 8 se observa la trayectoria óptima
del capi tal como función de la tasa ? y del
producto mar ginal de cap i tal A.
Figura 8
Ahora bien, como
A −ρ
&ct =
ct
 θ 
y
 A −ρ
k& t =
k t
 θ 
Se tiene que la tasa de crecimiento del
consumo y la tasa de crecimiento del capital se
encuentran expresados respectivamente, de la
siguiente manera
Figura 7
 A -ρ 

t
θ 
 ρ − A(1 − θ)  
ct =k 0 
e
θ


donde c0 = k0 [? –A (1–?))/ ?]. Ob serve en la figura 7
la trayectoria óptima del consumo como función
de la tasa ? y del producto mar ginal de cap i tal A.
Por otro lado, se tiene que
&ct A − ρ
=
ct
θ
&k
A −ρ
t
=
kt
θ
Del mismo modo, como y t= Akt, se tiene que
t=
y& Ak&t. De donde se concluye que
 A -ρ t

θ 
y&t

 ρ − A(1 − θ)  
k&t = A k t − ct = A kt − k 0 
e
θ


yt
cuya solución en términos del cap i tal es
k t = k0 e
134
At
−e
At
∫
t
0
 A-ρ 
s
θ  − As
 ρ − A (1 − θ)  
k 0
e
θ


e
ds
INGENIERIA Investigación y Tecnología
=
A k& t
yt
=
Ak&t
Ak t
=
k& t
kt
=
A −ρ
θ
En consecuencia, el consumo, el capital y el
producto crecen (o decrecen) exactamente a la
misma tasa [(A–?)/ ?]. Si A>?, la producción crece,
mientras que si A<? la producción disminuye
debido a que ? >0. Cuando todos los sectores
FI-UNAM
V.M. García-Guerrero y F. Venegas-Martínez
Figura 9
crecen (o decrecen) a la misma tasa se dice que el
crecimiento en la economía es balanceado. En las
figuras 9(a) y (c) se muestra el comportamiento del
consumo y del capital respectivamente, cuando
A>?. Asimismo las figuras 9 (b) y (d) muestran el
comportamiento del consumo y del capital
respectivamente cuando A <?.
Función de utilidad exponencial
negativa
Considere la siguiente ecuación de utilidad para el
problema (2)
u(ct ) = −e
−θ c t
En el marco de la teoría de con trol óptimo, kt es
la vari able de estado y ct es la variable de control.
El Hamiltoniano asociado a este problema se de fine como:
H(k t , c t λ t ) = −e
−θ c
t
+λ t ( Ak t − ct )
θe
− θ ct
− λt = 0
es decir
ct =
1n( θ) − 1n(λ t )
θ
y al sustituir ?t en la ecuación an te rior, se sigue que
ct =
1n(θ) −1n(λ 0 ) − (ρ − A)t
θ
& se tiene que
Ahora bien, como ct = Akt – k,
ct e
− At
= Ak t e
− At
− At
− k& t e
Si se integra la expresión an te rior se obtiene
∫
c e − At dt = ∫ 0∞ Ak t e −A t dt
∞
−A t
− k& e d t
∞
0 t
∫
0
t
(9)
donde ? t es la vari able de coestado. La condición
(3) con duce a:
Vol.VI No.2 -abril-junio- 2005
135
Control óptimo determinista aplicado al problema económico de crecimiento endógeno
Observe que la integración por partes del
primer sumando del lado derecho de la ecuación
an te rior pro duce
ó
∫
∞
0
∫
∞
0
Ak t e
− At
dt = k0 + ∫
Ak t e
− At
∞
− At
dt − ∫ 0 k& t e dt = k 0
−A t
k& e dt
∞
0 t
De esta manera, de la ecuación (9), se tiene que
∞
− At
∫ 0 c te dt =k 0
De donde se sigue que
k 0 = ∫ 0 ct e
∞
− At
1  1n(θ) − 1n(λ 0 ) (ρ - A) 
dt = 
−
θ
A
A2 
En consecuencia,
1n (θ) − 1n(λ 0 ) = A θk0 + ρ -A
A
Por otro lado, se tiene que
ρ −A


− (ρ − A) t 
 Aθ k 0 +
A

k&t = Ak t − ct = Ak t −

θ





cuya solución en términos del cap i tal k t es
k0 e A t
−e
At
∫
t
0
ρ −A


−(ρ − A)s 
 Aθ k 0 +
A

 e − A s ds
θ






De donde, kt= k 0+((A–?) / A?)t. En la figura 11
se observa la trayectoria óptima del cap i tal como
función de la tasa ? y del producto marginal de
cap i tal A.
Por lo tanto, la trayectoria óptima de consumo
satisface
ct =
A θk0 +
ρ −A
− (ρ − A)t
A
θ
Ahora bien, como
y&t
yt
donde
ρ −A 

c0 =  Aθk0 +
/θ
A 

Ob serve en la figura 10 la trayectoria óptima del
consumo como función de la tasa ? y del producto
mar ginal de cap i tal A.
Figura 10
136
INGENIERIA Investigación y Tecnología
≠
c&t
ct
≠
&k
t
kt
se concluye que, para este modelo, no es posible
que el crecimiento en la economía sea balanceado.
Figura 11
Conclusiones
Este trabajo desarrolló, dentro de un marco determinista, un modelo de crecimiento económico que
explica de forma endógena los determinantes del
FI-UNAM
V.M. García-Guerrero y F. Venegas-Martínez
mismo. Este problema considera aspectos como,
consumo, producción e inversión. Asimismo, el
modelo propuesto de scribe el comportamiento de
la dinámica de las trayectorias de consumo y cap ital de los agentes. En el planteamiento del problema se supuso que el producto mar ginal del capital se mantiene constante en el tiempo. Por ello,
se planteó el problema de decisión de un consumidor, que desea maximizar su utilidad por un bien
de consumo perecedero, como un problema de
con trol óptimo determinista en tiempo con tinuo.
Se revisaron distintas funciones de utilidad en las
que se examinaron las decisiones óptimas del
consumidor utilizando subrutinas de MATLAB ©.
Un aspecto interesante de este problema es que
para los modelos con funciones de utilidad
logarítmica y exponencial se encontró que el
crecimiento en la economía es balanceado, debido
a que el consumo, el capital y el producto
evolucionan exactamente a la misma tasa. En
cambio, para el modelo con una función de
utilidad exponencial negativa se concluye que no
es posible que el crecimiento en la economía sea
balanceado.
Referencias
Cerdá E. (2001). Optimización dinámica . Ed.
Prentice Hall.
Chiang A.
(1992). Dynamic Opti mi za tion .
McGraw-Hill.
Bibliografía sugerida
Bellman R.
(1957). Dynamic Programming.
Princeton Univer sity Press.
Bellman R. (1961). Adap tive Control Processes: A
Guided Tour. Princeton Univer sity Press.
Bertsekas Dimitri P. (1987). Dynamic
Programming: Deter min istic and Stochastic
Models . Prentice Hall.
Chiang A. (1987). Métodos fundamentales de
economía
matemática.
3a
Edición,
McGraw-Hill.
Dorfman, R. (1969). An Economic Inter pre ta tion of Optimal Control Theory. Amer ican
Economic Review, No. 59, pp. 817-831.
Fleming W. y Rishel R. (1975). Deter min istic and
Stochastic Optimal Control. Springer-Verlag.
Gelfand I.M. y Fomin S.V. (1963). Calculus of
Vari a tions. Prentice-Hall.
Venegas-Martinez F. (1999). Crecimiento
endógeno, dinero, impuestos y deuda
externa. Investigación económica , Facultad de
Economía, UNAM, Vol. 59, No. 229,
pp.15-36.
Venegas-Martinez F. (2000). On consump tion,
Invest ment and Risk. Economía Mexicana ,
Nueva Época, División de Economía, CIDE,
9, No. 2, pp.227-244.
Venegas-Martinez
F.
(2000).
Utilidad,
aprendizaje y estabilización. Gaceta de
Economía , ITAM, Año 5, No. 10, pp.153-169.
Venegas-Martinez F. (2001). Tempo rary Stabi li za tion: A Stochastic Anal ysis, Journal of
Economic Dynamics and Control, Vol. 25, No.
9, September, pp.1429-1449.
Weber Richard (2002). Opti mi za tion and
Control.
Http://www.statslab.com.ac.uk/~rrw1/oc
/index.html
Semblanza de los autores
Víctor Manuel García-Guerrero . Obtuvo la maestría en investigación de operaciones y la licenciatura en actuaría en la UNAM.
Imparte cátedra en la Facultad de Ciencias de la UNAM y es miembro de la International Society on Multiple Criteria
Decision Making desde 2003. Actualmente se desempeña como asesor de auditoría, metodología y administración de
riesgos de crédito en BBVA Bancomer.
Francisco Venegas-Martínez . Labora en el Tecnológico de Monterrey, Campus Ciudad de México como director del Centro de
Investigación en Finanzas, director de la maestría y doctorado en ciencias financieras y como editor de la Revista Mexicana
de Economía y Finanzas. Tiene estudios de postdoctorado en finanzas en Oxford Univer sity, un doctorado en matemáticas
y otro en economía por la Wash ington State Univer sity, la maestría en economía en el ITAM, la mae stría en matemáticas y la
de investigación de operaciones en la UNAM. Ha sido profesor-investigador en la UNAM, UAM, UP, Wash ington State
University, CIDE, Oxford University y Tecnológico de Monterrey. Asimismo, ha sido profesor en el COLMEX en la
Universidad Anáhuac y en el Colegio de la Frontera del Norte. Fue ganador del Premio Nacional en Investigación Económica
“Maestro Jesús Silva Herzog 2002” y del premio Nacional “Mex Der 2003”.
Vol.VI No.2 -abril-junio- 2005
137
INGENIERÍA Investigación y Tecnología VI. 2. 139-146, 2005
(artículo arbitrado)
Del método científico al diagnóstico de problemas de
ingeniería en México
O.E. Sotelo-Rosas y L.C. Ramírez-Carrera
Maestría en Ciencias en Ingeniería Administrativa
División de Estudios de Posgrado e Investigación, Instituto Tecnológico de Orizaba
E-mail: [email protected] y [email protected]
(recibido febrero de 2004; aceptado: octubre de 2004)
Resumen
Si se carece de un sistema claro para realizar el diagnóstico de una situación problemática,
habrá un entorpecimiento en el proceso de definición de objetivos, clave en la solución de
situaciones de decisión. Por consiguiente, pueden darse soluciones equivocadas que no
corresponden a las necesidades que deben atenderse en los sistemas empresariales. La
detección de un vacío metodológico en este sentido, se dio como fruto de una revisión a
cincuenta tesis de maestría elaboradas entre los años 2000-2004, y a la aplicación de
cincuenta encuestas a alumnos de posgrado del Instituto Tecnológico de Orizaba. Este
estudio de campo, justifica la elaboración de un método claro, confiable y sencillo, que
disminuya la ambigüedad y complejidad presentes cuando se busca la solución de
problemas de ingeniería. Se empleó el método de investigación cualitativo, cuyo objetivo
científico principal es la comprensión de los fenómenos mediante el análisis de las
percepciones e interpretaciones de los sujetos que realizan la investigación. Mediante un
discernimiento analógico entre el llamado método científico y el inicio del proceso de
decisión, y como parte funda mental de este proyecto, se propone un “Proceso inte gral de
diagnóstico para resolver una situación problemática”, empleando herramientas de TQM. El
modelo propuesto, fue validado en una empresa de la región de Orizaba, cuyo informe cae
fuera del alcance de este artículo.
Descriptores: Método científico, situación problemática, diagnóstico, solución de problemas de ingeniería, administración total de la calidad (TQM)
Abstract
If it is lacked a clear sys tem to make the prob lem atic sit u a tion di ag nos tic, will be an ob struc tion in the def i ni tion
of ob jec tives pro cess, key in the de ci sion sit u a tions so lu tion. There fore, mis taken solu tions can oc cur, that do not
cor re spond to the ne ces si ties that must be taken care of in the en ter prise sys tems. The detec tion of a
methodologic emp ti ness in this sense is the fruit of a re vi sion to fifty Mas ter de gree the ses elab o rated be tween
2000-2004 years, and to the ap pli ca tion of fifty sur veys to posgrado´s stu dents of the Tech nologicalInstitute
of Orizaba. This field study jus ti fies the elab o ra tion of a sure re li able and sim ple method that it di min ishes the
am bi gu ity and com plex ity when the en gi neer ing prob lems so lu tions look for. We used the qual i ta tive in ves ti gation method, whose main sci en tific ob jec tive is the un der stand ing of the phe nom ena by means of the anal y sis of
the per cep tions and in ter pre ta tions of the peo ple that make the in ves ti ga tion. By means of anal ogy dis cern ment
be tween the sci en tific method and the be gin ning of the de ci sion pro cess, and as fun da mental part of this pro ject,
we pro pose an “In te gral Pro cess of di ag no sis to solve a prob lem atic sit u a tion”, us ing TQM tools. The pro posed
model was val i dated in a re gion of Orizaba Com pany, whose re port is out side to the reach of this ar ti cle.
Keywords: Sci en tific method, prob lem atic sit u a tion, di ag nos tic, en gi neer ing prob lems so lu tions, to tal
qual ity man age ment (TQM).
Del método científico al diagnóstico de problemas de ingeniería en México
Introducción
Tomando como base datos obtenidos en un
estudio de campo realizado en la División de
Estudios de Posgrado e Investigación del Instituto
Tecnológico de Orizaba, por medio de: a) una
revisión a cincuenta tesis de las maestrías en ciencias en ingeniería administrativa e Ingeniería Industrial y b) encuestas a cincuenta compañeros
alumnos de la Maestría en Ingeniería Administrativa; se pudo concluir, si bien parcialmente, que
existen vacíos metodológicos en la fase del diagnóstico para la resolución de problemas tecnológicos, ya que el 30% de los estudiantes encuestados desconocieron con exactitud los pasos para
la realización de éste; detectándose también una
desinformación en cuanto al desarrollo, aplicación
y conclusión de métodos de diagnosis. Los autores creen que carecer de un sistema claro y
preciso para especificar un problema, entorpece la
adecuada solución del mismo, hablando en términos de economización de recursos. Se requeriría, por lo tanto, de un método funcional, basado
en el pensamiento racional, para realizar un diagnóstico de problemas que requieran de la aplicación de la ingeniería.
Marco de referencia
Una de las cualidades del ser humano, es su tendencia a tratar de comprender y explicar el mundo
que lo rodea y buscar el por qué de los fenómenos
que observa. Los procesos mentales que sirven de
base para la solución de esta inquietud, se fundamentan en una amplia gama de métodos. El más
conocido y empleado de ellos es el método científico, iniciado por Fran cis Bacon (1561- 1626), una
de las personalidades más sobresalientes de la historia de la ciencia del mundo oc ci den tal moderno.
“Francis Bacon sembró la semilla del método
científico al atacar el método deductivo y señalar la
necesidad de sustituirlo por la observación directa de
los hechos, a partir de la cual podrían extraerse
conclusiones generales.” (Van Dalen y Meyer,
1979).
La gran cantidad de información producida de
la recolección de hechos al azar, propuesta por el
método de Bacon resultaba difícil de manejar, por
140
INGENIERIA Investigación y Tecnología
lo tanto, hombres como Ga lileo Galilei (15641642), René Des cartes (1596-1650) e Isaac New ton
(1712-1727), llegaron a superar la sim ple combinación de los procesos inductivo y deductivo, lo cual
originó el moderno método científico. Más tarde,
John Dewey (1859-1952), contribuye a enriquecer
este método haciendo una recolección metódica
de hechos que reemplazaron la simple acumulación arbitraria.
En este trabajo, se ha seleccionado la exposición de las cinco etapas del método, desde la
visión de Dewey, según Van Dalen y Meyer (1979).
La razón de haber elegido a estos autores, es que
se ha empleado su explicación en repetidas ocasiones exitosamente para la enseñanza del método científico, el cual se expone a continuación:
“1. Percepción de una dificultad
El individuo encuentra algún obstáculo, experiencia o problema que le ocupa, y entonces
a) Carece de los medios para llegar al fin
deseado.
b) Tiene dificultad para determinar el carácter de un objeto, o bien,
c) No puede explicar un acontecimiento inesperado.
2. Identificación y definición de la dificultad
El individuo efectúa observaciones, registra hechos que le permiten definir su dificultad con mayor precisión.
3. Soluciones propuestas para el problema: hipótesis
A partir del estudio preliminar de los hechos, el
individuo formula las conjeturas inteligentes acerca de las posibles soluciones del problema.
Las conjeturas –generalizaciones que ofrece
para explicar los hechos que originan la dificultad–
se denominan hipótesis.
4. Deducción de las consecuencias de las soluciones
propuestas
Deductivamente, el individuo llega a la conclusión de que, si cada hipótesis es verdadera, le
seguirán ciertas consecuencias.
FI-UNAM
O.E. Sotelo-Rosas y L.C. Ramírez-Carrera
5. Verificación de las hipótesis mediante la acción
El individuo pone a prueba cada una de las
hipótesis buscando hechos observables que permitan confirmar si las consecuencias que deberán
seguir, se producen o no. Mediante este procedimiento puede determinar cuál de las hipótesis
concuerda con los hechos observables y, de esa
manera, hallar la solución más confiable para su
problema.” (Van Dalen y Meyer, 1979).
Por otro lado, al enfocar el asunto de la
solución de problemas desde las disciplinas administrativas, hemos seleccionado a Easton (1978),
quien describe un método que consta de tres
etapas fundamentales para iniciar un proceso
activo de decisión:
a) la percepción de una necesidad de cambio
o reconocimiento del problema;
b) el diagnóstico o entendimiento claro de la
situación problemática actual y
c) la definición de objetivos y metas de decisión a través de una jerarquía de objetivos; lo
cual genera acciones concretas y acertadas
para resolver la problemática en cuestión.
El primer paso requiere que un sujeto, a quien
se le llama decisor, perciba un mal funcionamiento
y/o la obsolescencia de un cierto sistema. La
diferencia entre estos dos términos, es que los
problemas con mal funcionamiento son factibles
de corregir mediante ciertas mejoras, contrario a la
obsolescencia, la cual se entiende como una
inadecuación del sistema estudiado a las circunstancias actuales. Para realizar el diagnóstico del
problema, que es la segunda etapa de este método, Easton recomienda un procedimiento de
diagnóstico que consta de once pasos, el cual
puede ser más simple o más complejo, según la
naturaleza del problema. El tercer y último paso
clarifica, a través de la jerarquía de objetivos, las
decisiones que deben tomarse, pues se parte del
supuesto de que el diagnóstico ha sido hecho y se
han verificado las causas que originan la problemática en cuestión.
Para contar con una visión tanto externa como
interna de los factores que inciden directamente al
mal funcionamiento de un sistema, tales como
estrategias, procesos operativos, productos, servicios y recursos humanos, tecnológicos y financieros, se recomienda un análisis DAFO, el cual
estudia las debilidades, amenazas, fortalezas y
oportunidades (Udaondo, 1998). De esta manera,
los puntos fuertes internos que estén relacionados con oportunidades externas, orientan
acerca de lo que debe ser impulsado por la
empresa mediante estrategias bien definidas. De
igual modo, el análisis comparativo de los puntos
débiles y su correlación con amenazas externas,
indicará en cuáles puntos se enfatizará en el momento de cambiar dicha estrategia o de introducir
elementos que fortalezcan y refuercen a la empresa en sus áreas de mayor vulnerabilidad.
Para lograr un panorama más profundo de la
situación problemática interna, se sugieren técnicas complementarias, como son algunos diagramas utilizados por la Administración Total de la
Calidad (TQM) por sus siglas en inglés, Total Qual ity
Management, por ejemplo: el de Ishikawa; de relaciones y de afinidad. El diagrama de Ishikawa, como es sabido, describe las relaciones entre el
efecto (problema) con sus causas potenciales. El
diagrama de relaciones, que tiene cierta similitud
con el anterior, pertenece a la familia enunciada
por Bustamante y Prudente (2001) como las “Nuevas 7 herramientas del control de calidad”. Se usa para
disminuir la complejidad en una situación problemática enumerando, de forma organizada y racional, las relaciones causa-efecto entre las variables
que presentan algún desorden existente, y por lo
tanto, serviría también para realizar un diagnóstico. Adicionalmente, se tiene el diagrama de
afinidad empleado por Solís Coria (2002), cuya
utilidad se concentra en la clarificación del problema en sí mismo, mediante la integración de datos
obtenidos de un fenómeno complejo cualquiera.
TQM se dirige más a la administración básica
que al con trol de calidad, ya que confiere un gran
valor al hecho de conocer y satisfacer las necesidades de los clientes. Incluye además, cualquier
aspecto del producto: procesos, diseño y sistemas
de administración y control que tengan algún
efecto potencial en su calidad (Hicks, 2000).
Vol.VI No.2 -abril-junio- 2005
141
Del método científico al diagnóstico de problemas de ingeniería en México
Desarrollo
Planteamiento del problema
Se percibió una inconsistencia metodológica para
diagnosticar problemas de ingeniería, a partir de
tres textos que como parte fun da men tal describen
la aplicación de una jerarquía de objetivos (Easton,
1978). A continuación se reseñan:
a) Artículo de revista de divulgación (Morales
et al., 2001), que informa sobre la construcción de una jerarquía de objetivos en su
modalidad de árbol de medios metas, para
clarificar el proceso de validación de una
compañía farmacéutica de la región de Orizaba. Este trabajo carece de un método de
diagnóstico, o cuando menos, no se publicó.
b) El trabajo de tesis de maestría de Cruz
Moreno (2002), quien resolvió la necesidad
de aumentar la eficiencia de una empresa de
servicios de cómputo DCASIA. Para ello,
primero realizó un diagnóstico con el uso de
un análisis DAFO y a partir de ahí, construyó
una jerarquía de objetivos para satisfacer su
problema. Como enlace diagnóstico–jerarquía, la tesista realizó un diagrama de flujo
concep tual, de acuerdo a sus conocimientos
y experiencia en dicha organización.
c) Otro trabajo de tesis en el que se emplea
esta forma de solucionar problemas, es el
realizado por Vela Cao Romero (2003), quien
a partir de dos técnicas: un análisis DAFO
para establecer el entorno externo e interno
de la empresa Bombas Sumergibles de Córdoba, S.A. de C.V. y un diagrama causaefecto, identificó la problemática de la empresa. Como tercer y último paso, construyó
la jerarquía de objetivos.
A partir del análisis de estos trabajos, se
vislumbra que se puede ahondar más en la investigación de esta posible deficiencia. Por lo que
se decidió detectar la familiaridad que existe por
parte de los alumnos de la División de Estudios de
Posgrado e Investigación del Instituto Tecnológico de Orizaba, hacia el empleo de herramientas
de calidad, tales como el diagrama de Ishikawa, el
142
INGENIERIA Investigación y Tecnología
diagrama de afinidad y el diagrama de relaciones
que forman parte de las siete herramientas de
TQM. Para ello, se realizó la aplicación de una
encuesta a través de un cuestionario a cincuenta
alumnos y se revisaron cincuenta trabajos de tesis
de las áreas de ingeniería administrativa y de
ingeniería in dus trial. A partir de ello, se obtuvieron
datos que reflejaron un área de oportunidad que,
desde el enfoque de este trabajo, es determinante
para justificar el desarrollo del mismo: la falta de
un procedimiento sistemático para realizar diagnósticos de ingeniería, no importando las herramientas que se usen posteriormente para la solución del problema identificado.
Objetivo general
Diseñar un método claro, confiable y sencillo que,
tomando como base algunas técnicas de Calidad
Total, disminuya la ambigüedad y la complejidad
en la elaboración de un diagnóstico en ingeniería,
fundamentando este proceso en la similitud de la
interpretación del método científico propuesta por
Van Dalen y Meyer y la metodología del inicio del
proceso de decisión descrita por Easton (1978).
Objetivos particulares
–
Aportar un método que ayude a capturar las necesidades de cambio de decisores
potenciales.
– Aprovechar la similitud entre los pasos del método científico y el diagnóstico en
ingeniería.
– Establecer una metodología para diagnosticar científicamente.
– Obtener un apoyo metodológico para
hacer más ágil el inicio del proceso de decisión.
– Obtener una herramienta útil en la ingeniería administrativa.
– Promover el diagnóstico como parte
fundamental de la aplicación de la ingeniería.
Justificación
Los resultados de este proyecto servirán para que,
a partir de las percepciones que un decisor
potencial tiene sobre el mal funcionamiento u
obsolescencia de un sistema empresarial, de una
manera consistente y clara se puedan emitir
FI-UNAM
O.E. Sotelo-Rosas y L.C. Ramírez-Carrera
diagnósticos relevantes; lo que permitirá encuadrar el problema adecuadamente en tiempo y
forma, y así contribuir a la disminución de la
complejidad en la solución de los mismos. También se piensa que el hecho de atraer la atención
sobre la importancia de detectar e identificar
problemas adecuadamente, influirá en los estudiantes de ingeniería de manera provechosa,
evitando pérdidas de tiempo y desperdicio de
recursos.
Estudios y procedimientos
Apoyándose en la visión que del método científico
aportan Van Dalen y Meyer (1979) y la metodología
de Easton (1978), acerca del inicio del proceso de
decisión , se efectuó un análisis identificando un
paralelismo entre ambos procesos, hallándose las
relaciones que se expresan en la figura 1.
Ambos inician con la percepción de un problema
o reconocimiento de una necesidad de cambio,
pero mientras que en el método científico se
observa la situación problemática en forma detallada para plantear las hipótesis y posibles
soluciones para verificarlas, en la ingeniería se
emplean herramientas de calidad para elaborar
un plan de diagnóstico. En ambos métodos existe
una etapa final llamada “generación de soluciones preliminares”.
Metodología
Éste se define como un proyecto de investigación cualitativa, cuyo objetivo científico principal es la
comprensión de los fenómenos mediante el análisis de las percepciones e interpretaciones de los sujetos.
1. Selección del problema
Se realizó a través de la percepción del mismo
2. Elección del diseño
Longitudinal y flexible
3. Acceso al campo
Se llevó a cabo en las instalaciones de la División de Estudios de Posgrado e
Investigación del Instituto Tecnológico de Orizaba.
4. Muestra
Cincuenta tesis de las maestrías en ciencias en ingeniería administrativa e
industrial desarrolladas entre los años 2000-2004 (aproximadamente el 90 %
de la población).
5. Selección de informantes
Cincuenta estudiantes de la maestría en ciencias en ingeniería
administrativa en el año 2004 (aproximadamente el 90 % de la población).
6. Procedimientos para la
recolección y el análisis de la
información
Observación directa, aplicación de encuestas y entrevistas.
Conteo.
MÉTODO CIENTÍFICO SEGÚN
EL ENFOQUE DE VAN DALEN Y MEYER
Percepción de una dificultad
MÉTODO PROPUESTO PARA
DIAGNÓSTICO EN INGENIERÍA
Reconocimiento e
identificación de una necesi dad
de cambio
Identificación detallada
del problema
Elaboración
Establecimiento de
de hipótesis
de un diagnóstico
empleando
Soluciones
propuestas y
verificación
Generación de soluciones
preliminares
herramientas
de TQM
Generación de soluciones
preliminares
Figura 1. Diagrama comparativo entre las etapas del método científico y el diagnóstico en ingeniería propuesto
Vol.VI No.2 -abril-junio- 2005
143
Del método científico al diagnóstico de problemas de ingeniería en México
Análisis de resultados
El método de diagnóstico aquí propuesto (Figura 2),
se recomienda para dar solución a aquellos entornos
empresariales que presentan áreas de oportunidad.
En primer lugar y como requisito esencial para la
aplicación asertiva del mismo, según experiencia de
los autores de este artículo, se deben conocer la
visión, misión, objetivos generales e individuales de
la organización y/o del área donde se localiza la
situación problemática. De no contar con ellos la
empresa u organización, se recomienda enfáticamente diseñar primero estos elementos.
A continuación se explica la figura 2:
1. El método de diagnóstico empieza
cuando se reconoce una necesidad de cambio, lo que equivale a percibir un problema.
2. Para que se analice correctamente el
asunto a mejorar, es conveniente conocer lo
mejor posible los entornos externo e interno
donde éste se encuentre, por tanto se sugiere trabajar con:
a) El análisis DAFO. Con ello se analizan
las potencialidades del medio en donde se
originó la identificación de la necesidad del
cambio, ya sea negativa o positivamente, de
dos maneras diferentes: amenazas y oportunidades.
Posteriormente, el analista debe ampliar su
conocimiento de todos y cada uno de los
aspectos del entorno interno de la situación
problemática. Esto se hará aplicando sistemáticamente las siguientes herramientas.
b) Diagrama de afinidad . Éste se usará
para generar ideas sobre todas las posibles
causas que originan la situación problemática y su organización lógica.
c) Diagrama causa-efecto . Será útil como
apoyo para comprender las ideas y su estructura, fruto del diagrama de afinidad que
refleja la relación entre el efecto (problema)
con las causas potenciales que se desprenden
de una problemática determinada.
1. Reconocimiento e identificación de la necesidad de
cambio
2. Realización de un
diagnóstico
a) Diagnóstico externo con un análisis DAFO
a) Diagnóstico interno aplicando herramientas
Diagrama de afinidad
Diagrama causa-efecto
Diagrama de relaciones
3. Definir objetivos de decisión
Figura 2. Proceso inte gral de diagnóstico para resolver una situación problemática (Elaboración pr opia, 2003)
144
INGENIERIA Investigación y Tecnología
FI-UNAM
O.E. Sotelo-Rosas y L.C. Ramírez-Carrera
d) Diagrama de relaciones. Es de suma utilidad cuando se presentan problemas poco
claros que cuentan con causas que se ligan
entre sí de forma complicada, y como conclusión ordenada para tener como resultado
un diagnóstico detallado.
El analizar las relaciones de causa-efecto por
los distintos métodos, revela la importancia y el
poder relativo de cada una de ellas, así como su
interrelación dinámica.
Al concluir con la aplicación de las herramientas, se deben haber obtenido la generación
de soluciones preliminares.
Conclusiones y recomendaciones
Mediante este método se ofrece una técnica a los
decisores potenciales de las empresas, la cual les
ayuda a capturar sus percepciones sobre necesidades de cambio y aprovechar éstas para promover el diagnóstico como parte fundamental de
la aplicación de la ingeniería.
La similitud entre los pasos del método científico y el diagnóstico en ingeniería, permite aprovechar los recursos de una manera más racional,
que va de acuerdo con el pensamiento científico.
Esto servirá como apoyo metodológico para hacer
más ágil el inicio del proceso de decisión. Esperamos que esta herramienta sea cada vez más
usada en la ingeniería administrativa, evitando
pérdidas de tiempo y soluciones equivocadas en el
ámbito empresarial.
Referencias
Aiteco (2003). “Diagrama causa-efecto”, obtenido
de la Red Mundial el 7 de Febrero,
http://www.aiteco.com/ishikawa.htm.
Bustamante A. y Prudente E. (2001). Las
nuevas siete herramientas del control de
calidad. Revista UPIICSA, mayo-agosto, pp.
31-35.
Cucei (2003). “Diagrama de ishikawa”, métodos
para su construcción, obtenido de la Red Mundial
el 8 de febrero,
http://www.cucei.udg.mx/~luisdegu/calida
d_total/Unidad_2/herbas/ishi1/ishi1.html .
Cruz-Moreno A.M. (2001). Modelo de control
interno para incrementar la eficiencia en
centros de computo de la iniciativa privada. Tesis de Maestría en Ciencias en
Ingeniería Administrativa, Instituto Tecnológico de Orizaba, México.
Easton A. (1978). Decisiones administrativas con
objetivos múltiples. Edito rial Limusa, México, DF.
Hicks P.E. (2000). Ingeniería Indus trial y Administración . Edito rial CECSA, México, DF.
Ishikawa K. (1993). ¿Qué es control total de
calidad? Edito rial Norma, Colombia.
(2003). “Las 7 herramientas de control de calidad”,
obtenido de la Red Mundial el 10 de febrero,
http://www.geocities.com/WallStreet/excha
nge/9158/7herra.htm.
(2003). “Las nuevas 7 herramientas de la calidad”,
obtenido de la Red Mundial el 10 de febrero
http://www.geocities.
com/CapeCanaveral/Hangar/4434/l7nh.html.
(2003). “Las nuevas 7 herramientas de la calidad”,
obtenido de la Red Mundial el 10 de febrero,
http://www.woerldclassconsultant.org/serv03.htm
.
Morales G., Quiroz F. y Ramírez-Carrera L.C.
(2001). Aplicación de un árbol de medios y
metas al proceso de validación de una
compañía farmacéutica. Revista UPIICSA,
mayo-agosto, pp. 19-25.
Solís-Coria M.L. (2002). Propuesta de un
modelo de investigación para el Colegio de
Bachilleres. Tesis de Maestría en Ciencias
en Ingeniería Administrativa, Instituto
Tecnológico de Orizaba, México.
Udaondo M. (1998). Gestión de la calidad. Edito rial Díaz de Santos, S.A., España.
Van-Dalen D. y Meyer W.J. (1979). Manual de
técnica de la investigación educacional . Edito rial
Limusa, México .
Vela-Cao-Romero L. (2002). Diseño y aplicación de una Jerarquía de objetivos para
la empresa Bombas Sumergibles de Córdoba S.A. de C. V. Tesis de Licenciatura en
Ingeniería Indus trial, Instituto Tecnológico
de Orizaba, México.
Vol.VI No.2 -abril-junio- 2005
145
Del método científico al diagnóstico de problemas de ingeniería en México
Semblanza de los autores
Oscar Ernesto Sotelo-Rosas. Es ingeniero indus trial por el Instituto Tecnológico de Orizaba, logró el título profesional por alto
promedio, obtuvo el grado de maestro en ciencias en ingeniería administrativa por el Instituto Tecnológico de Orizaba,
alcanzó este nivel por su trabajo de tesis llamado “Diseño, construcción y aplicación de un método que gestione la
solución de problemas de decisión”, del cual se desprende esencialmente este artículo. También es ilcenciado en
informática y técnico en construcción egresado del Centro de Bachillerato Tecnológico indus trial y de servicios 142.
Lilia C. Ramírez-Carrera. Es licenciada en ingeniería química por la Facultad de Ciencias Químicas de la Universidad Veracruzana,
obtuvo la maestría en ciencias en ingeniería indus trial por el Instituto Tecnológico de Orizaba. Asimismo, es especialista en
docencia por el Centro Interdisciplinario de Investigación y Docencia en Educación Técnica de Querétaro, Qro.
Actualmente se desempeña como profesora del posgrado en el Instituto Tecnológico de Orizaba.
146
INGENIERIA Investigación y Tecnología
FI-UNAM
Descargar