INGENIERÍA Investigación y Tecnología VI.2. 89-101, 2005 (artículo arbitrado) Comparación analítica de arreglos de antenas Yagi por los métodos de momentos y multiplicación de patrones R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís Departamento de Telecomunicaciones Facultad de Ingeniería, UNAM E-mails: [email protected], [email protected] y [email protected] (recibido: agosto de 2002; aceptado: marzo de 2003) Resumen Las propiedades de operación de arreglos horizontales y verticales formados con tres antenas Yagi son analizadas por el método de momentos, considerando la impedancia mutua entre ellas, para Yagis con número creciente de elementos ( 3, 6 y 9), optimizando la impedancia total de entrada de cada arreglo a una frecuencia central de 500 MHz. Adicionalmente, el patrón de radiación obtenido para cada caso es comparado con la aproximación dada por el método de multiplicación de patrones, variando la separación entre las Yagis para conocer hasta qué distancia influye significativamente la im pedancia mutua entre los elementos del arreglo. Además de ser útil comercialmente, esta información sirve como material didáctico para la asignatura de Antenas enlas c a r r e r a s de Ingeniería. Descriptores: Método de momentos, método de multiplicación de patrones, arreglo de antenas, antenas Yagi, Troica. Abstract T h e o p e r a t i o n a l properties of horizontal and vertical arrays formed by 3 Y a g i a n t e n n a s are analized by t h e M e t h o d o f M o m e n t s ( M o M ) , t a k i n g i n t o a c c o u n t t h e m u t u a l i m p e d a n c e s b e t w e e n t h e m . Y a g i s with a n i n c r e a s i n g n u m b e r o f e l e m e n t s ( 3 , 6 and 9) a r e u s e d , o p t i m i z i n g t h e i n p u t impedance of each arra y a t a fixed center frequency of 500 MHz. The radiation pattern obtained i n each case is compared to the a p p r o x i m a t i o n g i v e n b y t h e P a t t e r n M u l t i p l i c a t i o n M e t h o d for different s e p a r a t i o n s b e t w e e n t h e Y a g i a n t e n n a s of each arra y, to determine the influence of distante i n the calculation of the radiation c h a r a c teristics. Besides being commercially useful, this i n f o r m a t i o n is also of teaching value on the subject of a n t e n n a s i n t e l e c o m m u n i c a t i o n s engineering. Keywords: M e t h o d o f m o m e n t s , p a t t e r n m u l t i p l i c a t i o n m e t h o d , a n t e n n a a r r a y s , Y a g i a n t e n n a s . Introducción Las antenas Yagi, como la mostrada en la figura 1, pueden ser utilizadas de forma sencilla en aplicaciones tales como recepción de señales de TV en las bandas de VHF y UHF, repetidores en las bandas de telefonía celular y PCS, en 800 y 1900 MHz respectivamente, comunicaciones rurales, etc. La ganancia que proporcionan estas antenas depende del número de elementos parásitos que las componen y se encuentra típicamente entre 6 y 15 dBi, según los requerimientos de su aplicación; (Balanis, 1997; Decibel Products, 2000). Sin embargo, existen casos en la práctica donde es necesario incrementar la directividad de la antena, y para ello, se recurre a formar Comparación analítica de arreglos de antenas Yagi por los métodos de momentos… arreglos integrados con dos o más antenas elementales idénticas, que pueden ser del tipo Yagi, dipolos sencillos o doblados, platos parabólicos, etc. Si la separación entre dichas antenas elementales y las alimentaciones (magnitud y fase) de cada una de ellas son elegidas adecuadamente, entonces el arreglo resultante ofrece las ventajas buscadas de mayor directividad. En el caso de las antenas Yagi es muy común utilizar arreglos de dos, tres o cuatro antenas elementales para incrementar la directividad en comunicaciones de control o punto a punto (Decibel Products, 2000). Uno de estos arreglos, también conocido como troica (Rossier, 1986) consiste de tres antenas Yagi que pueden estar colocadas formando una cortina horizontal (Figura 2) o una cortina vertical (Figura 3). No obstante, la información relativa a sus características de operación es escasa en los folletos de fabricantes y prácticamente nula en los libros de texto. Es evidente que si sus separaciones y alimentaciones son seleccionadas correctamente, la ganancia de cada arreglo debe ser mayor que la de una sola antena elemental; pero para realizar una alimentación correcta, es necesario conocer la impedancia de entrada de cada una, y ésta de pende del acoplamiento mutuo de impedancias entre todos los conductores del arreglo. Es de esperarse que esta impedancia mutua se reduzca de antena a antena conforme aumente la separación D mos- trada en las figuras 2 y 3. La única forma de saber el efecto de dicha separación sobre el acoplamiento entre las Yagis y, por ende, sobre las impedancias de entrada y los patrones de intensidad de radiación relativa de cada antena elemental es usando el método de momentos (Harrington, 1968; Neri, 1999) o realizando exhaustivas mediciones. Estas últimas no son fáciles de llevar a cabo, pues aún si se contase con una cámara anecoica, se requeriría de una estructura de montaje a la vez rígida y con la flexibilidad suficiente para incrementar progresivamente la separación D entre las antenas. Por lo anterior, en el presente trabajo se han analizado varias cortinas horizontales y verticales por el método de momentos, variando progresivamente la separación D y usando como antenas elementales para cada arreglo Yagis con 3, 6 y 9 elementos (1 reflector, 1 dipolo doblado y 1, 4 y 7 directores, respectivamente). La separación D influye en el patrón de radiación resultante; no puede ser demasiado grande (del orden de varias longitudes de onda) y también hay que evitar que las antenas hagan contacto entre sí, de tal manera que un valor típico recomendado con base en mediciones prácticas es de aproximadamente 0.75λ, (Rossier, 1986), por lo cual, se modelaron arreglos con valores de D entre 0.5λ, y 1.0λ,. INGENIERÍA Investigación y Tecnología FI-UNAM R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís Vol VI No.2 – abril-junio -2005 Comparación analítica de arreglos de antenas Yagi por los métodos de momentos… Los arreglos de antenas Yagi, además de brindar mayor ganancia que una antena sola, ya que el ancho de su haz principal es más angosto, tienen además aplicaciones muy importantes en comunicaciones ionosféricas y en la recepción de TV en áreas con alta interferencia electromagnética. Esto se debe a que, al montar las Yagis sobre un pedestal muy alto, el efecto del plano de tierra sobre el patrón final del arreglo es reducir el ángulo de inclinación del lóbulo principal, con respecto al plano del terreno, varios grados menos que el ángulo de inclinación que tendría el lóbulo principal de una Yagi sola, cuando también se toma en cuenta el efecto del plano de tierra. Por lo anterior, muchos radioaficionados en todo el mundo utilizan arreglos de Yagis con el fin de comunicarse a miles de kilómetros de distancia, usando como puntos de reflexión las capas ionosféricas (http://www.uksmg.org/stack.htm). Mientras menor sea el ángulo de ataque del lóbulo principal del arreglo sobre dichas capas, se obtiene mayor alcance. En cuanto a su aplicación en la recepción de TV, los arreglos de Yagis, además de mejorar la ganancia, reducen el ancho del haz principal, y con ello, se reduce la probabilidad de recibir interferencias (con la consiguiente aparición de "fantasmas"). Estas interferencias pueden provenir de reflexiones con vehículos terrestres, aviones, edificios y otros obstáculos (http://pages.cthome,net/fmdx/stackant.html). Como se mencionó anteriormente, en el presente trabajo se estudian las propiedades de varias cortinas o arreglos de antenas Yagis. Es importante aclarar que en este estudio se consideró que los arreglos están en el espacio libre y, por lo tanto, no se tomó en cuenta el efecto del plano de tierra. Sin embargo, con los resultados y la metodología que se aportan, dicho efecto puede calcularse con el método de imágenes. No se incluye en este trabajo porque la extensión del artículo sería excesiva, dado que habría que usar otros parámetros como tipo del terreno, altura del arreglo sobre el piso, tipo de polarización, etc., y puede ser objeto de otro estudio posterior. Los patrones de radiación obtenid os por el método de momentos serán comparados con los patrones que serían predichos por el método gráfico de multiplicación de patrones. Este último método no toma en cuenta los acoplamientos de impedancia entre los conductores de las Yagis de cada arreglo y, por tanto, sólo da una visión aproximada del patrón de radiación. Sin embargo, como se demostrará en este trabajo, dicha aproximación tiende a empeorar cuando las antenas del arreglo están muy próximas entre ellas. De ahí que en este artículo se aporta información nueva en lo que se refiere a la precisión del método de multiplicación de patrones en comparación con el método de momentos, en función de la separación eléctrica entre las antenas elementales. Desarrollo por el método de momentos No existe una regla única ni un desarrollo matemático que permita encontrar directamente las características de radiación de una antena Yagi, y menos de un arreglo, ya que se pueden obtener buenos resultados de operación con una gama de diferentes longitudes y separaciones entre los elementos parásitos (Balanis, 1997). Sin embargo, existen referencias experimentales de parámetros típicos sobre la longitud de dichos parásitos y la separación entre ellos (Balanis, 1997); (Kraus et al., 2002), que dan resultados óptimos cuando dichas antenas trabajan en forma aislada o individual. Si se toman en cuenta estos parámetros típicos como punto de partida, es posible ajustarlos mediante un programa de computadora (Hernández et al.. 2002) diseñado especialmente para tal propósito, con el fin de optimizar la impedancia de entrada. Dicha impedancia se considera óptima cuando su parte real es cercana a 75Ω y su parte imaginaria despreciable, lo cual garantiza un acoplamiento ideal entre la antena aislada y un cable de alimentación con impedancia característica comercial de 75Ω . Este programa de computadora fue elaborado por los mismos autores de este artículo para el análisis de antenas Yagi que trabajan de forma individual y se utilizó para calcular las longitudes óptimas l1 y 12 que se muestran en las tablas 1 y 2 para cada antena de cada arreglo. Como facilidad para el lector interesado, el sitio (Hernández et al., 2002) donde dicho programa puede ser descargado, también contiene todas las fórmulas y el procedimiento matemático del método de momentos aplicado a antenas Yagi. Además de los parámetros de las antenas analizadas, en las tablas 1 y 2 también se muestra la impedancia de entrada (R+ jX) calculada para cada Yagi, así como la impedancia de entrada total INGENIERÍA Investigación y Tecnología FI-UNAM R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís (Ri+ j Xi ) del circuito de alimentación de cada troica y la ganancia y FBR de cada arreglo. Por lo que se refiere al circuito de alimentación, se ha demostrado experimentalmente que la forma más efectiva de conectar las tres antenas elementales con el cable de alimentación es como se muestra en la figura 4 (Rossier, 1986). En ella se observa que la impedancia de entrada de las Yagis en los extremos (A y C) de las figuras 2 y 3 quedan en serie y su resultante, a la vez, queda en paralelo con la impedancia de entrada de la antena elemental central_ (B). De ahí que los voltajes de alimentación utilizados en el método de momentos (Neri, 1999) se eligieron como VB= 1<0° y VA = VC = VB/2=0.5<0° De acuerdo con la simetría con respecto al plano xz (Figura 2), las impedancias de entrada de las antenas Yagi en los extremos de una cortina horizontal son iguales y sólo es necesario reportar una de ellas en la tabla 1; en cambio, en la tabla 2, sí se muestran los valores de impedancia de entrada de las tres antenas del arreglo, puesto que no existe la condición de simetría con respecto al plano xy (Figura 3). Tabla 1 . C o r t i n a h o r i z o n t a l . L o s v a l o r e s p r e s e n t a d o s f u e r o n o b t e n i d o s a u n a f r e c u e n c i a d e t r a b a j o d e 500 M h z c o n 1 = 0 . 4 2 . , s l= 0 . 2 2 , y s = 0 . 3 2 , para todos los casos. Por la simetría del arreglo, ZC=ZA ( F i g u r a 4 ) Número elementos en cada Ya gi l1 [λ] l 2 [λ] D[λ] G[dBi] RA [ Ω ] RB[Ω] XA [Ω] XB [Ω] R.i [Ω] Xi [Ω] 0.439 0.447 0.50 0.50 14.0 18.8 150.7 121.8 24.5 120.0 -9.3 86.8 6 0.49 0.47 16.7 89.5 -6.7 66.0 -1.2 11.0 9 0.49 0.439 0.50 17.5 128.5 15.0 105.1 -5.3 75.0 -0.2 11.8 3 0.49 12.4 15.0 119.7 107.6 8.7 1.8 -3.2 80.1 0.5 8.6 0.47 0.60 0.60 119.9 6 0.415 0.417 121.3 -1.1 77.6 0.0 7.9 9 0.49 0.415 0.60 16.5 118.6 -2.3 131.9 2.5 84.8 3 -0.9 FBR[B] 0.4 8.6 10.5 (continúa...) Vol VI No.2 – abril-junio -2005 INGENIERÍA Investigación y Tecnología VI.2. 89-101, 2005 (artículo arbitrado) Tabla 1 . C o r t i n a h o r i z o n t a l . L o s v a l o r e s p r e s e n t a d o s f u e r o n o b t e n i d o s a u n a f r e c u e n c i a d e t r a b a j o d e 500 M h z c o n 1 = 0 . 4 λ, Número de elementos en cada Yagi s 1 =0.2λ, y s=0.3λ p a r a t o d o s l o s c a s o s . P o r l a s i m e t r í a d e l a r r e g l o , Z C =Z A ( F i g u r a 4) (...continuación) l1 [λ] D[λ] l2 [λ] G[dBi] RA [Ω ] X A [Ω] RB [Ω] Ri [Ω] X B [Ω] Xi [Ω] FBR[dB] 3 0.49 0.410 0.75 12.7 111.1 1.0 110.0 1.0 73.6 1.0 10.0 6 0.47 0.417 0.75 14.5 104.4 2.5 110.8 -1.6 72.4 -0.1 8.5 9 0.49 0.414 0.75 15.4 120.1 - 1.3 138.3 1.1 87.8 0.1 11.6 3 0.49 0.409 0.90 12.8 110.9 110.6 0.415 0.90 13.8 94.2 91.6 0.5 0.7 10.4 0.47 0.7 2.0 73.8 6 0.7 - 0.3 9 0.49 0.416 0.90 15.6 115.0 16.5 120.8 -2.8 79.2 -0.8 12.8 3 0.49 0.409 1.00 12.8 111.1 0.7 111.0 0.8 74.0 0.5 10.1 6 0.47 0.416 1.00 14.9 98.0 0.8 97.9 -0.1 65.3 0.2 9.9 9 0.49 0.416 1.00 15.6 111.8 2.1 113.2 - 1.1 75.2 1.7 13.3 61.7 8.2 T a b l a 2. C o r t i n a v e r t i c a l . L o s v a l o r e s p r e s e n t a d o s f u e r o n o b t e n i d o s a u n a f r e c u e n c i a d e t r a b a j o d e 500 M h z c o n 1=0.4X, s 1 =0.2X y s=0.3?, para todos los casos. Aquí Zc '# Z A ( F i g u r a 4) Número de elementos en cada Yagi D [ λ] 1 1 [ λ] 1 2 [ λ] RC [Ω ] X C [Ω ] R i[Ω] X i [ Ω ] FBR[dB] 3 0.49 0.410 0.50 13.0 113.5 24.2 110.0 -2.8 110.9 1.1 73.9 - 0.9 12.5 6 0.47 0.414 0.50 14.1 112.5 -1.6 135.0 4.0 109.0 -3.0 83.9 0.9 8.1 9 0.49 0.404 0.50 16.4 128.7 - 18.7 140.1 13.3 123.7 - 20.5 91.4 0.6 15.2 3 0.49 0.409 0.60 13.6 6 0.47 0.419 0.60 14.6 112.2 - 0.5 110.2 3.6 119.6 1.8 - 4.3 110.7 110.0 108.2 1.0 5.3 73.7 77.4 0.8 - 0.7 16.4 9.7 9 0.49 0.415 0.60 15.9 139.8 -2.4 179.0 0.1 137.2 1.0 108.7 - 0.2 15.3 3 0.49 0.410 0.75 12.7 112.2 1.5 113.4 - 1.3 113.0 2.8 75.4 - 0.1 6 0.47 0.418 0.75 14.8 98.6 3.3 96.9 - 3.3 99.3 4.6 65.1 -0.6 10.5 9 0.49 0.421 0.75 15.1 128.3 10.5 128.3 -4.0 129.4 12.7 85.9 0.8 10.1 3 0.49 0.408 0.90 12.4 107.7 - 1.2 106.2 - - 0.4 108.5 - 2.5 71.2 -0.6 8.2 6 0.47 0.415 0.90 13.8 94.2 - 0.3 91.6 2.0 94.8 - 1.2 61.7 0.7 8.2 9 0.49 0.414 0.90 14.6 112.9 1.6 112.0 -0.9 113.5 -0.1 74.9 - 0.2 10.6 3 0.49 0.408 1.00 12.8 110.7 - 0.4 110.5 0.4 109.9 - 1.2 73.6 0.0 9.8 6 0.47 0.414 1.00 14.2 96.9 - 1.3 98.1 0.1 96.3 -2.0 65.1 - 0.3 9.3 9 0.49 0.413 1.00 14.9 116.3 - 0.5 113.4 - 0.8 115.2 - 1.1 76.1 - 0.5 12.8 G[dBi] RA [Ω] XA [Ω] RB [Ω] XB [Ω] 8.78 R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís Sin embargo, la diferencia entre estas impedancias de las antenas Yagi en los extremos de la cortina vertical son muy pequeñas (del orden de algunos Ohms), de modo que, como se ve más adelante en la sección del método de multiplicación de patrones, es posible considerar que la magnitud de radiación es la misma en las antenas Yagi que se encuentran en los extremos de una troica. Aun cuando la ganancia obtenida para una separación D= 0.75λ no es siempre la mejor, es menor a la de otras separaciones solamente por algunas décimas de decibel, y de las figuras 7 y 8 se observa que para distancias menores se tiene un ancho de haz principal mayor, por lo tanto, una menor directividad; en cambio, para separaciones mayores, se incrementa el número de lóbulos laterales, lo cual generalmente no es deseable. Por estas razones, y por cuestiones de espacio, en la figura 5 se muestra la distribución de ganancia en función de la frecuencia para cada uno de los arreglos modelados, pero solamente para una separación D= 0.75λ. Se demuestra que la ganancia de una troica, ya sea horizontal o vertical, es siempre mayor a la de una antena Yagi elemental con el mismo número de directores, independientemente de la frecuencia a la que se trabaje dentro del intervalo estudiado (480 MHz a 520 MHz). En cuanto a su ganancia, no es fácil decidir si una troica se comporta mejor con una cortina horizontal que una vertical, puesto que ambas tienen ganancias similares y los pares de curvas son distintos según el número de directores que tenga cada Yagi, aunque la cortina horizontal tiene una ganancia mayor en las frecuencias superiores a la frecuencia central. Todos los arreglos aquí mostrados tienen una ganancia relativamente estable con respecto a la frecuencia, puesto que la máxima diferencia entre sus valores máximo y mínimo es de 2 dB, por lo que se puede afirmar que el ancho de banda de 3 dB con respecto a la ganancia máxima es mayor que la banda mostrada en la figura 5. Sin embargo, también se puede definir el ancho de banda como una función del VSWR (Voltage Standing Wave Ratio) o Relación de Onda Estacionaria, el cual está dado por: donde el coeficiente de reflexión p se define como: considerando una impedancia característica de 75Ω para el cable de alimentación. Un acopla miento de impedancias se considera aceptable para valores de VSWR menores que 1.5 (Collin, 1985). En la figura 6 se muestra el VSWR de los arreglos con respecto a la frecuencia; se observa que el VSWR más alto se obtiene para las antenas Yagi. Esto sucede porque no fueron optimizadas para igualar su impedancia de entrada a 75Ω, sino que simplemente se utilizaron las dimensiones de las troicas pero en antenas aisladas. En lo que respecta a las troicas, una cortina horizontal de 3 elementos tiene aproximadamente el mismo ancho de banda que su análogo vertical; mientras que para un número mayor de elementos (6 o 9) el ancho de banda del arreglo horizontal es mayor que el del vertical por 6-7 MHz. Regresando a las figuras 7 y 8, en ellas también se muestra el patrón de radiación obtenido por el método de multiplicación de patrones, superpuesto al patrón predicho por el método de momentos. Vol VI No.2 – abril-junio -2005 Comparación analítica de arreglos de antenas Yagi por los métodos de momentos… INGENIERÍA Investigación y Tecnología FI-UNAM R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís Vol VI No.2 – abril-junio -2005 Comparación analítica de arreglos de antenas Yagi por los métodos de momentos… INGENIERÍA Investigación y Tecnología FI-UNAM R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís Método de multiplicación de patrones El método de multiplicación de patrones permite encontrar el patrón de radiación aproximado de un arreglo, pero su utilidad se reduce solamente a eso y no es posible obtener mediante él las demás características operativas de la antena, tales como su ganancia e impedancia de entrada. A continuación se describe brevemente cómo calcular dicho patrón aproximado por el método de multiplicación de patrones. El campo lejano de radiación de un arreglo de elementos idénticos (antenas elementales) es igual al producto del campo producido por uno solo de estos elementos, localizado en un punto de referencia determinado (usualmente el origen del sistema de referencia), y el factor del arreglo. Es decir: E(total) = [E(elemento único en el punto de referencia)]x [factor del arreglo] (3) A esta relación se le conoce como. multiplicación de patrones para arreglos de elementos idénticos (Balanis, 1997), ya que al evaluar la ecuación (3) en muchos puntos alrededor del arreglo, es posible obtener su patrón de radiación. En la figura 9 se muestran arreglos de tres elementos isotrópicos separados una distancia D y con magnitudes de alimentación an no uniformes. A partir de dichas geometrías se puede obtener el factor del arreglo (FA) tanto para la cortina horizontal (Figura 9a) como para la vertical (Figura 9b). En ambos casos se utilizaron las magnitudes normalizadas a B= 1 y aA = ac= aB/2= 0.5, de acuerdo con el circuito de alimentación de la figura 4 y suponiendo un mismo voltaje de excitación en las antenas A y C, aun cuando en la cortina vertical, su impedancia de entrada varía en algunos Ohms por la asimetría de la alimentación en el arreglo (Figura 3), tal como se comentó anteriormente. Para un punto en el campo lejano en una dirección Φ , el factor del arreglo en el plano xy de la figura 9a (cortina horizontal) está dado por: y para encontrar el factor del arreglo en el plano xz de la figura 9b (cortina vertical) es suficiente intercambiar el ángulo Φ en la ecuación 4 por el ángulo Θ, como se muestra en la siguiente ecuación: En las figuras 7 y 8 se muestran los patrones de radiación normalizados para cortinas horizontales y verticales respectivamente, con 3, 6 y 9 elementos y con separaciones D entre antenas Yagi de 0.5λ, 0.7λ, y 1.0λ obtenidos mediante el método de momentos (-) y también por el método de multiplicación de patrones ( - - - ) . Se nota que, en todos los casos, la diferencia entre los patrones predichos por cada método es mayor conforme D es más pequeña; esto se debe a que el efecto de las impedancias mutuas es mayor para estas separaciones pequeñas, por la cercanía de los conductores vecinos, y esto no lo toma en cuenta el método de multiplicación de patrones, mientras que el método de momentos sí incluye estas impedancias mutuas. Sin embargo, hay que resaltar que el método de multiplicación de patrones predice, en todos los casos, el mismo número de lóbulos laterales y en las mismas direcciones que el método de momentos, pero con algunas diferencias importantes de magnitud, tanto en estos lóbulos como en el posterior. De allí que, al efectuar dicha comparación, es posible determinar un límite para la separación D donde sea permisible usar el método de multiplicación de patrones, el cual aporta resultados muy rápidos mediante cálculos muy sencillos. Vol VI No.2 – abril-junio -2005 Comparación analítica de arreglos de antenas Yagi por los métodos de momentos… Conclusiones El método aproximado de multiplicación de patrones permite obtener el patrón de radiación de arreglos de tres antenas Yagi (troicas) con cierta precisión, siempre y cuando la distancia entre ellas no sea muy pequeña. Para usar este método se recomienda que la separación D sea igual o mayor que 0.75λ. Sin embargo, resulta impráctico desde el punto de vista de montaje, altura de mástiles o extensión de terreno, construir arreglos con separaciones mayores, y por ello, es necesario usar un método más preciso para conocer las características de operación de arreglos prácticos que usan separaciones menores. Esto se logra usando el método de momentos, mismo que al tomar en cuenta todos los acoplamientos mutuos de impedancia entre los conductores de las Yagis del arreglo, da resultados mucho más aproximados a la realidad. Este método tiene, además, la virtud de que no sólo permite calcular el patrón de radiación sino también la impedancia de entrada, que es información necesaria para alimentar la antena con óptimos resultados. En este trabajo se ha demostrado que la ganancia de los arreglos estudiados es mayor que la de una antena Yagi aislada, entre 2 y 4 dBs más, según el número de conductores que tenga cada Yagi. Por ejemplo, la ganancia de una troica con Yagis de un solo director es equivalente a la ganancia de una sola antena Yagi con siete directores. Sin embargo, el montaje de esta última es más complicado y puede ser un factor en contra de su uso. También se ha encontrado que las curvas de ganancia de las troicas horizontales y verticales son muy parecidas, pero que existe una diferencia importante en el funcionamiento de dichos tipos de troica en lo que se refiere al comportamiento de su VSWR, en función de la frecuencia. Esto es importante para determinar la alimentación óptima del arreglo porque el VSWR está directamente asociado con su impedancia de entrada, ya que al depender de la frecuencia influye sobre el ancho de banda de operación. En este sentido, el ancho de banda de una cortina horizontal es mayor que el de una vertical, aproximadamente un 40%. El elegir un tipo de troica sobre otro, depende del patrón de radiación con el que se desee trabajar, ya que una cortina horizontal tiene un ancho de haz en su lóbulo principal que es menor en el plano horizontal que el de una Yagi sola, mientras que una cortina vertical tiene un ancho de haz de su lóbulo principal que es menor en el plano vertical que el de una antena Yagi sola. INGENIERÍA Investigación y Tecnología FI-UNAM R. Neri-Vela, L.A. Valiente-Montaño y V. Hernández-Solís Referencias Balanis C.A. (1997). Antenna Theory, Analysis and Design. Second Edition, John Wiley & Sons, Inc., EUA. Collin R.E. (1985). Antennas and Radiowave Propagation. McGraw Hill International Editions. EUA. Decibel Products (2000). Base Station Antennas and RF Components. Product Catalog. Decibel Products, Dallas, Texas, EUA. Harrington R.F. (1968). Field Computation by Moment Methods. Macmillan, Nueva York. Hernández V., Valiente L.A. Y Neri R. (2002). The Method of Moments. Http://telecom.fib.unam.mx/weblink /TheMethod of Moments.htm Kraus J.D. y Marhefka R.J. (2002). Antennas for all Applications. Third Edition. McGraw Hill, EUA. Neri R. (1999). Análisis de Antenas Lineales por el Método de Momentos. Ingeniería Investigación y Tecnología, UNAM. Vol. 1, No. 2, pp.73-83. Rossier H. (1986). Antenas Colectivas. Boixareu Editores, Barcelona, México. Semblanza de los autores Rodolfo Neri-Vela. En 1975, obtuvo su título de ingeniero mecánico-electricista en el área de comunicaciones y electrónica por la Facultad de Ingeniería de la UNAM. En 1976, recibió el grado de maestría en sistemas de telecomunicaciones otorgado por la Universidad de Essex, Reino Unido. En 1979, alcanzó el grado de doctorado en electromagnetismo aplicado por parte de la Universidad de Birmingham, también en el Reino Unido. En 1985, se convirtió en el primer astronauta de México, al participar en la misión 61- B de la NASA de los EU y orbitar la Tierra 109 veces. Es profesor e investigador del Departamento de Telecomunicaciones de la Facultad de Ingeniería de la UNAM desde hace 23 años y pertenece al Sistema Nacional de Investigadores del CONACYT. Luis Alán Valiente-Montaño. Obtuvo su título en el año 2000 como ingeniero en telecomunicaciones por la Facultad de Ingeniería de la UNAM . En el 2003, recibió el grado de maestría en ingeniería de comunicaciones otorgado por el Instituto de Ciencia y Tecnología de la Universidad de Manchester (UMIST), Reino Unido. Actualmente está becado por el CONACYT y realiza sus estudios de doctorado en la misma Universidad de Manchester, en el área de microscopía por microondas en el campo cercano. Vladimir Hernández-Solís. Se tituló como ingeniero en telecomunicaciones en el 2000, en la Facultad de Ingeniería de la UNAM. En el año 2003 recibió el grado de maestría en ingeniería de comunicaciones, otorgado por el Instituto de Ciencia y Tecnología de la Universidad de Manchester (UMIST), Reino Unido. Tiene experiencia en arreglos adaptivos para redes celulares CDMA, antenas y óptica no lineal. Actualmente realiza sus estudios de doctorado en el Centro de Investigaciones en Optoelectrónica de la Universidad de Southampton, Reino Unido, en el área de amplificadores de fibra de alta potencia. Vol VI No.2 – abril-junio -2005 INGENIERÍA Investigación y Tecnología VI. 2. 103-118, 2005 (artículo arbitrado) Hacia la convergencia total de las tecnologías de la información L.R. Vega-González Centro de Ciencias Aplicadas y Desarrollo Tecnológico, CCADET Coordinación de Vinculación, Laboratorio de Cibernética y Sistemas E-mail: [email protected] (recibido: octubre de 2003; aceptado: abril de 2004) Resumen Diversos estudios indican que la dinámica de la innovación tecnológica ha crecido en forma exponencial durante los últimos cincuenta años, impulsada aparentemente por los avances sustanciales y continuos de las tecnologías de la información (TI’s). La disponibilidad de información con bajo costo relativo, en cualquier momento y en cualquier lugar, ha propiciado que se identifique a la actual sociedad como “sociedad de la información”, la cual está evolucionando hacia la “sociedad del conocimiento”. Este es y será, tal vez uno de los fenómenos más importantes y de mayor impacto en las décadas por venir. En este trabajo se presentan los primeros resultados de un estudio sobre la evolución de las tecnologías de la información que dieron origen y propiciaron el fenómeno de la globalización económica. La prospectiva indica que en algunas décadas se dará la convergencia absoluta de las TI’s. De esta manera, parece muy probable que el continuo avance de tres tecnologías fundamentales, los dispositivos semiconductores (S), los sistemas de cómputo (C) y de los protocolos de comunicaciones (P), con sus diferentes impactos, transformará definitivamente la vida del ser humano, sus organizaciones y sus sociedades. El fenómeno plantea la problemática y la necesidad de generar un sistema de adaptación individual y colectiva que sea capaz de responder adecuadamente ante la dinámica de los cambios. Descriptores: Tecnologías de la información, convergencia, globalización, impactos. Abstract Sev eral works in di cate that the tech no log i cal in no va tion dy nam ics has grown ex po nen t ially during the last fifty years, ap par ently driven by the sub stan tially con tin u ous ad vances in t he in for ma tion tech nol ogy (IT). The low cost in for ma tion avail abil ity in any place, and in any mo ment, has pro pi ti ated the iden ti fi ca tion of the ac tual so ci ety as the “in for ma tion soci ety”, which in turn has been trans formed to the “knowl edge so ci ety”. This will may be the most im por tant and ma jor im pact ing phe nom e non in the fol low ing de cades. In this work, we pres ent pre lim i nary re sults of an IT evo lu tion ary study, sup port ing the fact that they gave or i gin and ac tu ally support the eco nomic globalisation pro cess. In such a way, it seems very prob a bly that the con tin uous ad vance ment of three fun da men tal in for ma tion tech nol ogy types, semi con duc tor de vi ces (S), Com puter Sys tems (C), and Com mu ni ca tion pro to cols (P), with their dif fer ent im pacts will defin i tively trans form hu man be ing life, its or ga ni za tions and so ci et ies. Finally, the prob lem of the need of an ad ap ta tion sys tem for ad e quate in di vid ual and col lec tive re sponse in front of the dynamic changes is ad dressed. Keywords: In for ma tion tech nol ogy con ver gence, globalisation, im pacts. Hacia la convergencia total de las tecnologías de la información El entorno tecnológico en la primera década del Siglo XXI El cambio tecnológico ha sido el propulsor de la situación que hoy en día guarda el sistema socioeconómico y político mundial, así como de los diversos impactos que se perciben en las organizaciones y en los individuos. En sus trabajos sobre los ciclos económicos, Modelski (2001), señala que la onda No. 19 de Kondratieff, dio inicio con la aparición de Internet a finales de los setentas y que llegará hasta el año 2020 cubriendo el promedio de cincuenta años que toman los ciclos de innovación. A todas luces parece, que du rante los años que perdure este ciclo económico, el desarrollo tecnológico de las comunicaciones será impresionante, dando lugar a sistemas muy sofisticados que serán desarrollados con la aparente intención de mejorar el nivel de vida de los individuos, pero dando lugar también, a una gran acumulación de cap i tal que va a generar un mayor aumento en los niveles de pobreza. Esta contradicción es muy clara para Dubois, quien citado en la revista Fiap (1998), considera que en el desarrollo de la economía global intervienen tanto las tecnologías como las ideologías, por lo que en un nuevo mundo global será necesario eliminar la marginación del hombre y respetar la naturaleza. El problema es, que las innovaciones que no respeten estos principios no darán paso a una revolución, sino a una involución. La era de la información se reconoce como tal a partir del descubrimiento del transistor por los Laboratorios Bell en 1951, ya que du rante las décadas siguientes, las diversas tecnologías relacionadas con el uso de los dispositivos semiconductores para el manejo de las comunicaciones sufrieron una evolución extraordinaria y constante. En un principio, la ola de innovación se dio en el hardware de los sistemas, lográndose sistemas muy poderosos y eficientes a partir de la integración de los procesadores, las memorias y los periféricos. Aunado a esto, se desarrolló soft ware operativo de alta eficiencia y confiabilidad, el cual estuvo disponible en diversas versiones a fi na les del siglo XX. Por otra parte, el incremento en el negocio de las empresas que ofrecían el servicio de transporte de señales telefónicas, “carriers”, propició el desarrollo del software especializado en comunica- 104 INGENIERIA Investigación y Tecnología ciones. Las diferentes versiones de este software son conocidas como protocolos de comunicación. Los protocolos permitieron el establecimiento de redes de computadoras usadas inicialmente con fines bélicos y posteriormente para facilitar y mejorar el manejo de datos, imágenes y audio a través de los multimedios, haciendo uso de redes de comunicación satelital con medios de transmisión de fibra óptica de banda ancha. Este nuevo esquema disminuyó los costos de las comunicaciones y mejoró la calidad del servicio. De tal manera que podemos afirmar, que el desarrollo de distintas tecnologías dirigido hacia la mejora de las comunicaciones, generó el fenómeno conocido como convergencia de las tecnologías de la información. Como explicaremos más adelante, es la razón de que hoy en día sea posible establecer comunicaciones prácticamente instantáneas entre dos sitios opuestos en el mundo. Este alarde tecnológico dio sustento y factibilidad a las transacciones comerciales y financieras múltiples, derrumbando las barreras comerciales. La situación fue aprovechada, y tal vez provocada, por los impulsores de las corrientes económicas neoliberales para dar forma a un nuevo esquema geopolítico global sin fronteras físicas. En los siguientes apartados haremos una breve reseña de la forma en que han evolucionado du rante las últimas décadas las tecnologías de la información que mayormente han contribuido para formar al entorno tecnológico global que existe en la actualidad. También se presentarán las tecnologías que se espera cobrarán una importancia es pe cial en el fu turo próximo. Todo parece indicar que la conformación de la situación futura del sistema mundial estará definida por el desarrollo que sufran los sistemas de comunicación, los cuales serán cada vez más abiertos y envolventes. La evolución de los dispositivos electrónicos El tran sistor y los circuitos de alta escala de integración La primera versión del bulbo o válvula electrónica de vacío, fue patentada en 1904 por Flemming. Dos años más tarde, fue mejorado y patentado por Lee de For rest, en su versión de tríodo. Este FI-UNAM L.R. Vega-González dispositivo fue aplicado en una gran diversidad de aparatos, destacando los grandes sistemas de conmutación telefónica y los sistemas de radar tan exitosos en la segunda guerra mundial. El tran sistor a su vez, fue el resultado de un proyecto de investigación y desarrollo que buscaba un sustituto para las distintas versiones de bulbos. La motivación de la investigación fue la de obtener dispositivos que requirieran menor consumo de potencia en su operación, ya que los sistemas de conmutación telefónica de la época consumían grandes cantidades de kilowatts, lo que hacia muy costosa su operación. En menos de diez años, los transistores de silicio y de germanio habían reemplazado los bulbos en casi todas sus aplicaciones. En la década de los cincuenta, se presentó un problema muy serio en la manufactura de circuitos electrónicos que usaban transistores para diversas aplicaciones: su alambrado e interconexión. Este problema se convirtió en un factor básico que afectaba el costo y la confiabilidad de los equipos. Así fue como se motivó el desarrollo del circuito integrado monolítico. Sorprendentemente, llevar a la práctica la idea de integrar varios transistores en un solo semi conductor tomó trece años. El circuito integrado fue inventado independientemente y en paralelo por Jack Kilby de Texas In stru ments y por Rob ert Noyce de Fairchild en 1958 (Smith y Antoniadis, 1990). Los fabricantes de semiconductores evaluaron rápidamente la potencialidad de la invención, por lo que en 1964, Gordon Moore, quien fue uno de los fundadores de Intel en 1968, predijo que la densidad de integración de circuitos se duplicaría cada año. Esta predicción resultó ser muy exacta, por lo que después sería considerada como la “ley de Moore”. A partir de entonces se desarrollaron fábricas de semiconductores basados en silicio. Para fi nales de los años sesenta, los circuitos de “gran escala de integración” (Large Scale Integration, LSI), estaban listos. A finales de los setenta los fabricantes ya contaban con circuitos de “escala de integración muy grande”, (Very Large Scale In te gra tion, VLSI) y a finales de los ochenta con dispositivos de la llamada ultra alta escala de integración (Ultra-Large Scale In te gra tion, ULSI). Los chips ULSI son hoy en día los módulos de construcción básica de todos los dispositivos electrónicos modernos, tales como radios, TV, sistemas de telefonía, radar, computadoras, y en general, productos electrónicos caseros e industriales. El objetivo cen tral del desarrollo tecnológico en semiconductores, era el disminuir los requerimientos de potencia en las nuevas aplicaciones. Esto se cumplió a plenitud, además se ahorró espacio y disminuyeron los costos de fabricación. En la figura 1 se muestra la evolución de los procesadores en términos de la capacidad de transistores que tiene cada oblea semiconductora o chip. Durante finales de los años ochenta y los noventa, el problema de espacio y consumo ya estaba resuelto, pero las empresas buscaron nuevas formas de optimización de los dispositivos electrónicos. La naturaleza del proceso del desarrollo de semiconductores cambió sustancialmente. Recientemente se han elaborado dispositivos que aprovechan el “efecto cuántico” basados en nuevas aleaciones de Arseniuro de Galio (AsGa), tales como el MODFET y el PRESTFET (Smith & Antoniadis, OP Cit). Evolución de la memoria de acceso aleatorio (RAM) Los computadores no hubieran podido evolucionar contando sólo con la tecnología de los nuevos procesadores, también fue necesaria la evolución de los chips de memoria, por lo que los fabricantes de semiconductores participaron activamente en este desarrollo. El mercado de semiconductores fue dominado desde un principio por los fabricantes de los Estados Unidos de Norteamérica, y continuó así du rante las dos primeras décadas; sin em bargo, en los años ochenta se manifestó la presencia de nuevos fabricantes de semiconductores en Asia. Un grupo de compañías japonesas encabezadas por Hitachi, NEC y Toshiba obtuvieron gran ventaja en el desarrollo de nuevas tecnologías de producción e invirtieron en tecnologías de integración y nuevas capacidades de manufactura. Según Iansati (1997), un grupo de científicos e ingenieros Koreanos educados en los Estados Unidos de Norteamérica, regresaron a sus paises con el último conocimiento en litografía y diseño de transistores, por lo que construyeron la base tecnológica y científica que ayudó a compañías como la Samsung Koreana a ser líder en el mercado de memorias dinámicas (DRAM’s) a principios de los años noventa. Vol.VI No.2 -abril-junio- 2005 105 Hacia la convergencia total de las tecnologías de la información 1 00 ,00 0,0 00 de tr ans istor es , Spec trum IEEE µP P entium IV 42,000,000 µP P entium III µP de 64 bits Pentium II 24,000,000 7,500,000 Número de T ransistores Equivalentes 4,098,304 256,144 8,192 256 ULSI (EV U) U LS I (E VU) ULS I (E VU) µP de 32 bits Pentium I ULSI µP de 16 bits VLSI µP de 8 bits LSI Circuitos Integrados de Media Escala De Integración (286) MSI 1 1950 1960 1970 1980 1990 2000 2005 Figura 1. Evolución en el tiempo de las Escalas de Integración de los Semiconductores. (Elaboración propia) En la figura 2 se muestra cómo la dinámica del mercado impulsó la evolución de la capacidad de las memorias RAM de menos de 1 MB por chip en 1988, a chips de RAM dinámica con capacidad de 32 y 64 MB por chip en menos de una década. El costo de una instalación de tamaño mínimo para la fabricación de chips de memoria, se incrementó de 4 millones de dólares en 1971 a más de 1200 millones en 1996, y se incrementó a más de 4000 millones en el 2001. Evolución de la computadora La computadora main frame La computadora electrónica ENIAC fue desarrollada en 1950 por la Universidad de Pensilvania EUA. Ideada para realizar cálculos matemáticos sofisticados, en algunas décadas se convertiría en un 106 INGENIERIA Investigación y Tecnología dispositivo de cálculo de aplicación universal. Los fabricantes visualizaron un gran potencial en el mercado empresarial y pronto orientaron el hard ware y soft ware de los computadores a la ejecución de programas para aplicaciones empresariales, administrativas, contables, de control de personal, con trol de la producción e inventarios que requerían el manejo de grandes volúmenes de información. Una de las primeras aplicaciones de los chips VLSI en las computadoras electrónicas, fue el desarrollo de sistemas de procesamiento de datos de tarjetas múltiples o Unidades de Procesamiento Cen tral (CPU’s). Esto dio origen a la aparición en el mercado de equipos grandes y poderosos, conocidos como computadores “mainframe” de gran escala. Estos equipos en sus primeras etapas se aplicaron a la solución de tareas administrativas sin descuidar su aplicación a la investigación en las universidades e institutos. FI-UNAM L.R. Vega-González 8.0 MB P ro medio en RAM 6.0 4.0 2.0 1988 1 991 1994 1998 Añ os Figura 2. Crecimiento promedio del tamaño de las memorias RAM (ODISSEO-DIS, Facultad de Ingeniería de la Universidad de Nápoles, Federico II, (Esposito y Mastroiani, 1998) La computadora mainframe logró un tremendo éxito de mercado, lo que hizo a IBM una de las corporaciones internacionales más ricas y poderosas entre 1960 y 1980. En esa época, las primeras versiones de los programas de aplicación consistían de miles de líneas de instrucciones, desarrolladas en programas poco eficientes, entonces para que los fabricantes de computadoras se mantuvieran competitivos, fue esencial desarrollar computadoras más veloces en cuanto al procesamiento de las instrucciones de sus programas. Así se inició la carrera de la velocidad de procesamiento, tratando de ser el líder en esta guerra mercantil. Texas Instruments patentó en 1970 el primer microprocesador de silicio. Este dispositivo era un procesador de datos monolítico embebido en una sola oblea semiconductora, el cual sería aplicado a los sistemas de cómputo de la empresa. El manejo de información masiva planteaba otro problema: ¿dónde y cómo almacenar los datos que se procesaban?; es decir, el problema de la memoria temporal y fija. Las primeras memorias utilizadas en computadores híbridos fueron de ferrita magnética de baja velocidad y alto consumo de potencia. En 1969, Intel introdujo el primer chip de memoria con capacidad de almacenamiento de 1024 bits. La tecnología de semiconductores ya estaba en el mercado; sin embargo, los fabricantes de equipos de cómputo integrados tardaron un promedio de entre 5 y 10 años para asimilar las tecnologías de microprocesadores y memorias. Fue hasta mediados de los años setenta y principios de los ochenta que lograron la optimización de los primeros computadores electrónicos. Los microprocesadores usados en esas computadoras sustituyeron las tecnologías mecánicas de válvulas de vacío, de transistores e híbrida, usadas previamente. Hacia finales de los setenta, al difundirse la aplicación de circuitos integrados de alta escala de integración, aparecieron los primeros computadores electrónicos dedicados, los cuales estaban destinados a realizar una aplicación específica. Los sistemas de telefonía de esa época son un buen ejemplo, ya que prácticamente eran computadoras digitales especializadas. Lo mismo sucedió con los sistemas de instrumentación y control, los sistemas para transmisión de radio y TV de la época, los sistemas aplicados a la medicina, la manufactura y el entretenimiento, entre muchos otros. A principios de los ochenta, las líneas telefónicas enlazaban computadoras. Las industrias del computo y telefonía empezaban a entrelazarse. La computadora personal IBM dejo de ser el líder tecnológico en los noventas, sus directivos fallaron en sus pronósticos. Ellos consideraron que el futuro de la computación a escala mundial estaba en los grandes sistemas de cómputo mainframe de usuarios múltiples y no en las computadoras individuales. Sus pronósticos se sustentaban en la percepción del mercado que dominaban y no en un Vol.VI No.2 -abril-junio- 2005 107 Hacia la convergencia total de las tecnologías de la información monitoreo que ayudara a predecir el futuro de las tecnologías fundamentales de los computadores. Esto es sorprendente, pues para 1975, los fabricantes de semiconductores ya habían sacado al mercado los famosos procesadores de la serie 286. Tomando como referencia la velocidad de los microprocesadores monolíticos de 1970, para el año 1978, la investigación y desarrollo de las empresas fabricantes de semiconductores monolíticos había logrado velocidades muy superiores. En la tabla 1 puede verse que la velocidad del microprocesador Pentium I que salió al mercado en 1994 era 12 veces mayor que la de su primer antecesor. Las computadoras personales (PC’s) aparecieron a finales de los años setenta, su aceptación y difusión entre las empresas y usuarios particulares fue lenta inicialmente. La primera versión muy popular de PC, fue la basada en el procesador 286. En ella se podían correr las primeras versiones de procesadores de palabra y hojas de cálculo para aplicaciones de oficina. Durante los ochenta se implementaron versiones 386, 386SX, 386DX, 486S, 486DX, 486DX2. A mediados de los noventa se lanzaron al mercado internacional las primeras versiones de procesador Pentium y 586. A mediados de los noventa prácticamente cada empresa contaba ya con una PC. Hoy en día existen diferentes versiones Pentium IV que trabajan a diferentes velocidades y estamos en la víspera de la aparición de versiones más poderosas. Nicolás Negroponte (1992) pronosticaba que la tendencia para cada hogar en el futuro sería la existencia de al menos una PC y un sin numero de computadoras dedicadas para controlar todas las tareas caseras, como la temperatura y el inventario del refrigerador, la optimización de consumo de com bus ti ble, entre muchas otras aplicaciones. “Las máquinas, escucharán, verán, hablarán y se comportarán como sirvientes. Cada individuo usará al día más de mil microprocesadores en diversas tareas, y es posible que en cada hogar existan unos mil procesadores”. Tabla 1. Comparacion entre procesadores AMD, CYRIX e INTEL, (Esposito y Mastroiani, 1998) 1 Familia de procesador Fabricante Frecuencia (MHZ) Velocidad del CPU (Velocidad 2.0) Velocidad FPU 1 (Velocidad 2.0) 386SX AMD 40 54 386DX AMD 40 54 486SX INTEL 25 84 486SX INTEL 33 111 486DX CYRIX 33 112 320 486DX INTEL 33 112 284 486DLC CYRIX 40 130 486S CYRIX 40 131 486DX CYRIX 40 132 355 486DX2 AMD 25 167 425 486DX2 CYRIX 25 167 481 486DX2 INTEL 25 167 440 486DX2 AMD 33 223 588 486DX2 INTEL 33 223 586 PENTIUM INTEL 60 346 La velocidad de la Unidad de Punto Flotante (FPU, Floating Point Unit) se obtiene por cálculos en los que se considera los millones de instrucciones de punto flotante por segundo (MIPS) que pueden ser intercambiadas en las unidades de procesamiento y de memoria de una PC. Su utilidad puede verse al notar que la velocidad FPU de los procesadores 486DX2 de AMD, CYRIX e INTEL, es diferente, mientras que la velocidad de su CPU es igual en todos los casos. 108 INGENIERIA Investigación y Tecnología FI-UNAM L.R. Vega-González Su pronóstico empieza a cumplirse, los hogares “inteligentes” han sido una realidad desde el año 2003, ya que empresas como Samsung anunciaron la disponibilidad en el mercado de sus dispositivos inteligentes NetHome®. Actualmente se están desarrollando máquinas con sentido del tacto y existe el sueño entre los investigadores que las mismas lleguen a tener sentido común y entendimiento. Supercomputadoras aceleradas y computadoras cuánticas El 26 de junio del 2000 la Agencia de Noticias (Reuters), confirmó el lanzamiento al mercado de la computadora más rápida que existe hoy en el mundo, desarrollada por iniciativa del Departamento de Energía de los Estados Unidos de Norteamérica. (Department of Energy’s Accelerated Stra te gic Com puting Ini tia tive, ASCI). Esta computadora cuenta con una capacidad de 12.3 Teraflops y es utilizada para simular pruebas de armas nucleares. Una de sus características singulares es que usa clusters que agrupan 8192 microprocesadores de cobre. Esta tecnología es extraordinaria, ya que los microprocesadores comerciales conocidos, usualmente se han fabricado de aleaciones de Silicio, Galio y otros semiconductores . Así pues, parece que las opiniones de los expertos se han quedado cortas, porque no sólo los semiconductores impulsaron el desarrollo de supercomputadores con velocidades y capacidades insospechadas, sino también las tecnologías de microprocesadores con base en conductores. Esto concuerda con el reporte hecho por Foner y Or lando (1987), desde fines de los ochenta, sobre las investigaciones en superconductores aplicables a computadoras hiper rápidas. Continuando con esta carrera ascendente, Batelle (2000), en el reporte R&D Funding Fore cast de enero del 2000 indicó que IBM en Yorktown Heights NY, asignó un financiamiento de 100 millones de dólares hasta el año 2004 para la obtención de una supercomputadora paralela basada en un conjunto de procesadores con capacidad de un PetaFLOP, es decir, 100x 10 12 operaciones de punto flotante por segundo, lo que equivale a 100 teraflops. Impulsando esta línea de investigación, la ASCI mantendrá proyectos en Súper cómputo Acelerado con un financiamiento de 320 millones de dólares hasta el año 2010. Por otra parte, con el advenimiento de la electrónica óptica, cada vez parece más probable que en un fu turo mediato se convierta en realidad lo reportado por Zeilinger, a principios del 2000, en el sentido de que la tecnología sea conocida como “teleportación cuántica”, la cual ya ha sido probada con fotones y tendrá su mayor aplicación en los sistemas de cómputo. De hecho, hoy en día ya existen las computadoras cuántica experimentales. Evolución de los sistemas operativos Paralelamente a la evolución del “hardware” de procesamiento y memoria que han permitido hoy en día tener sistemas con capacidad de millones de operaciones de punto flotante por segundo (Mflops y Teraflops), se han dedicado miles de horas hom bre en la elaboración y optimización de los sistemas operativos y del software de aplicación. Los costos de investigación, desarrollo, equipamiento y operación han sido extremadamente elevados. Aunque las inversiones para el desarrollo de sistemas computacionales son de alto riesgo, éste ha sido uno de los mejores negocios de los últimos tiempos. El punto fundamental que las promueve, es que las aplicaciones se pueden volver universales con una buena estrategia de mercado. La tabla 2 es un resumen de la historia de algunos de los sistemas operativos más importantes y de sus características (García et al., 2003), CSF ( a, b y c ). La digitalización de las comunicaciones y el fenómeno de la convergencia Desde los orígenes del hombre, una de sus necesidades primordiales y de su organización ha sido la comunicación. Para que esta exista, se requiere la conjunción de una serie de tecnologías, por lo que se trata de tecnologías integradas. La imprenta de tipo móvil, inventada por Gutemberg en el año 1450, fue el principal medio de comunicación por más de 450 años. Con el tiempo, se hizo necesario utilizar alguna tecnología por medio da la cual se pudieran enviar y recibir señales a través del espacio abierto. Vol.VI No.2 -abril-junio- 2005 109 Hacia la convergencia total de las tecnologías de la información Tabla 2. Resumen de la evolución de Sistemas Operativos y algunas de sus características Sistema Operativo Año Desarrollador Gestión de procesos Multiusuario Atlas 1950-1960 Universidad de Manchester Lotes No Unix 1969 Ritchie/Thompson Labs. ATT & Bell Multiprogramado T compartido Si Unix PC Xenit 1983 Ritchie/Thompson Labs. ATT & Bell multiprogramado No Sprite 1984 multiprogramado Si Merlin 1984 Lotes No Windows NT 1985 MIcrosoft multiprogramado Si Mach 1986 DARPA multiprogramado Si OS/2 ver. 1.0 1987 Microsoft & IBM multiprogramado No Os/2 ver. 1.1 1988 Microsoft & IBM Unix System V (redes) 1989 AT&T multiprogramado Si Linux 1991 Linus Torvals multiprogramado No Windows 3.1 1992 Microsoft multiprogramado No Unix 64 bits 1993 Novell - HP multiprogramado Si Windows 95/98 1995/98 Microsoft multiprogramado No Coyote 1996 Trinity College Dublin Distribuido Si Linux 2.2 1998 Linus Torvals y contribución mundial de programadores multiprogramado Si El telégrafo inventado por Samuel Morse en 1844 fue el primer dispositivo que usó electricidad para enviar y recibir señales, pero estaba limitado a los códigos de combinaciones de puntos y guiones. Su prin ci pal limitación consistía en la necesidad de instalar pares de alambres entre el emisor y el re cep tor (Volti, 1992). La primera aplicación de las comunicaciones que aprovechó el principio de la propagación de las ondas electromagnéticas, cuya teoría fue desarrollada por James Clerk Maxwell en 1860, fue la transmisión del telégrafo inalámbrico de Guillermo Marconi en 1896. La primera transmisión de voz por radio fue hecha por Fesseden en 1900, quien patentó su invento en 1905 y lo llamó transmisor heterodino. En 1918, Armstrong aplicó el bulbo triodo al receptor de radio y lo patentó con el nombre de superheterodino. La televisión experimental apareció en 1920. En 1936, la BBC de Londres hizo la primera transmisión de TV de “alta definición” 110 INGENIERIA Investigación y Tecnología Si usando un sistema llamado iconoscopio. Las primeras transmisiones de TV a color se hicieron en los Estados Unidos de Norteamérica en 1954. El primer radio transistorizado salió al mercado en 1955. Hoy en día se entiende de forma coloquial que las “comunicaciones” son el proceso de manejo de señales para la transmisión de información a distancia. En este sentido, los primeros sistemas de comunicación como el radio, la televisión, el teléfono y el video se basaban en circuitos de procesamiento de electrónica analógica; esto es, trataban a la señal de una forma análoga a su forma física. Posteriormente, la proliferación de los circuitos digitales permitió un manejo diferente para las señales de comunicaciones. La transmisión pudo realizarse por medio del muestreo y codificación de la información y datos en forma de bits. Los trenes de bits codificados según un protocolo preestablecido se conocen como señales digitales de alta resolución. FI-UNAM L.R. Vega-González En la gráfica mostrada en la figura 3 se puede ver que desde los años setenta el progreso de las tecnologías LSI aceleró la tendencia hacia la digitalización, lo que a la postre eliminó la barrera que había entre las computadoras y la tecnología de las comunicaciones. Desde 1977, los directivos de la corporación industrial japonesa National Electric Cor po ra tion, (NEC), líder tecnológico en áreas como el radar, equipos de telecomunicaciones, materiales y dispositivos electrónicos, fueron los primeros en pronosticar la aparición de un fenómeno al que llamaron C&C; es decir, la even tual fusión de las tecnologías de comunicaciones y la tecnologías de computo, debido a los progresos en las tecnologías de semiconductores (Saito, 1997). Para disminuir el impacto del fenómeno de convergencia C&C, los dirigentes de NEC diseñaron un Programa de Competencias Tecnológicas (Core Tech nol ogy Pro gram), en el cual se avistaban algunos puntos esenciales, tales como el de mantener la coherencia entre la administración tecnológica y la estrategia de negocios, identificar las familias de tecnologías nucleares (Core Technologies) y definir programas de inversión y de investigación para hacer frente a los retos del fenómeno. Para no quedarse atrás, muchas otras empresas relacionadas con la electrónica en el ámbito mundial, prepararon diversas estrategias, relacionadas generalmente con mayores inversiones en investigación y desarrollo para enfrentar la situación. Este proceso rindió sus frutos, ya que hacia el año de 1993, el fenómeno de convergencia presentó nuevas oportunidades de mercado para la industria electrónica norteamericana. Se consolidaron nuevas alianzas y dio inicio la era de los nuevos medios o mul ti me dia. Un actor muy importante en este proceso de innovación continua, fue el gobierno norteamericano a través de sus financiamientos. Uno de los principales promotores ha sido sin duda el Instituto Nacional de Ciencia y Tecnología, (National Science & Technology Institute, NIST) de los Estados Unidos de Norteamérica. Este organismo dispuso de fondos en 1993 por 68 millones de dólares para investigación, de 200 en 1994 y de 750 en 1997. Estas investigaciones financiadas por el gobierno, fueron un fuerte impulsor de la convergencia al promover la creación de la supercarretera de la información o Internet. El objetivo primario de esta red de alta velocidad era cubrir toda el área de los Estados Unidos de Norteamérica con propósitos de seguridad militar. C&C Año 200 0 Procesamiento In teli gente 199 0 P ro ces amient o Dist ri buido 198 0 R edes de Com unicaciones In tegra das VLSI Pr oc esamiento Central iz ado 197 0 Comun ic aci ón de i mágene s LSI Mu ltif unción Dedic adas 196 0 IC Computado ras El ectrónicas 195 0 Bulbos Tr Conmutac ión Elec trónic a por tiempo F AX Comunic ación de dato s Conmutació n Ele ctrónica por e spac oi Redes de T ransmi si ón Digi tal Conmuta dore s de b arr as X Transmi si ón Digital Tel éfono 1900 190 0 Digi tali zación Tr ansm is ión A nalóg ic a 195 0 1960 1 970 1980 1990 2000 Comunic aciones Figura 3. El fenómeno C&C, convergencia de computadoras y comunicaciones (Saito, 1997) Vol.VI No.2 -abril-junio- 2005 111 Hacia la convergencia total de las tecnologías de la información En poco tiempo se unieron al fenómeno de convergencia de las computadoras y las comunicaciones la electrónica de consumo y la in du stria del entretenimiento. Los protocolos de comunicaciones catalizadores de la convergencia En la figura 3 puede observarse que hasta los años ochenta con la tecnología de ultra escala de integración (ULSI), aparecieron en el mercado los procesadores inteligentes o microprocesadores. La disponibilidad de este hard ware era insuficiente para lograr sistemas integrales de comunicación, ya que la diversidad de fabricantes, sistemas y aplicaciones, dio origen a una diversidad enorme de protocolos propietarios. De esta forma, los fabricantes de sistemas de manufactura, administrativos, de control, au tomatización y comunicaciones, disponían de sus propios protocolos en forma cerrada, lo que originó una gran lucha por el control de los mercados. Esto generó más problemas de los que resolvió, ya que los usuarios tenían que navegar en una diversidad muy compleja de sistemas que muchas veces no eran compatibles. El concepto que resolvió el problema fue la normalización y estandarización de protocolos. Esto funcionó como catalizador, ya que incentivó la innovación y finalmente dio origen a redes de comunicación integradas. El primer resultado de protocolos de alto impacto lo fue la red internacional Internet (In terna tional Net work), que es la denominación de una red de computadoras en el ámbito mundial que tienen en común el protocolo TCP/IP. Surgió en 1964 como una necesidad del gobierno de los Estados Unidos como estrategia militar du rante la guerra fría. Se trataba de encontrar los medios tecnológicos para establecer comunicación entre puntos geográficos distantes en caso de una guerra. La empresa RAND Cor po ra tion encargada de la estrategia militar de EUA planteó la solución de crear una red de comunicaciones que no dependiera de un organismo cen tral, la cual estaría integrada por nodos o puntos de enlace de igual rango con la misma capacidad de originar, recibir y transmitir mensajes. En el caso de que alguno de los nodos dejara de funcionar, el resto de la red 112 INGENIERIA Investigación y Tecnología seguiría en operación. Los mensajes en esta red se dividirían en paquetes con una dirección propia. En diciembre de 1969 ya existían 4 nodos en la red ARPANET, desarrollada por la agencia del Pentágono ARPA (Advanced Research Pro ject Agency). En 1972 ya contaban con 37 nodos con líneas de transmisión de alta velocidad. La ventaja de la red ARPANET era que no importaba el tamaño ni el tipo de maquinas que estuvieran interconectadas mientras cumplieran con el protocolo NCP (Network Con trol Pro to col), que fue establecido originalmente. En esa época, diferentes fabricantes establecieron sus propios protocolos para sus redes de comunicación. Así nacieron los estándares Ether net, FDDI y X.25 entre muchos otros. En 1974, se cambió el NCP por un nuevo protocolo estándar más sofisticado llamado TCP/IP (Transmission Control Protocol/Internet Pro to col), cuyos inventores fueron Vint Cerf y Bob Kahn. La ventaja de este protocolo era que convertiría los mensajes en cadenas de paquetes en el nodo de origen y los volvería a ensamblar en el nodo destino. El TCP/IP además podría rutear paquetes de mensajes en redes que trabajaban con protocolos diferentes. En 1989, México ingresó a Internet a través de NSFNET y la red BITNET que permitían acceso a recursos de información existentes en México y en el mundo. En 1992 se fundó ISOC (Internet So ci ety ) para coordinar el uso de las tecnologías existentes en beneficio de todos los usuarios. Es así como se desarrolló el World Wide Web (WWW) que permitió un acercamiento más fácil a través del hipertexto a todos los recursos de Internet, también dando una muestra de la transmisión de audio y video en tiempo real a través de la red. El crecimiento de la red se volvió exponencial con el uso de los exploradores que son programas especialmente diseñados para navegar en forma óptima. El primero de ellos que aprovechó la gran capacidad del WWW, fue denominado Mosaic, desarrollado por la Universidad de Il li nois Ur ban-Champagne. En 1995, los sistemas de servicios vía modem ofrecidos por compañías como Compuserve, Prodigy y Genie comenzaron a ofrecer servicios por Internet. A fi na les de los noventa, el navegador de Netscape obtuvo el mayor índice de ganancias FI-UNAM L.R. Vega-González jamás obtenido en Wall Street. Hoy en día el Internet Ex plorer de Microsoft do mina el mercado amenazando con un dominio monopólico mundial de esa firma para los sistemas de oficina. Tal vez una de las aplicaciones hasta hoy más sobresalientes del Internet es el correo electrónico (email), el cual permite a la gente y a las organizaciones enviar y recibir mensajes usando su computadora personal, un módem y una línea telefónica. El correo electrónico se encuentra basado en el concepto de dirección. La dirección email provee toda la información específica para comunicarse con cualquier parte del mundo. La era de la información multi media Un resultado espectacular del proceso continuo de digitalización, el cual trabaja en conjunto con la disponibilidad de Internet es la explosión multimedia del día de hoy. La tecnología digital traduce información de virtualmente cualquier medio a código binario permitiendo que sea transmitida por medio de protocolos y códigos comunes y procesada por computadoras. Los servicios por Internet, junto con la electrónica de consumo, se han convertido en dos áreas de inmenso potencial para las empresas de la industria mundial electrónica. Las empresas norteamericanas se mantienen al frente, desarrollando y suministrando nuevas herramientas para impulsar la productividad en el trabajo, simplificar los procesos de negocios, modificar los patrones de educación y establecer nuevos sistemas de salud. Los sistemas multimedia han atraído una diversidad de empresas, una muestra de ellas puede verse en la tabla 2. La convergencia C&C se ha extendido a otros cam pos, tales como el del entretenimiento, debido al enlace comercial de las empresas proveedoras de servicios telefónicos y las compañías de televisión por cable. Algunos de los factores técnicos que han contribuido en este proceso han sido los siguientes: – Las redes digitales se han convertido en manejadoras de software en forma incre mental, esto ha impulsado a las empresas a adquirir y desarrollar más capacidad de software bajo contrato. – El costo de las memorias ha disminuido constantemente. Los requerimientos de memoria para el manejo masivo de videos y películas son elevados, por lo que sólo disponiendo de memorias más baratas se posibilitará el producto “películas sobre demanda” – El costo de las transmisiones disminuye constantemente. El equipo de multiplexaje se ha mejorado cada año desde que apareció la fibra óptica, hace aproximadamente unos veinte años, logrando cada vez mayores anchos de banda. La capacidad de transmisión se ve hoy en día como un commodity ó producto de alto consumo. – Las capacidades de las redes inalámbricas se han expandido tremendamente Las compañías de televisión por cable están instalando gradualmente cable de fibra óptica en lugar de cable coaxial. También se están reemplazando las redes de pares trenzados de cobre usadas tradicionalmente por las compañías telefónicas. Hoy en día una empresa de televisión por cable puede convertirse en una empresa de servicio telefónico y viceversa. La expansión de los sistemas satelitales de comunicación en conjunto con el dominio de las nuevas tecnologías de soft ware y la integración de los recursos tecnológicos de transmisión están provocando una gran competencia en las empresas de telecomunicaciones y de Soft ware. A través de protocolos de comunicación como el ATM o el IP /WDM, hoy en día están disponibles servicios convergentes que incluyen el manejo de voz, datos, video y servicios de redes con buena calidad de servicio (Vega et al., 2003). Un ejemplo espectacular de estas tecnologías multimedia convergentes salió al mercado a principios del año 2000 y es el teléfono celular con capacidad de acceso a Internet. Este es un Sistema de Comunicación Per sonal (PCS) que hace uso de la supercarretera de la información, aprovechando las capacidades de alta velocidad, potencia, ancho de banda y confiabilidad de las redes de comunicación satelital. En el contexto descrito en los apartados anteriores, las oportunidades para servicios Vol.VI No.2 -abril-junio- 2005 113 Hacia la convergencia total de las tecnologías de la información orientados a negocios se han expandido de manera sustancial. Actualmente, disponemos de los sistemas de video conferencia de escritorio, de dispositivos digitales de uso personal, soft ware de trabajo en grupo, pizarrones electrónicos y otros servicios y productos multimedia que están conformando lo que se ha dado en llamar la nueva ola de herramientas de productividad en los negocios. Microsoft está trabajando en software para interfase de teléfonos con diversos dispositivos de oficina con la capacidad de acceso a servicios avanzados de redes. AT&T ha introducido nuevos sistemas de mensajería integrada, por lo que en el futuro los mensajes de oficina tendrán más contenido multimedia: se enviará y recibirá voz, texto y video. De hecho, esto ya se hace frecuentemente utilizando las capacidades de Internet a través del soft ware para redes internas corporativas Intranet. Otra área de crecimiento espectacular ha sido la aplicación de los microprocesadores en los Asistentes Digitales Personales (PDA), tales como agendas, comunicadores personales y la computadora tipo pluma. Por otra parte, el fenómeno de trabajadores móviles está creando una demanda cada vez más creciente para la electrónica portátil. En suma, los sistemas mul ti me dia están permeando el mercado con un número tremendo de aplicaciones. En la tabla 3 puede verse una pequeña fracción de las empresas relacionadas hoy en día con la producción de sistemas mul ti me dia. En poco tiempo se espera el desarrollo del mercado del “videoservidor” con capacidad de almacenar cientos de películas comprimidas digitalmente y transmitir su contenido a casas, escuelas y negocios. En este mercado se encuentran compitiendo Hewllet Packard, Silicon Graphics, nCube, Digital Equipment, IBM y ATT. También empresas de soft ware como Or a cle y Microsoft se beneficiarán de esta tecnología del video-servidor y sus productos derivados. Tabla 3. Empresas relacionadas con sistemas multi media Empresas de electrónica establecidas Nuevas empresas de multimedia Empresas proveedoras de servicios de Redes Otras empresas con potencial multimedia Apple 3DO AT&T Acclain Entertaiment Broderbund Books that Work Bell Atlantic Atari Cisco Systems Compston’s New Bell Canada Commodore Media Compaq Crystal Dynamics Bell South Disney General Instrument General Magic MCC/First Cities Electronic Arts Consortium Hewlett Packard Ikonic Interactive Nynex Kodak IBM Kaleida Labs Pacific Bell LucasArts: Industrial Light & Magic Intel Media Vision Sierra on Line Next Lotus PF Magic Sothwest Bell Nintendo Matsushita Pop Rocket TBS Paramount Microsoft Rocket Science TCI Sega United Video Time Warner Games NEC Sanctuary Woods Multimedia continúa... 114 INGENIERIA Investigación y Tecnología FI-UNAM L.R. Vega-González Tabla 3. Empresas relacionadas con sistemas multi media (continuación...) Empresas de electrónica establecidas Nuevas empresas de multimedia Empresas proveedoras de servicios de Redes Philips Spectrum Holobyte Satellite Group Scientific Atlanta Virgin Interactive US West Otras empresas con potencial multimedia Entertaiment Silicon Graphics Viacom Sony Sun Microsystems Toshiba Resumen Las computadoras se aplicaron en los años setenta del siglo pasado, principalmente como equipos terminales en las redes de sistemas de comunicación. Algunos computadores específicos se utilizaron en los sistemas satelitales de transporte y en los sistemas electromecánicos de conmutación. La información manejada por los sistemas digitales era fundamentalmente voz (telefonía) y datos. El servicio era de mala calidad, ya que frecuentemente se presentaban interrupciones, pérdidas de información y se requería de procedimientos de chequeo intensivo y retransmisión, por lo cual, la comunicación era de baja eficiencia. Los sistemas operativos de la época estaban enfocados a la gestión de procesos por lotes para equipos terminales individuales. En los años ochenta la diferencia sustancial fue que los computadores se utilizaron como redes terminales cuyo acceso a los sistemas de datos de conmutación y transporte se realizaba mediante equipos computarizados PBX. La información manejada por los sistemas digitales era fundamentalmente datos y voz. La calidad fue un poco mejor, debido a la mayor velocidad y capacidad de los sistemas de conmutación al utilizar los procesadores más poderosos de las tecnologías VLSI. Los protocolos de comunicación usados entre los distintos computadores que formaban alguna red de aplicación externa de tipo médico, control, instrumentación, manufactura , etcétera, eran del tipo cerrado. Si se corría la aplicación y se quería comunicar a alguna localidad distante geográficamente, había que seleccionar los datos requeridos, transportarla a alguna computadora terminal de los sistemas de comunicación de acarreo (car ri ers) y enviarla por medio de protocolos que hacían la función de transporte. La comunicación era de una calidad de servicio y alcances limitados. En la primera parte de los años noventa fueron utilizados los medios de transmisión de banda ancha, específicamente la fibra óptica, que permitió incluir imágenes en los sistemas de comunicación, aunque en un principio de muy baja calidad. Tanto las computadoras de los equipos terminales, de los sistemas PBX como de los sistemas de conmutación, utilizaban procesadores ULSI. Aparecieron los sistemas operativos Mach, Windows NT y Uníx System V para redes, permitiendo una mejor comunicación en las redes terminales. A finales de los noventas, la ola de innovación tecnológica en los distintos constituyentes de los sistemas de comunicación permitieron comunicaciones de alta calidad de servicio, incluyendo voz, imágenes y video, telefonía celular, equipos terminales multimedia y sistemas de acceso, transporte y conmutación de banda muy ancha y alta velocidad. Los protocolos de comunicación para las redes de comunicación de enlace entre puntos apartados geográficamente estuvieron a punto y se generaron estándares para conexiones abiertas a partir de los computadores de aplicación de los usuarios. Vol.VI No.2 -abril-junio- 2005 115 Hacia la convergencia total de las tecnologías de la información Protocolo Digital Estándar 2020 Computadoras y Sistemas Operativos Computad oras C uánti cas 20 10 Electrónica Optica I nternet 2 Comp ut adoras Pentium y Sist emas Operativos para redes Comput ado ra PC, MSDos y Uni x 1 99 0 Intern et 1 C 2000 µP Pentium 4 ¿¿H acia las comunicaci ones Unive rsale s ?? 1980 µP de 32 b it s Pentium I RAM Dinámica Eniac TC P/I P 1 97 0 µP de 16 bits VLSI Arpanet Globalización Semiconduct ores procesador es y memorias 1 960 1950 trans istores, memorias de ferrit a P P rotoc olos de Comunic aciones S Inicio de la era de la información Figura 4. La convergencia total de las tecnologías de la información (Elaboración propia) Conclusiones A partir de la discusión de los diferentes apartados en los que hemos revisado brevemente cuál ha sido la evolución tecnológica de las TI y tomando como ejes impulsores de la innovación tecnológica: 1) los dispositivos semiconductores, procesadores y memorias (S); 2) las computadoras y sus sistemas operativos (C); y 3) los protocolos de comunicaciones (P), es posible construir la figura 4, la cual muestra la clara posibilidad, de que en un par de décadas la tendencia de la dinámica de las vari ables nos lleve a la convergencia total de la tecnologías de la información. Analizando la figura, es evidente que con la integración, en el sentido descrito por Iansati (op.cit.), de las tecnologías de la información disponibles para la década de los 90’s del siglo pasado, se sentaron las bases para la globalización. A partir de entonces, la humanidad ha dispuesto de tecnología de comunicación de voz, datos e imágenes con alta calidad de servicio entre puntos distantes geográficamente de la tierra. La convergencia C&C pronosticada en los 70’s no sólo fue cumplida a plenitud, sino que fue rebasada en cuanto a sus alcances. Para el futuro 116 INGENIERIA Investigación y Tecnología se considera que los sistemas de protocolos estandarizados prevalecerán generando sistemas abiertos de comunicación absoluta. Esto podría abrir el paso a los sistemas de tele transportación cuántica. Hoy en día los sistemas computacionales tienen enormes capacidades de procesamiento y memoria y se están desarrollando por medio de la electrónica óptica. Los nuevos protocolos de comunicación IP/WDM están buscando la transmisión de información sobre medios ópticos con la mira de usar el ancho de banda infinito de la luz. El ejercicio prospectivo de ex tender la tendencia de las variables, nos señala que hacia el año 2020 podemos esperar la convergencia absoluta de las tecnologías de la información (S, C&P). Esto promoverá la definición de nuevos estándares mundiales y dará origen a las tecnologías estandarizadas de la información o tecnologías de información estándar (TIE) (Vega op. cit.). Prob a blemente estemos en camino hacia un sistema de comunicaciones universales en el que por medio de dispositivos electro-ópticos sea posible establecer contacto con los tripulantes de las colonias humanas que habitarán las futuras estaciones espaciales. FI-UNAM L.R. Vega-González Todo avance tecnológico tiene impactos. Las tecnologías de la información integradas en sistemas de comunicaciones abiertos absolutos seguramente impactarán a la sociedad y al género humano. Consecuentemente se impulsarán todos los cam pos de las ciencias, como en el caso de la bioingeniería, en que las supercomputadoras ayudarán a la finalización de extensiones del proyecto “Genoma Humano” y a la explotación de la información que de ahí se derive. Se desarrollarán nuevos dispositivos militares de defensa y ataque. También se promoverá el desarrollo de nuevos vehículos y estaciones espaciales. En el ámbito casero, la mayor parte de los dispositivos, ostentarán inteligencia y tal como lo predijo Negroponte una década atrás, todo apunta a que la computadora será un dispositivo omnipresente. El gradiente del cambio tecnológico se muestra con una aceleración vertiginosa. Los ciclos de vida de los productos electrónicos se están reduciendo de años a meses y probablemente en algunos años serán de apenas unos días. La convergencia absoluta S,C&P, generará nuevos dispositivos cibernéticos, los cuales tendrán influencia y con trol en todos los cam pos de la vida humana. Una tarea pendiente es que los individuos, sus organizaciones y sus sociedades, se deben preparar para asimilar los cambios por venir. Rivers (2002), sostiene que el progreso tecnológico se sustenta en su propia mitología, la cual extiende y perpetúa la idea de progreso indefinidamente en el fu turo. Dependerá de nosotros que el progreso tecnológico se convierta en progreso humano, éste enorme problema será tarea de todos y seguramente no será fácil resolverlo. Referencias Batelle (2000). R&D Funding Fore cast, January. (a).Computer Story CSF, Sistemas Operativos, Línea de tiempo Uníx: http://www.comsto.org/so/linux.htm (b) .Computer Story CSF, Sistemas Operativos, Uníx, el fenómeno: http://www.comsto.org/so/unix.htm (c) .Computer Story CSF, Sistemas Operativos, OS2: el divorcio entre IBM y Microsoft: http://www.comsto.org/so/os2.htm Esposito E. y Mastroiani M. (1998), Tech nological Evolu tion of Personal Computers and Market Impli ca tions . Tech no log ical Fore casting and Social Change 59, pp. 235-254. Fiap (1998). La alternativa social: la sociedad global del conocimiento. Revista Digital DesenReda, No. 2, Año 2. . http//:www.arrakis.es/fiap/revi2art6.htm Foner S. y Orlando T.P. (1987). Super con duc tors, the Long Road Ahead. Technology Review, Febru ary-March, pp. 36-47. Garcia L., Peralta L. y Fernández S. (2003). Sistemas Operativos. Un paseo por la historia, http://spisa.act.uji.es/~peralta/os/ Iansiti M. y West J. (1997). Tech nology Inte gra tion: Turning Great Research into Great Prod ucts. Harvard Busi ness Review , May-June, pp. 69-79. Modelski G. (2001). “What causes K – waves? Tech no log ical Fore casting & Social Change , Vol. 68, pp. 75-80. Elsevier Science Inc. Negroponte N. (1992). Machine Dreams. Tech nology Review, January, pp. 33-39. Reuters,http://dailynews.netsc...ntz0725-stor y-bcnewstechibmdc.html Rivers T.J. (2002). Prog ress and Tech nology: their Interdependency. Tech nology in Society, Vol. 24, pp. 503-522. Saito F. (1997). Managing Tech nology development at NEC Corpo ra tion. Inter na tional Journal of Tech nology Manage ment, Vol 14, No 2/3/4, pp. 196-207. Smith H. y Antoniadis D. (1990). Seeking a Radi cally New Elec tronics. Tech nology Review, April, pp. 26-49. Volti R. (1992). Society and Tech no log ical Change. 2 nd . Ed. St. Martin Press, NY. Vega G.L.R., Avilés F. y Montalvo T.M. (2003). Evolución y evaluación tecnológica de los protocolos de comunicaciones. Revista Ingeniería, Investigación y Tecnología , Vol.4, No. 2, abril-junio, pp. 71-81. Zeilinger A. (2000). Quantum Tele portation. Scien tific Amer ican, Vol. 282, No. 4, April, pp. 32-42. Vol.VI No.2 -abril-junio- 2005 117 Hacia la convergencia total de las tecnologías de la información Bibliografía sugerida Ayres R.U. (1990). Tech no log ical Trans for ma tions and Long Waves. Part I. Tech no log ical Fore casting and Social Change. Vol. 37, pp. 1-37. Elsevier Publishing Co. Ayres R.U. (1990). Tech no log ical Trans for ma tions and Long Waves. Part II. Tech no log ical Fore casting and Social Change, Vol. 36, pp. 111-137, Elsevier Publishing Co. Gross Neil editor (1996). Gilding the Ulti mate Chip in Devel op ments to Watch. Busi ness Week, October 14, p. 88. Lemonick M.D. (1995). Future Tech is Now. Times, July 17, pp. 36-39. Semblanza del autor Luis Roberto Vega-González . Es ingeniero mecánico electricista por la Facultad de Ingeniería de la UNAM. Obtuvo la maestría en ingeniería de sistemas en el área de planeación por la DEPFI-UNAM y la maestría en administración d e las organizaciones por la División de Estudios de Posgrado de la Facultad de Contaduría y Administración de la UNAM. Asimismo, se especializó en gestión de la innovación tecnológica por el Centro para la Innovación Tecnológica y la FCyA de la UNAM. Durante más de veinte años colaboró en diversas firmas nacionales e internacionales con proyectos en las áreas de instrumentación, control y potencia. Actualmente es coordinador de vinculación y gestión tecnológica del Centro de Ciencias Aplicadas y Desarrollo Tecnológico (CCADET) de la UNAM. 118 INGENIERIA Investigación y Tecnología FI-UNAM INGENIERÍA Investigación y Tecnología VI. 2. 119-126, 2005 (artículo arbitrado) Atenuación natural en suelos contaminados con hidrocarburos L. Corona-Ramírez y R. Iturbe-Argüelles Instituto de Ingeniería, UNAM E-mail: [email protected] (recibido: julio de 2004; aceptado: agosto de 2004) Resumen Se realizó un experimento con suelo contaminado proveniente de una refinería, el cual contaba con hidrocarburos derivados de petróleo, específicamente con concentraciones elevadas de hidrocarburos poliaromáticos (HAP). El estudio consistió en preparar 7 cajones con 7 kg de suelo, cada uno con las siguientes condiciones: S1 suelo contaminado con hidrocarburos y 15% de contenido de agua. S2 suelo contaminado con hidrocarburos y adición de Nitrógeno y Fósforo (N y P) con 15% de contenido de agua. S3 suelo contaminado con hidrocarburos y adición de N y P más un surfactante no iónico, Emulgin W600, con 15% de contenido de agua. S4 igual a S1 pero con 30% de contenido de agua. S5 igual a S2 con 30% de contenido de agua. S6 igual a S3 con 30% de contenido de agua. S7 suelo contaminado testigo, sin control de humedad y sin aireación. La experimentación consistió en airear el suelo diariamente y controlar el contenido de agua de manera que éste fuera constante. Los resultados, indican que la mejor remoción se obtuvo para el contenido de agua de 30%, con adición de nutrientes y surfactante. Los compuestos con mayor eficiencia de remoción para todas las opciones son naftaleno y antraceno. Por lo tanto, de acuerdo con los resultados, los compuestos poliaromáticos (HAP) son susceptibles de ser removidos con atenuación natural y biorremediación. Descriptores: Biorremediación, HAP, degradación. Abstract A con tam i nated soil ex per i ment was per formed us ing sam ples from a re fin ery, con tain ing oil deri vate hydrocarbons, spe cif i cally those with high con cen tra tions of polyaromathic hy dro car bons (PAH). The test ing con sisted in 7 pans with 7 kg of soil, the prep a ra tion of 6 pans un der spe cific condi tions and one as a blank, the con di tions were: wa ter con tent (15 y 30%), ad di tion of nu tri ents (N&P) and ad di tion a non-ionic surfactant. The pro cess con sisted in the daily aer a tion and wa ter con trol of the sam ples. The PAH were analyzed: anthracene, benzo(a)pyrene, chry sene, phenanthrene and naph tha lene. The re sults af ter 8 weeks showed a grad ual deg ra da tion of PAH, in di cat ing a better re moval ob tained when the wa ter con tent was 30% with nu tri ents ad di tion. Keywords: Bioremediation, PAH, deg ra da tion. Atenuación natural en suelos contaminados con hidrocarburos Introducción La contaminación con compuestos orgánicos en suelos y sedimentos es un problema ambiental importante por la cantidad de sitios contaminados. Los hidrocarburos aromáticos policíclicos (HAP) presentan un interés mayor debido a la toxicidad de muchos de ellos y a la frecuencia con que se detectan. La biorremediación y la atenuación nat u ral son tecnologías que favorecen la remoción de compuestos orgánicos; sin embargo, los HAP se consideran persistentes, y por tanto, difíciles de degradar. La atenuación natural es la reducción de las concentraciones del contaminante en el ambiente con los procesos biológicos, los fenómenos físicos (advección, dispersión, dilución, difusión, volatilización, sorción/desorción) y las reacciones químicas (intercambio iónico, complejación, transformación abiótica) (US Army, 1995). La biodegradación es uno de los principales procesos que ayudan a la atenuación nat u ral en el suelo, siendo los microorganismos esenciales para cambiar la química del mismo. La adaptabilidad que tenga la población microbiana, así como el requerimiento nutricional, es lo que permite degradar a los contaminantes por medio de reacciones. Entonces, los cambios químicos causados por los microorganismos pueden disminuir directa o indirectamente las concentraciones de los contaminantes. Dentro de la clasificación de los hidrocarburos se encuentran los HAP, los cuales se presentan como resultado de diversos tipos de actividad humana. Los procesos de combustión industrial contribuyen en gran medida, debido princi palmente al humo generado por carbón, com bus tibles fósiles y petróleo refinado, las descargas de aguas municipales, las actividades de transporte y los derrames son algunas de las principales fuentes de estos contaminantes. Los HAP son contaminantes orgánicos que provienen de los hidrocarburos del petróleo y de la pirólisis de combustibles, así como sus homólogos alquil y los sustituidos con azufre o nitrógeno. Los HAP, por lo general, se producen a altas temperaturas de 400-500°C. Son sustancias liposolubles que se forman como productos de la combustión del petróleo y residuos del procesamiento del carbón. 120 INGENIERIA Investigación y Tecnología La característica química prin ci pal es su estructura de varios anillos bencénicos que pueden tener un origen natural (las plantas y las bacterias son fuente de hidrocarburos) o antropogénico, derivado tanto de las actividades que emplean petróleo, como de combustiones incompletas, (incineración de residuos urbanos e industriales, incendios forestales, centrales térmicas, etc.) (Blumer, 1975). Por su persistencia en el ambiente y la genotoxicidad, actualmente se realizan investigaciones para la remediación de estos compuestos, ya que son removidos de los sitios contaminados, principalmente por la degradación microbiana. Sin embargo, pueden sufrir procesos tales como volatilización, fotoxidación, oxidación química, bioacumulación y adsorción en la matriz del suelo. Hay dos clases de hidrocarburos aromáticos: los de bajo peso molecular que tienen de 2 a 3 anillos aromáticos como el naftaleno, fenantreno, antraceno y derivados, y los de alto peso mo lecular que tienen de 4 a 7 anillos aromáticos como el criseno y benzo(a)pireno. Sus características físicas y químicas varían de acuerdo con su peso mo lecular y, en consecuencia, en su distribución y efecto en el ambiente, lo mismo sus efectos en los sistemas biológicos. Los compuestos que se identificaron en un estudio realizado en aceite crudo menciona que se encuentran con mayor frecuencia el naftaleno y criseno, también se presentan con un 100% de frecuencia el fenantreno con un 98%, seguido del benzo(a)pireno con un 75% y finalmente el antraceno con un 40% (Kerr et al., 2001). En el caso del fenantreno, varios estudios reportan la alta degradació n que se alcanza, gracias a las bacterias nativas del suelo; es por esto que el fenantreno ha sido usado como modelo en estudio de vías de degradación, ya que su estructura es muy similar a la del benzo(a)– pireno; tomando en cuenta que dicha situación se presenta si el contenido de agua que se tenga en el suelo es elevada, aproximadamente el 40% de su capacidad de campo (Liu et al., 2001). En este estudio se reporta que a los 2 meses comienza una notoria disminución en su concentración. FI-UNAM L. Corona-Ramírez , R. Iturbe-Argüelles Metodología cajones S1 y S4 únicamente tuvieron suelo contaminado. El experimento tuvo una duración de 60 dí as con un muestreo cada 30 días. La clasificación de los cajones es la siguiente: Caracterización del suelo Se utilizó un suelo contaminado con compuestos poliaromáticos provenientes de una refinería. La primera parte de la experimentación consistió en la caracterización del suelo. En la tabla 1 se presentan los resultados. Tabla 2. Distribución de cajones Número de cajón Características S1 Suelo (15% de contenido de agua) S2 Suelo (15% de contenido de agua) + nutrientes Suelo contaminado con HAP S3 Suelo (15% de contenido de agua) + nutrientes + surfactante Conductividad eléctrica ( µS/m) 1.608 S4 Suelo (30% de contenido de agua) Densidad aparente (g/cm3 ) 1.421 S5 Densidad real (g/cm3) 2.646 Suelo (30% de contenido de agua) + nutrientes Fracción de carbono orgánico foc (%) 1.3938 S6 Suelo (30% de contenido de agua) + nutrientes + surfactante pH 6.37 S7 Testigo Porosidad 0.4624 Materia orgánica (%) 2.3973 Fósforo (mg/kg) 7.0312 Tabla 1. Características del suelo Prueba Granulometría Cu 31.75 Cc 0.6375 Experimentación El experimento consistió en la colocación de 6 cajones que sirvieron como contenedores, a los cuales se les colocaron 7 kg de suelo contaminado a cada uno. Las vari ables consideradas fueron las siguientes: contenido de agua (15% y 30%), adición de nutrientes y adición de surfactantes. Para la adición de nutrientes se consideró la concentración de carbono en el suelo como el 80% de la concentración inicial de hidrocarburos totales del petróleo (HTP) y con la relación para C:N:P de 100:10:1. A los cajones S2, S3, S5, S 6 se les agregaron nutrientes en la proporción mencionada. A los cajones S3 y S6 además, se les agregó el surfactante no iónico probado en estudios previos (Iturbe et al., 2002) para que sirviera como coadyuvante para la degradación (John et al. , 1998). Los No se realizó un análisis estadístico del experimento, ya que para ser representativo deberían llevarse a cabo duplicados y más combinaciones de los tratamientos. Dado que el tiempo fue limitado no fue factible aumentar el número de cajones experimentales. Resultados y discusión Caracterización del suelo Con base en los resultados obtenidos de la caracterización del suelo, puede decirse que es un suelo nor mal en salinidad, es decir, que las propiedades morfológicas y fisiológicas del perfil no están influenciadas por el carácter salino. La determinación de la conductividad eléctrica de un suelo es un parámetro importante, ya que tiende a cambiar el contenido de agua, parámetro que en este caso se considera relevante en la degradación de los hidrocarburos. De acuerdo con el conteo de bacterias hay presencia de bacterias heterótrofas en el suelo, encontrándose dentro del intervalo establecido para suelos contaminados con hidrocarburos (10 6 – 108 UFC/g). Vol.VI No.2 -abril-junio- 2005 121 Atenuación natural en suelos contaminados con hidrocarburos Concentración y eficiencias de remoción de HAP En la prueba de análisis granulométrico de acuerdo con el sistema unificado de clasificación de suelos (SUCS) se obtiene un suelo arenoso mal graduado, con muy poca cantidad de finos. En las tab las 3 y 4 se presentan las concentraciones iniciales y fi na les de los HAP en el suelo contaminado. Las eficiencias totales de remoción en cada cajón resultaron satisfactorias, es decir, que la concentración de los HAP disminuyó en más de 80%, con respecto a la que se tenía en el suelo inicialmente (Tabla 5). De acuerdo con la concentración de nutrientes, es un suelo con concentración baja en fósforo y medianamente pobre en nitrógeno total. Tabla 3. Concentraciones iniciales de HAP Contenido de agua 15% 30% Concentraciones de HAP (mg/kg) Número de cajón Antraceno Benzo (a) pireno Criseno Fenantreno Naftaleno S1 3.5944 0.0724 0.1410 ND 4.3655 S2 2.4132 0.0523 0.1180 ND ND S3 6.5072 0.1090 ND 5.6842 ND S4 4.0465 0.0527 0.1287 0.0321 0.2632 S5 1.7812 0.0419 0.1009 0.0492 0.2046 S6 3.5183 0.1098 0.2584 0.0615 0.4787 ND= No Detectado Tabla 4. Concentraciones finales de HAP Contenido de agua 15% 30% Concentraciones de HAP (mg/kg) Número de cajón Antraceno Benzo (a) pireno Criseno Fenantreno Naftaleno S1 0.3250 0.0145 ND ND ND S2 0.1736 0.0205 0.0215 ND ND S3 0.7350 0.0279 0.0524 1.0356 ND S4 0.2467 0.0079 0.0155 0.0026 0.0049 S5 0.1106 0.0050 0.0121 0.0030 0.0058 S6 0.0450 0.0022 0.0135 0.0027 0.0058 Tabla 5. Eficiencias totales de remoción en cada cajón Contenido de agua 15% 30% 122 Eficiencias totales de remociónηT Número de cajón Antraceno Benzo (a) pireno Criseno Fenantreno Naftaleno S1 90.96 79.97 99.99 - 99.999 S2 92.80 60.80 81.92 - - S3 88.70 74.40 - 81.78 - S4 93.90 85.00 87.96 91.90 98.14 S5 93.79 88.07 88.00 93.90 97.16 S6 98.72 98.00 94.77 95.61 98.79 INGENIERIA Investigación y Tecnología FI-UNAM L. Corona-Ramírez , R. Iturbe-Argüelles CO 2 por parte de los microorganismos, lo que in dica que al consumir los contaminantes están consumiendo oxígeno y lo liberan como CO 2. Como se observa en la figura 2, en todos los cajones se obtuvo producción de CO 2, a diferencia del testigo, en el cual se presentó liberación de CO 2 por parte de los microorganismos du rante las primeras 24 horas, tiempo en el cual comienza a haber menor producción de CO 2 , ocasionado por la falta de aireación en ese suelo. Puede observarse en la figura 2 que la mayoría de los cajones tienen tendencia a producir CO2 con respecto al tiempo, a excepción de los cajones S4 y S6, los cuales aumentan en las primeras 24 h y en el período siguiente medido de 24 a 48 h su tendencia es relativamente constante; siendo notoriamente menor en el cajón S 4. En los demás cajones, S1, S2, S3 , S 5 su tendencia va en aumento; sin embargo, en este caso los cajones con el 15% de contenido de agua son los que presentan mejor comportamiento en cuanto a la producción de CO2, es decir, en cuanto a la actividad microbiana. En los cajones S1 y S3, con el menor contenido de agua se encuentran los microorganismos, con mejor actividad metabólica y únicamente el cajón S5, con contenido de agua de 30% es uno de los tres mejores cajones en cuanto a las pruebas de respirometría realizadas. En la figura 3 puede observarse la producción de CO2 a sus distintos tiempos de incubación, 6, 24 y 48 h. De acuerdo con las concentraciones obtenidas puede notarse que, aproximadamente el 90% de los casos presentó disminución en la concentración de los hidrocarburos considerados, obteniendo en la mayoría altas eficiencias de remoción. Las curvas de eficiencia para cada cajón muestran la degradación de los HAP (Figura 1), donde se presentan las eficiencias de remoción con respecto a los hidrocarburos estudiados; antraceno, benzo(a)pireno, criseno, fenantreno y naftaleno. Se puede observar la baja eficiencia en el caso del criseno en el cajón S 5 y la no detección en los cajones con el 15% de contenido de agua para el fenantreno y naftaleno. Respirometría Conocer la tasa de respiración microbiana en el suelo (mg de CO 2/kg de suelo/tiempo de incubación), es de gran importancia, puesto que con ayuda de los resultados de las concentraciones, eficiencias de remoción y bacterias heterótrofas, puede tenerse un completo panorama para identificar el motivo por el cual se ve favorecida la degradación de los HAP. Se realizaron pruebas de respirometría (Prueba de Jarras Cerradas) (Gauger, 1999), para conocer si la población microbiana estaba asimilando a los hidrocarburos como fuente de energía y con esto, la capacidad de degradarlos. Esta actividad microbiana se demuestra por la producción de 100 90 An tr ace no 80 Be nzo(a )pireno 70 Cr ise no 60 Fe na nt ren o 50 Na ft ale no 40 30 20 10 0 S1 S2 S3 S4 S5 S6 Cajones Figura 1. Eficiencia de remoción de los HAP estudiados Vol.VI No.2 -abril-junio- 2005 123 Atenuación natural en suelos contaminados con hidrocarburos 4.5 4 3.5 S1 S2 3 2.5 2 1.5 1 0.5 S3 S4 S5 S6 SB 0 0 10 20 30 40 tiempo de in cubación (h) 50 Figura 2. Respiración microbiana en el suelo de los cajones estudiados 0.25 0.2 t incubación 6h t incubación 24h 0.15 t incubación 48h 0.1 0.05 0 S1 S2 S3 S4 S5 S6 SB Cajones Figura 3. Tasa de respiración microbiana en el suelo Debido a que las mayores eficiencias de remoción se presentan en los cajones con contenido de agua del 30%, es de suponerse que de igual manera la producción de CO2 sea mayor con este contenido de agua; sin embargo, la tasa de respiración en el suelo es muy variada, pues a un tiempo de incubación de 6 h, los cajones S1, S6, S 3 y S 5 son los que tienen mayor producción de CO 2 (de 0.1901–0.1027 mg/kg de suelo/tiempo de incubación) y los de menor producción, S4 y S 2 (con 0.0697 y 0.0293 mg/kg de suelo/tiempo de incubación) respectivamente, de igual manera sucede a las 48 h, siendo menor el CO 2 producido que en las primeras horas. 124 INGENIERIA Investigación y Tecnología Como puede observarse en la figura 3, en todos los cajones de manera general, se tiene mejor producción a las primeras horas, y conforme es mayor el período, menor es la actividad metabólica que presentan los microorganismos, mostrando en promedio mejor comportamiento el cajón S 6. De manera muy similar sucede a las 24 h de incubación, cambiando únicamente S2 y S5 como los cajones de menor producción. Aunque en estos seis cajones se haya obtenido una mayor eficiencia de remoción, la diferencia entre los miligramos (mg) de CO 2 producido por kilogramo (kg) de suelo por tiempo de incubación (h), puede ser justificado por la población microbiana que FI-UNAM L. Corona-Ramírez , R. Iturbe-Argüelles habita en el suelo, considerando que no todos los microorganismos presentes en el suelo desempeñan una actividad metabólica favorecedora para la biodegradación de los HAP. Para favorecer la producción de CO2, diariamente se airearon cada uno de los cajones para estimular a las bacterias heterótrofas presentes en el suelo, las cuales se encargan de la biodegradación de los compuestos de interés. Conclusiones La caracterización física, química y biológica del suelo es fundamental para conocer si la atenuación natu ral y biorremediación son viables como técnicas de saneamiento, pues es parte de la perspectiva microbiológica y el esencial conocimiento de su habitat natural de las poblaciones microbianas degradadoras de hidrocarburos, tales como las Pseu do mo nas, Flavobacterium, Achrom- bacter, Anthrobacter, Micrococcus y Actinobacter , principalmente. La adición de un surfactante sirve como coadyuvante a los microorganismos del suelo para degradar los HAP presentes, siempre y cuando la dosis suministrada al suelo no altere la preferencia del hidrocarburo como sustrato al microorganismo. En gen eral, se obtuvo el 90% de degradación en los hidrocarburos de interés (HAP), siendo el alto contenido de agua factor importante para favorecer la tasa de degradación en un menor período. Teniendo que para un suelo arenoso el contenido de agua constante de 30% presenta mejores eficiencias de remoción que a un 15%. Experimentalmente, el cajón S1 con 15% de contenido de agua es el que presenta la mejor eficiencia de remoción para todos los compuestos, principalmente el naftaleno. De los experimentos en cajones con 30% de contenido de agua el que presenta mejor eficiencia de remoción es el S6, con adición de nutrientes y surfactante. Las gráficas de respirometría evidencian la importancia que hay entre la actividad microbiana y la aireación, comprobando experimentalmente en el suelo que se tomó como blanco (SB) que después de las 24 horas ya no hay producción de CO 2, indicando que hay presencia de bacterias heterótrofas degradadoras de hidrocarburos, pero después de cierto tiempo la actividad microbiana disminuye, debido a que las bacterias no tienen su principal aceptor de electrones, el O 2. Considerando que la respiración es un indicador de la actividad microbiana bajo condiciones aerobias, se determina que la atenuación nat u ral y biorremediación son una opción viable y efectiva en suelos arenosos contaminados con HAP, debido a la poca inversión que requiere; lo cual dependerá de las concentraciones y el tipo de contaminante, pues esto determinará la rapidez y la eficiencia que se obtenga. No se llevó a cabo un análisis estadístico del experimento porque para esto se requiere aumentar el número de cajones experimentales, lo cual para esta etapa no era posible. Sin embargo, debido a que los resultados se consideran muy alentadores se va a continuar la investigación con HAP y se desarrollará el diseño de experimento correspondiente. Referencias Blumer M. (1975). Policyclic Aromatic Hydro car bons in Soils and Recent Sedi ments. Science. p. 188. Gauger W.K. (1999). Pruebas de Biotrata- bilidad para el Suelo. Radian Corpo ra tion,Texas. Iturbe A.R., Orantes J.L. y Torres L.G. (2002). Biodegradation of two Anionic Surfac tants Employed for Oil-Contaminated-Soils in SituFlushing. Envi ron mental Geosciences. John G.F., White (1998). Mecanism for Biotransforma tion of Nonylphenol Polyethoxilates in Pseu do monas Putida. Journal of Bacteriology, pp. 4332-4338. Kerr J.M., McMillen S.J., Magaw R.I., Melton H.R y Naughton G. (2001). Risk-Based Soil Screening Levels for Crude Oil: The Role of Polyaromatic Hydro car bons. The Petro leum Envi ron mental Research Forum, USA. Liu-Baozhi, Banks M.K. y Schwab P. (2001). Effects of Soil Water Content on Biodegrada tion of Phenanthrene in a Mixture of Organic Contam i nants. Soil and Sedi ment Contam i na tion. An Inter na tional Journal. Volumen 10, Issue 6. U.S. Army Science Board. (1995). Infra struc ture and Envi ron mental Issue Group, Remediation of Contam i nated Army Sites: Utility of Natural Vol.VI No.2 -abril-junio- 2005 125 Atenuación natural en suelos contaminados con hidrocarburos Atten u a tion. Draft Report, Depart ment o f the Army, Wash ington, D.C. Semblanza de los autores Lilia Corona-Ramírez . Es ingeniera ambiental egresada del IPN en el año 2002. Realizó la maestría en ingeniería ambient al con especialidad en suelos y agua subterránea en la División de Estudios de Posgrado de la Facultad de Ingeniería, UNAM. Actualmente forma parte del grupo de saneamiento de suelos y acuíferos del Instituto de Ingeniería de la UNAM, dirigido por la Dra. Rosario Iturbe-Argüelles. Rosario Iturbe-Argüelles . Ingeniera civil y doctora en ingeniería egresada de la Facultad de Ingeniería, UNAM es investigadora del área de ingeniería ambiental en el Instituto de Ingeniería, principalmente dedicada a la caracteriz ación y saneamiento de suelos contaminados por hidrocarburos desde hace más de diez años. Actualmente dirige el grupo de saneamiento de suelos y acuíferos en el que participan más de 20 académicos y alumnos de posgrado. 126 INGENIERIA Investigación y Tecnología FI-UNAM INGENIERÍA Investigación y Tecnología VI. 2. 127-137, 2005 (artículo arbitrado) Control óptimo determinista aplicado al problema económico de crecimiento endógeno V.M. García-Guerrero y F. Venegas-Martínez División de Estudios de Posgrado de la Facultad de Ingeniería, UNAM y Centro de Investigación en Finanzas, Tecnológico de Monterrey, Campus Ciudad de México. E-mails: [email protected] y [email protected] (recibido: junio de 2004; aceptado: septiembre de 2004) Resumen El propósito de este trabajo consiste en desarrollar, dentro de un marco determinista, un modelo de crecimiento económico que explique endógenamente los determinantes del mismo. Asimismo, el modelo propuesto describe el comportamiento de la dinámica de las trayectorias de consumo y capital de los agentes. Se supone que la economía está poblada por individuos idénticos con vida infinita que desean maximizar su utilidad por un bien de consumo perecedero. Distintos índices de satisfacción se revisan. Las empresas comparten la misma tecnología. En dicha tecnología, el producto marginal del capital se mantiene constante en el tiempo. En este contexto, el problema de decisión de un consumidor representativo se plantea como un problema de control óptimo determinista en tiempo continuo. Las decisiones óptimas del consumidor se examinan utilizando subrutinas de MATLAB . Descriptores: Control óptimo, optimización dinámica, crecimiento endógeno. Abstract The aim of this pa per is to de velop, in a de ter min is tic frame work, a model of eco nomic growth that explains its de ter mi nants en dog e nously. The pro posed model also de scribes the be hav ior of the dy nam ics of the agent’s con sump tion and cap i tal paths. It is sup posed that the econ omy is pop u lated by iden ti cal and in fi nitely lived in di vid u als that wish to max i mize their util ity for the con sump tion of a sin gle perish able good. Sev eral sat is fac tion in dexes are re vised. Firms share the same tech nol ogy. In such a technol ogy it is as sumed that the mar ginal prod uct of cap i tal re mains con stant through time. In this context, the con sumer’s de ci sion prob lem is stated as a de ter min is tic op ti mal con trol problem in con tin u ous time. Con sumer’s op ti mal de ci sions are ex am ined by us ing MATLAB subroutines. Keywords: Op ti mal con trol, dy namic op ti mi za tion, en dog e nous growth. Introducción En la actualidad, la búsqueda de soluciones a los problemas económicos requiere de un planteamiento multidisciplinario que integre diversas áreas del conocimiento científico. En particular, el análisis financiero es la disciplina que más se ha combinado con la economía en el modelado del comportamiento de los agentes y de los mercados en que estos participan. Asimismo, entre las herramientas matemáticas que se utilizan para resolver muchos de los problemas económico-financieros destaca la optimización dinámica, la cual agrega las técnicas del cálculo de variaciones, el control óptimo y la programación dinámica. En este trabajo se desarrolla un modelo de crecimiento endógeno balanceado que permite analizar las decisiones óptimas de los agentes Control óptimo determinista aplicado al problema económico de crecimiento endógeno bajo diferentes funciones de utilidad. Los supuestos del modelo se mantienen tan simples como sea posible, de tal manera que se puedan obtener soluciones analíticas. En esta investigación, también se estudia la evolución del consumo y el cap ital en función de la tasa subjetiva de descuento y del producto marginal de capital. Asimismo, se analiza la evolución del consumo y del capi tal en función del tiempo. La estructura de este trabajo se encuentra organizada de la siguiente manera. En la sección 2, se presenta el Hamiltoniano en valor presente, uno de los conceptos importantes en el planteamiento matemático del problema de crecimiento. En el transcurso de la sección 3, se plantean los problemas de optimización asociados con un consumidor racional con vida infinita que desea maximizar su utilidad por un bien de consumo perecedero. Dichos problemas se resuelven con con trol óptimo determinista en tiempo continuo. Asimismo, las decisiones óptimas del consumidor se examinan utilizando subrutinas de MATLAB ©. Por último, en la sección 4 se establecen las conclusiones y algunas limitaciones. El Hamiltoniano en valor presente Existen muchos problemas económicos que se pueden plantear como problemas de control óptimo. En la mayoría de ellos el funcional objetivo es una in te gral, en cuyo integrando aparece un fac tor de descuento, H (k t, c t, m t)= F (k t,ct )e Maximizar J (k t ) = ∫ 0∞ F (k t , ct ) e −ρ t dt suje to a k&t = G(k t , ct ), k0 constante, ct ∈ Ω, donde ct es la vari able de con trol y kt es la vari able de estado. El Hamiltoniano del problema anterior se de fine como 128 INGENIERIA Investigación y Tecnología +m t G (kt , c t ) donde m t es el multiplicador de Lagrange asociado a la restricción. Ahora bien, las condiciones necesarias de un máximo están dadas por ∂H = 0, ∂c t ∂H ∂F − ρt ∂G , − =− e − mt ∂k t ∂k t ∂k t ∂H − = G(k t , ct ). ∂m t − El Hamiltoniano en valor presente se de fine de la siguiente manera: H = He ρt ρt = F(k t , c t ) + m t e G(kt , ct ). Si se denota m t = λ t e −ρt , la ecuación an te rior se puede reescribir de la siguiente manera: H(k t , ct , λt ) . = F (k t , ct ) + λ t G(k t , ct ). Bajo este cambio de variable, las condiciones necesarias para un máximo son ahora las siguientes ∂H = 0, ∂ ct ∂H & − = λt −λ t ρ, ∂k t ∂H & − = kt ∂λ t − e −ρt , donde ρ es una tasa de descuento. Asimismo, la restricción de estos problemas es una ecuación diferencial. En este marco, se plantea el siguiente problema: –ρt El lector interesado puede consultar Cerdá (2001) y Chiang (1992) para más detalles del principio del máximo y del Hamiltoniano en valor presente. Modelos económicos de crecimiento endógeno Considere una economía cerrada que pro duce y consume un bien perecedero. En este caso, la identidad de la renta nacional en términos per ca pita está dada por FI-UNAM V.M. García-Guerrero y F. Venegas-Martínez yt = c t +i t + g t Esta condición establece que toda la producción, yt, del bien es destinada a tres fines: al consumo, ct, a la inversión, i t , y al gasto de gobierno, gt. En lo que sigue, por simplicidad, se supondrá que gt = 0. La condición (1), asegura el equilibrio en el mercado de bienes. El problema de optimización que desea resolver un consumidor racional, maximizador de utilidad, es el siguiente: Maximizar ∫ ∞ 0 u( ct )e −ρ t u(c t ) =1n (ct ) (1) El Hamiltoniano asociado a este problema está dado por: H(k, c, λ) =1n(ct ) + λ t (Akt − c t ) donde ? t es la variable de coestado. A partir de la condición (4) se sigue que λ&t = λ t (ρ − A) dt Por lo tanto, sujeto a yt = ct + k& t , k 0 da do, λt = λ 0 e donde c t es el consumo del individuo al tiempo t; kt es el capital del individuo al tiempo t ; u (ct) es la función de utilidad o satisfacción del individuo y ? es la tasa subjetiva de descuento. Si se supone que la empresa representativa pro duce el bien con una tecnología de la forma yt=Ak t, entonces el producto marginal de capital, A, se mantiene constante en el tiempo. De esta manera, el problema an te rior se transforma en Maximizar ∫ u (ct ) e ∞ 0 −ρ t dt La condición (3) con duce a ct = 1 λt Si se sustituye el valor de ? t en la ecuación an terior, se sigue que ct = (2) sujeto a k& t = Ak t − c t , k 0 da do 1 ( A− ρ )t e λ0 Ahora bien, como ct = Akt–k& t, se tiene que ct e Con base en el principio del máximo, las condiciones de primer orden (o condiciones necesarias) están dadas por: ∂H = 0, ∂ ct t ( ρ− A ) (4) ∂H = Ak − c t t, ∂λ t (5) donde H = H (k, c, λ , t) =u( ct ) − λ t (A k t − c t ). Función de utilidad logarítmica Suponga que la función de utilidad del problema (2) es la siguiente: =Ak t e − At - At − k&t e Si se integra la expresión an te rior se obtiene ∫ (3) ∂H & – = λt − λ t ρ, ∂kt −A t ∞ 0 t c e − At dt = ∫ ∞ 0 − At Ak t e ∞ −A t dt − ∫ 0 k&t e dt (6) Observe que la integración por partes del primer sumando del lado derecho de la ecuación an te rior pro duce ó k&t e −A t dt , ∫ ∞ 0 Ak t e − At dt = k0 + ∫ ∫ ∞ 0 Ak t e − At dt − ∫ 0∞ k&t e − A t dt = k 0 ∞ 0 Por lo tanto, de la ecuación (6), se sigue que ∫ ∞ 0 ct e − At dt = k 0 Vol.VI No.2 -abril-junio- 2005 129 Control óptimo determinista aplicado al problema económico de crecimiento endógeno =k 0 e ( A −ρ)t En la figura 2 se observa la trayectoria óptima del De esta manera, k 0 = ∫ 0 ct e ∞ − At dt = 1 λ0 ρ En consecuencia, 1 =k ρ 0 λ0 Por lo tanto, la trayectoria óptima de consumo satisface ct =k 0 ρe ( A− ρ) t donde c0= k0? . Claramente, esta trayectoria es un máximo (global), ya que ln(c t ) es una función cóncava. En la figura 1 se observa la trayectoria óptima del consumo como función de la tasa subjetiva de descuento ? y del producto marginal de cap i tal A . capital como función de la tasa ? y del producto mar ginal de cap i tal A. Figura 2 Ahora bien, como c&t = ( A − ρ)c t k&t = ( A − ρ)k t se tiene que la tasa de crecimiento del consumo y la tasa de crecimiento del capital se encuentran respectivamente expresadas por las siguientes identidades &ct = A − ρ, ct k&t = A −ρ kt Figura 1 Por otro lado, se tiene que ( A− ρ ) k&t = Ak t − ct = Ak t −k 0 ρe t Asimismo, como y t= Akt, se tiene que y& t= Ak& t. De lo an te rior, se concluye que y& t Ak& t A k&t k& t = = = = A -ρ yt yt A kt k t cuya solución, en términos del cap i tal, es k t = k 0 e At − e At = k0 e 130 At ∫ t 0 k 0 ρe ( A −ρ ) s e− As ds At − e (1 − e − ρt ) INGENIERIA Investigación y Tecnología En consecuencia, el consumo, el capital y el producto crecen (o decrecen) exactamente a la misma tasa A–ρ . Si A>ρ, la producción crece, mientras que si A <ρ la producción decrece. FI-UNAM V.M. García-Guerrero y F. Venegas-Martínez Cuando todos los sectores crecen (o decrecen) a la misma tasa se dice que el crecimiento en la economía es balanceado. En las figuras 3(a) y (c) se muestra el comportamiento del consumo y del capital respectivamente, cuando A>ρ. Asimismo, en las figuras 3(b) y (d) se muestra el compor- y al sustituir ?t en la ecuación an te rior, se tiene que 1 ct = λ 0 γ −1 e (ρ − A ) t γ −1 Ahora bien, como ct= Ak t – k&t, se sigue que ct e − At = Ak t e − At − At − k& t e Si se integra la expresión an te rior se obtiene ∫ c e −A t dt = ∫ 0∞ Ak t e − At dt − ∫ 0∞ k&t e −A t dt ∞ 0 t (7) Observe que la integración por partes del primer sumando del lado derecho de la ecuación an te rior pro duce tamiento del consumo y del capital respectivamente, cuando A<? . Figura 3 ó ∫ ∞ 0 Ak t e − At dt = k0 + ∫ ∞0 k&t e −A t dt ∫ ∞ 0 Ak t e Ahora, suponga que la función de utilidad del problema (2) está dada por ctγ γ t c H(kt , ct , λt ) = + λ t ( Akt − c t ) γ donde ?t es la vari able de coestado. A partir de la condición (4) se sigue que λ& t = λ t (ρ −A) λt =λ 0 e ( ρ− A ) La condición (3) con duce a ct = λt 1 γ −1 ∫ ∞ 0 t ce − At dt = k 0 De esta manera, k 0 = ∫ 0 ct e ∞ γ Donde k t y ct se definen como en el modelo an terior. El Hamiltoniano asociado a este problema se de fine como: Por lo tanto, ∞ − At dt − ∫ 0 k&t e dt = k 0 Por lo tanto, de la ecuación (7), se sigue que Función de utilidad exponencial I uc( t ) = − At − At 1 γ −1 d t = λ0 γ −1 γA − ρ En consecuencia, λ0 1 γ −1 γA− ρ = k 0 γ−1 Por lo tanto, la trayectoria óptima de consumo satisface γA − ρ ct = k 0 e γ −1 ( p − A)t γ −1 t donde c0 = k0 [( ?A – ? )/ (? –1)]. En la figura 4 se observa la trayectoria óptima del consumo como función de la tasa ? y del producto marginal de cap i tal A. Vol.VI No.2 -abril-junio- 2005 131 Control óptimo determinista aplicado al problema económico de crecimiento endógeno En la figura (5) se observa la trayectoria óptima de cap i tal como función de la tasa ? y del producto mar ginal de cap i tal A . Ahora bien, como Figura 5 &ct = y Por otro lado, se tiene que γA- ρ k&t = Ak t − ct = Akt −k 0 e γ -1 c&t ρ − A = ct γ −1 ( ρ − A)t γ− 1 k&t cuya solución en términos del cap i tal se encuentra dada por la siguiente expresión At −e At ∫ t 0 γA - ρ k o e γ −1 ρ −A γ -1 s e − As ds = kt INGENIERIA Investigación y Tecnología = ρ −A γ −1 Del mismo modo, como y t =Akt, se tiene que &yt= A&kt . De donde se concluye que } y& t Ak&t A k& t k& t ρ − A = = = = yt yt Ak t k t γ −1 ρ− A t γ-1 k 0e 132 ρ − A k& t = k t γ −1 Se tiene que la tasa de crecimiento del consumo y la tasa de crecimiento del cap i tal, son expresadas respectivamente, por las siguientes ecuaciones Figura 4 kt = k 0 e ρ −A ct γ −1 En consecuencia, el consumo, el capital y el producto crecen (o decrecen) exactamente a la misma tasa (? –A)/(?–1). Si A >?, la producción crece, mientras que si A<? la producción disminuye debido a que ?<1. Cuando todos los sectores crecen (o decrecen) a la misma tasa se dice que el crecimiento en la economía es balanceado. En las figuras 6 (a) y (c) se muestra el comportamiento del consumo y del capital, respectivamente cuando A >? . Asimismo, las figuras 6(b) y (d) muestran el comportamiento del consumo y del cap i tal, respectivamente cuando A< ?. FI-UNAM V.M. García-Guerrero y F. Venegas-Martínez Figura 6 ct = Función de utilidad exponencial II A − ρ t θ /θ ct = λ−1 e 0 Ahora bien, como ct= Ak t – k&t, se tiene que 1− θ t c λ Si se sustituye ? t en la ecuación an te rior, se sigue que Suponga ahora que la función de utilidad para el problema (2) se encuentra con la siguiente forma u(ct ) = 1 1 /θ t −1 1−θ ct e − At = Ak t e - At − k& t e -A t Si se integra la expresión an te rior se obtiene Donde k t y ct se definen como en el modelo an terior. El Hamiltoniano asociado a este problema se de fine como: ∫ ∞ 0 c te − At dt = ∫ ∞ 0 Ak t e − At ∞ −A t dt − ∫ 0 k&t e dt (8) 1− θ c −1 H(k t , ct , λ t ) = t + λ (Ak t − ct ) 1−θ donde ?t es la vari able de coestado. A partir de la condición (4) se sigue que λ& t = λ t (ρ −A) Por lo tanto, λt =λ 0 e ( ρ− A )t La condición (3) con duce a Observe que la integración por partes del primer sumando del lado derecho de la ecuación an te rior pro duce ∫ ∞ 0 Ak t e − At ∞ −A t dt = k0 + ∫ 0 k&t e dt ∫ ∞ 0 Ak t e − At ∞ − At dt − ∫ 0 k&t e dt = k 0 ó Por lo tanto, de la ecuación (8), se tiene que ∫ ∞ 0 ct e − At dt = k 0 Vol.VI No.2 -abril-junio- 2005 133 Control óptimo determinista aplicado al problema económico de crecimiento endógeno De esta manera, ∞ k0 = ∫ 0 c t e − At 1 − θ dt = λ 0 θ ρ − A(1− θ) En consecuencia, − 1/ θ λ0 ρ − A(1 − θ) = k 0 θ Por lo tanto, la trayectoria óptima de consumo satisface =k 0 e A −ρ t θ En la figura 8 se observa la trayectoria óptima del capi tal como función de la tasa ? y del producto mar ginal de cap i tal A. Figura 8 Ahora bien, como A −ρ &ct = ct θ y A −ρ k& t = k t θ Se tiene que la tasa de crecimiento del consumo y la tasa de crecimiento del capital se encuentran expresados respectivamente, de la siguiente manera Figura 7 A -ρ t θ ρ − A(1 − θ) ct =k 0 e θ donde c0 = k0 [? –A (1–?))/ ?]. Ob serve en la figura 7 la trayectoria óptima del consumo como función de la tasa ? y del producto mar ginal de cap i tal A. Por otro lado, se tiene que &ct A − ρ = ct θ &k A −ρ t = kt θ Del mismo modo, como y t= Akt, se tiene que t= y& Ak&t. De donde se concluye que A -ρ t θ y&t ρ − A(1 − θ) k&t = A k t − ct = A kt − k 0 e θ yt cuya solución en términos del cap i tal es k t = k0 e 134 At −e At ∫ t 0 A-ρ s θ − As ρ − A (1 − θ) k 0 e θ e ds INGENIERIA Investigación y Tecnología = A k& t yt = Ak&t Ak t = k& t kt = A −ρ θ En consecuencia, el consumo, el capital y el producto crecen (o decrecen) exactamente a la misma tasa [(A–?)/ ?]. Si A>?, la producción crece, mientras que si A<? la producción disminuye debido a que ? >0. Cuando todos los sectores FI-UNAM V.M. García-Guerrero y F. Venegas-Martínez Figura 9 crecen (o decrecen) a la misma tasa se dice que el crecimiento en la economía es balanceado. En las figuras 9(a) y (c) se muestra el comportamiento del consumo y del capital respectivamente, cuando A>?. Asimismo las figuras 9 (b) y (d) muestran el comportamiento del consumo y del capital respectivamente cuando A <?. Función de utilidad exponencial negativa Considere la siguiente ecuación de utilidad para el problema (2) u(ct ) = −e −θ c t En el marco de la teoría de con trol óptimo, kt es la vari able de estado y ct es la variable de control. El Hamiltoniano asociado a este problema se de fine como: H(k t , c t λ t ) = −e −θ c t +λ t ( Ak t − ct ) θe − θ ct − λt = 0 es decir ct = 1n( θ) − 1n(λ t ) θ y al sustituir ?t en la ecuación an te rior, se sigue que ct = 1n(θ) −1n(λ 0 ) − (ρ − A)t θ & se tiene que Ahora bien, como ct = Akt – k, ct e − At = Ak t e − At − At − k& t e Si se integra la expresión an te rior se obtiene ∫ c e − At dt = ∫ 0∞ Ak t e −A t dt ∞ −A t − k& e d t ∞ 0 t ∫ 0 t (9) donde ? t es la vari able de coestado. La condición (3) con duce a: Vol.VI No.2 -abril-junio- 2005 135 Control óptimo determinista aplicado al problema económico de crecimiento endógeno Observe que la integración por partes del primer sumando del lado derecho de la ecuación an te rior pro duce ó ∫ ∞ 0 ∫ ∞ 0 Ak t e − At dt = k0 + ∫ Ak t e − At ∞ − At dt − ∫ 0 k& t e dt = k 0 −A t k& e dt ∞ 0 t De esta manera, de la ecuación (9), se tiene que ∞ − At ∫ 0 c te dt =k 0 De donde se sigue que k 0 = ∫ 0 ct e ∞ − At 1 1n(θ) − 1n(λ 0 ) (ρ - A) dt = − θ A A2 En consecuencia, 1n (θ) − 1n(λ 0 ) = A θk0 + ρ -A A Por otro lado, se tiene que ρ −A − (ρ − A) t Aθ k 0 + A k&t = Ak t − ct = Ak t − θ cuya solución en términos del cap i tal k t es k0 e A t −e At ∫ t 0 ρ −A −(ρ − A)s Aθ k 0 + A e − A s ds θ De donde, kt= k 0+((A–?) / A?)t. En la figura 11 se observa la trayectoria óptima del cap i tal como función de la tasa ? y del producto marginal de cap i tal A. Por lo tanto, la trayectoria óptima de consumo satisface ct = A θk0 + ρ −A − (ρ − A)t A θ Ahora bien, como y&t yt donde ρ −A c0 = Aθk0 + /θ A Ob serve en la figura 10 la trayectoria óptima del consumo como función de la tasa ? y del producto mar ginal de cap i tal A. Figura 10 136 INGENIERIA Investigación y Tecnología ≠ c&t ct ≠ &k t kt se concluye que, para este modelo, no es posible que el crecimiento en la economía sea balanceado. Figura 11 Conclusiones Este trabajo desarrolló, dentro de un marco determinista, un modelo de crecimiento económico que explica de forma endógena los determinantes del FI-UNAM V.M. García-Guerrero y F. Venegas-Martínez mismo. Este problema considera aspectos como, consumo, producción e inversión. Asimismo, el modelo propuesto de scribe el comportamiento de la dinámica de las trayectorias de consumo y cap ital de los agentes. En el planteamiento del problema se supuso que el producto mar ginal del capital se mantiene constante en el tiempo. Por ello, se planteó el problema de decisión de un consumidor, que desea maximizar su utilidad por un bien de consumo perecedero, como un problema de con trol óptimo determinista en tiempo con tinuo. Se revisaron distintas funciones de utilidad en las que se examinaron las decisiones óptimas del consumidor utilizando subrutinas de MATLAB ©. Un aspecto interesante de este problema es que para los modelos con funciones de utilidad logarítmica y exponencial se encontró que el crecimiento en la economía es balanceado, debido a que el consumo, el capital y el producto evolucionan exactamente a la misma tasa. En cambio, para el modelo con una función de utilidad exponencial negativa se concluye que no es posible que el crecimiento en la economía sea balanceado. Referencias Cerdá E. (2001). Optimización dinámica . Ed. Prentice Hall. Chiang A. (1992). Dynamic Opti mi za tion . McGraw-Hill. Bibliografía sugerida Bellman R. (1957). Dynamic Programming. Princeton Univer sity Press. Bellman R. (1961). Adap tive Control Processes: A Guided Tour. Princeton Univer sity Press. Bertsekas Dimitri P. (1987). Dynamic Programming: Deter min istic and Stochastic Models . Prentice Hall. Chiang A. (1987). Métodos fundamentales de economía matemática. 3a Edición, McGraw-Hill. Dorfman, R. (1969). An Economic Inter pre ta tion of Optimal Control Theory. Amer ican Economic Review, No. 59, pp. 817-831. Fleming W. y Rishel R. (1975). Deter min istic and Stochastic Optimal Control. Springer-Verlag. Gelfand I.M. y Fomin S.V. (1963). Calculus of Vari a tions. Prentice-Hall. Venegas-Martinez F. (1999). Crecimiento endógeno, dinero, impuestos y deuda externa. Investigación económica , Facultad de Economía, UNAM, Vol. 59, No. 229, pp.15-36. Venegas-Martinez F. (2000). On consump tion, Invest ment and Risk. Economía Mexicana , Nueva Época, División de Economía, CIDE, 9, No. 2, pp.227-244. Venegas-Martinez F. (2000). Utilidad, aprendizaje y estabilización. Gaceta de Economía , ITAM, Año 5, No. 10, pp.153-169. Venegas-Martinez F. (2001). Tempo rary Stabi li za tion: A Stochastic Anal ysis, Journal of Economic Dynamics and Control, Vol. 25, No. 9, September, pp.1429-1449. Weber Richard (2002). Opti mi za tion and Control. Http://www.statslab.com.ac.uk/~rrw1/oc /index.html Semblanza de los autores Víctor Manuel García-Guerrero . Obtuvo la maestría en investigación de operaciones y la licenciatura en actuaría en la UNAM. Imparte cátedra en la Facultad de Ciencias de la UNAM y es miembro de la International Society on Multiple Criteria Decision Making desde 2003. Actualmente se desempeña como asesor de auditoría, metodología y administración de riesgos de crédito en BBVA Bancomer. Francisco Venegas-Martínez . Labora en el Tecnológico de Monterrey, Campus Ciudad de México como director del Centro de Investigación en Finanzas, director de la maestría y doctorado en ciencias financieras y como editor de la Revista Mexicana de Economía y Finanzas. Tiene estudios de postdoctorado en finanzas en Oxford Univer sity, un doctorado en matemáticas y otro en economía por la Wash ington State Univer sity, la maestría en economía en el ITAM, la mae stría en matemáticas y la de investigación de operaciones en la UNAM. Ha sido profesor-investigador en la UNAM, UAM, UP, Wash ington State University, CIDE, Oxford University y Tecnológico de Monterrey. Asimismo, ha sido profesor en el COLMEX en la Universidad Anáhuac y en el Colegio de la Frontera del Norte. Fue ganador del Premio Nacional en Investigación Económica “Maestro Jesús Silva Herzog 2002” y del premio Nacional “Mex Der 2003”. Vol.VI No.2 -abril-junio- 2005 137 INGENIERÍA Investigación y Tecnología VI. 2. 139-146, 2005 (artículo arbitrado) Del método científico al diagnóstico de problemas de ingeniería en México O.E. Sotelo-Rosas y L.C. Ramírez-Carrera Maestría en Ciencias en Ingeniería Administrativa División de Estudios de Posgrado e Investigación, Instituto Tecnológico de Orizaba E-mail: [email protected] y [email protected] (recibido febrero de 2004; aceptado: octubre de 2004) Resumen Si se carece de un sistema claro para realizar el diagnóstico de una situación problemática, habrá un entorpecimiento en el proceso de definición de objetivos, clave en la solución de situaciones de decisión. Por consiguiente, pueden darse soluciones equivocadas que no corresponden a las necesidades que deben atenderse en los sistemas empresariales. La detección de un vacío metodológico en este sentido, se dio como fruto de una revisión a cincuenta tesis de maestría elaboradas entre los años 2000-2004, y a la aplicación de cincuenta encuestas a alumnos de posgrado del Instituto Tecnológico de Orizaba. Este estudio de campo, justifica la elaboración de un método claro, confiable y sencillo, que disminuya la ambigüedad y complejidad presentes cuando se busca la solución de problemas de ingeniería. Se empleó el método de investigación cualitativo, cuyo objetivo científico principal es la comprensión de los fenómenos mediante el análisis de las percepciones e interpretaciones de los sujetos que realizan la investigación. Mediante un discernimiento analógico entre el llamado método científico y el inicio del proceso de decisión, y como parte funda mental de este proyecto, se propone un “Proceso inte gral de diagnóstico para resolver una situación problemática”, empleando herramientas de TQM. El modelo propuesto, fue validado en una empresa de la región de Orizaba, cuyo informe cae fuera del alcance de este artículo. Descriptores: Método científico, situación problemática, diagnóstico, solución de problemas de ingeniería, administración total de la calidad (TQM) Abstract If it is lacked a clear sys tem to make the prob lem atic sit u a tion di ag nos tic, will be an ob struc tion in the def i ni tion of ob jec tives pro cess, key in the de ci sion sit u a tions so lu tion. There fore, mis taken solu tions can oc cur, that do not cor re spond to the ne ces si ties that must be taken care of in the en ter prise sys tems. The detec tion of a methodologic emp ti ness in this sense is the fruit of a re vi sion to fifty Mas ter de gree the ses elab o rated be tween 2000-2004 years, and to the ap pli ca tion of fifty sur veys to posgrado´s stu dents of the Tech nologicalInstitute of Orizaba. This field study jus ti fies the elab o ra tion of a sure re li able and sim ple method that it di min ishes the am bi gu ity and com plex ity when the en gi neer ing prob lems so lu tions look for. We used the qual i ta tive in ves ti gation method, whose main sci en tific ob jec tive is the un der stand ing of the phe nom ena by means of the anal y sis of the per cep tions and in ter pre ta tions of the peo ple that make the in ves ti ga tion. By means of anal ogy dis cern ment be tween the sci en tific method and the be gin ning of the de ci sion pro cess, and as fun da mental part of this pro ject, we pro pose an “In te gral Pro cess of di ag no sis to solve a prob lem atic sit u a tion”, us ing TQM tools. The pro posed model was val i dated in a re gion of Orizaba Com pany, whose re port is out side to the reach of this ar ti cle. Keywords: Sci en tific method, prob lem atic sit u a tion, di ag nos tic, en gi neer ing prob lems so lu tions, to tal qual ity man age ment (TQM). Del método científico al diagnóstico de problemas de ingeniería en México Introducción Tomando como base datos obtenidos en un estudio de campo realizado en la División de Estudios de Posgrado e Investigación del Instituto Tecnológico de Orizaba, por medio de: a) una revisión a cincuenta tesis de las maestrías en ciencias en ingeniería administrativa e Ingeniería Industrial y b) encuestas a cincuenta compañeros alumnos de la Maestría en Ingeniería Administrativa; se pudo concluir, si bien parcialmente, que existen vacíos metodológicos en la fase del diagnóstico para la resolución de problemas tecnológicos, ya que el 30% de los estudiantes encuestados desconocieron con exactitud los pasos para la realización de éste; detectándose también una desinformación en cuanto al desarrollo, aplicación y conclusión de métodos de diagnosis. Los autores creen que carecer de un sistema claro y preciso para especificar un problema, entorpece la adecuada solución del mismo, hablando en términos de economización de recursos. Se requeriría, por lo tanto, de un método funcional, basado en el pensamiento racional, para realizar un diagnóstico de problemas que requieran de la aplicación de la ingeniería. Marco de referencia Una de las cualidades del ser humano, es su tendencia a tratar de comprender y explicar el mundo que lo rodea y buscar el por qué de los fenómenos que observa. Los procesos mentales que sirven de base para la solución de esta inquietud, se fundamentan en una amplia gama de métodos. El más conocido y empleado de ellos es el método científico, iniciado por Fran cis Bacon (1561- 1626), una de las personalidades más sobresalientes de la historia de la ciencia del mundo oc ci den tal moderno. “Francis Bacon sembró la semilla del método científico al atacar el método deductivo y señalar la necesidad de sustituirlo por la observación directa de los hechos, a partir de la cual podrían extraerse conclusiones generales.” (Van Dalen y Meyer, 1979). La gran cantidad de información producida de la recolección de hechos al azar, propuesta por el método de Bacon resultaba difícil de manejar, por 140 INGENIERIA Investigación y Tecnología lo tanto, hombres como Ga lileo Galilei (15641642), René Des cartes (1596-1650) e Isaac New ton (1712-1727), llegaron a superar la sim ple combinación de los procesos inductivo y deductivo, lo cual originó el moderno método científico. Más tarde, John Dewey (1859-1952), contribuye a enriquecer este método haciendo una recolección metódica de hechos que reemplazaron la simple acumulación arbitraria. En este trabajo, se ha seleccionado la exposición de las cinco etapas del método, desde la visión de Dewey, según Van Dalen y Meyer (1979). La razón de haber elegido a estos autores, es que se ha empleado su explicación en repetidas ocasiones exitosamente para la enseñanza del método científico, el cual se expone a continuación: “1. Percepción de una dificultad El individuo encuentra algún obstáculo, experiencia o problema que le ocupa, y entonces a) Carece de los medios para llegar al fin deseado. b) Tiene dificultad para determinar el carácter de un objeto, o bien, c) No puede explicar un acontecimiento inesperado. 2. Identificación y definición de la dificultad El individuo efectúa observaciones, registra hechos que le permiten definir su dificultad con mayor precisión. 3. Soluciones propuestas para el problema: hipótesis A partir del estudio preliminar de los hechos, el individuo formula las conjeturas inteligentes acerca de las posibles soluciones del problema. Las conjeturas –generalizaciones que ofrece para explicar los hechos que originan la dificultad– se denominan hipótesis. 4. Deducción de las consecuencias de las soluciones propuestas Deductivamente, el individuo llega a la conclusión de que, si cada hipótesis es verdadera, le seguirán ciertas consecuencias. FI-UNAM O.E. Sotelo-Rosas y L.C. Ramírez-Carrera 5. Verificación de las hipótesis mediante la acción El individuo pone a prueba cada una de las hipótesis buscando hechos observables que permitan confirmar si las consecuencias que deberán seguir, se producen o no. Mediante este procedimiento puede determinar cuál de las hipótesis concuerda con los hechos observables y, de esa manera, hallar la solución más confiable para su problema.” (Van Dalen y Meyer, 1979). Por otro lado, al enfocar el asunto de la solución de problemas desde las disciplinas administrativas, hemos seleccionado a Easton (1978), quien describe un método que consta de tres etapas fundamentales para iniciar un proceso activo de decisión: a) la percepción de una necesidad de cambio o reconocimiento del problema; b) el diagnóstico o entendimiento claro de la situación problemática actual y c) la definición de objetivos y metas de decisión a través de una jerarquía de objetivos; lo cual genera acciones concretas y acertadas para resolver la problemática en cuestión. El primer paso requiere que un sujeto, a quien se le llama decisor, perciba un mal funcionamiento y/o la obsolescencia de un cierto sistema. La diferencia entre estos dos términos, es que los problemas con mal funcionamiento son factibles de corregir mediante ciertas mejoras, contrario a la obsolescencia, la cual se entiende como una inadecuación del sistema estudiado a las circunstancias actuales. Para realizar el diagnóstico del problema, que es la segunda etapa de este método, Easton recomienda un procedimiento de diagnóstico que consta de once pasos, el cual puede ser más simple o más complejo, según la naturaleza del problema. El tercer y último paso clarifica, a través de la jerarquía de objetivos, las decisiones que deben tomarse, pues se parte del supuesto de que el diagnóstico ha sido hecho y se han verificado las causas que originan la problemática en cuestión. Para contar con una visión tanto externa como interna de los factores que inciden directamente al mal funcionamiento de un sistema, tales como estrategias, procesos operativos, productos, servicios y recursos humanos, tecnológicos y financieros, se recomienda un análisis DAFO, el cual estudia las debilidades, amenazas, fortalezas y oportunidades (Udaondo, 1998). De esta manera, los puntos fuertes internos que estén relacionados con oportunidades externas, orientan acerca de lo que debe ser impulsado por la empresa mediante estrategias bien definidas. De igual modo, el análisis comparativo de los puntos débiles y su correlación con amenazas externas, indicará en cuáles puntos se enfatizará en el momento de cambiar dicha estrategia o de introducir elementos que fortalezcan y refuercen a la empresa en sus áreas de mayor vulnerabilidad. Para lograr un panorama más profundo de la situación problemática interna, se sugieren técnicas complementarias, como son algunos diagramas utilizados por la Administración Total de la Calidad (TQM) por sus siglas en inglés, Total Qual ity Management, por ejemplo: el de Ishikawa; de relaciones y de afinidad. El diagrama de Ishikawa, como es sabido, describe las relaciones entre el efecto (problema) con sus causas potenciales. El diagrama de relaciones, que tiene cierta similitud con el anterior, pertenece a la familia enunciada por Bustamante y Prudente (2001) como las “Nuevas 7 herramientas del control de calidad”. Se usa para disminuir la complejidad en una situación problemática enumerando, de forma organizada y racional, las relaciones causa-efecto entre las variables que presentan algún desorden existente, y por lo tanto, serviría también para realizar un diagnóstico. Adicionalmente, se tiene el diagrama de afinidad empleado por Solís Coria (2002), cuya utilidad se concentra en la clarificación del problema en sí mismo, mediante la integración de datos obtenidos de un fenómeno complejo cualquiera. TQM se dirige más a la administración básica que al con trol de calidad, ya que confiere un gran valor al hecho de conocer y satisfacer las necesidades de los clientes. Incluye además, cualquier aspecto del producto: procesos, diseño y sistemas de administración y control que tengan algún efecto potencial en su calidad (Hicks, 2000). Vol.VI No.2 -abril-junio- 2005 141 Del método científico al diagnóstico de problemas de ingeniería en México Desarrollo Planteamiento del problema Se percibió una inconsistencia metodológica para diagnosticar problemas de ingeniería, a partir de tres textos que como parte fun da men tal describen la aplicación de una jerarquía de objetivos (Easton, 1978). A continuación se reseñan: a) Artículo de revista de divulgación (Morales et al., 2001), que informa sobre la construcción de una jerarquía de objetivos en su modalidad de árbol de medios metas, para clarificar el proceso de validación de una compañía farmacéutica de la región de Orizaba. Este trabajo carece de un método de diagnóstico, o cuando menos, no se publicó. b) El trabajo de tesis de maestría de Cruz Moreno (2002), quien resolvió la necesidad de aumentar la eficiencia de una empresa de servicios de cómputo DCASIA. Para ello, primero realizó un diagnóstico con el uso de un análisis DAFO y a partir de ahí, construyó una jerarquía de objetivos para satisfacer su problema. Como enlace diagnóstico–jerarquía, la tesista realizó un diagrama de flujo concep tual, de acuerdo a sus conocimientos y experiencia en dicha organización. c) Otro trabajo de tesis en el que se emplea esta forma de solucionar problemas, es el realizado por Vela Cao Romero (2003), quien a partir de dos técnicas: un análisis DAFO para establecer el entorno externo e interno de la empresa Bombas Sumergibles de Córdoba, S.A. de C.V. y un diagrama causaefecto, identificó la problemática de la empresa. Como tercer y último paso, construyó la jerarquía de objetivos. A partir del análisis de estos trabajos, se vislumbra que se puede ahondar más en la investigación de esta posible deficiencia. Por lo que se decidió detectar la familiaridad que existe por parte de los alumnos de la División de Estudios de Posgrado e Investigación del Instituto Tecnológico de Orizaba, hacia el empleo de herramientas de calidad, tales como el diagrama de Ishikawa, el 142 INGENIERIA Investigación y Tecnología diagrama de afinidad y el diagrama de relaciones que forman parte de las siete herramientas de TQM. Para ello, se realizó la aplicación de una encuesta a través de un cuestionario a cincuenta alumnos y se revisaron cincuenta trabajos de tesis de las áreas de ingeniería administrativa y de ingeniería in dus trial. A partir de ello, se obtuvieron datos que reflejaron un área de oportunidad que, desde el enfoque de este trabajo, es determinante para justificar el desarrollo del mismo: la falta de un procedimiento sistemático para realizar diagnósticos de ingeniería, no importando las herramientas que se usen posteriormente para la solución del problema identificado. Objetivo general Diseñar un método claro, confiable y sencillo que, tomando como base algunas técnicas de Calidad Total, disminuya la ambigüedad y la complejidad en la elaboración de un diagnóstico en ingeniería, fundamentando este proceso en la similitud de la interpretación del método científico propuesta por Van Dalen y Meyer y la metodología del inicio del proceso de decisión descrita por Easton (1978). Objetivos particulares – Aportar un método que ayude a capturar las necesidades de cambio de decisores potenciales. – Aprovechar la similitud entre los pasos del método científico y el diagnóstico en ingeniería. – Establecer una metodología para diagnosticar científicamente. – Obtener un apoyo metodológico para hacer más ágil el inicio del proceso de decisión. – Obtener una herramienta útil en la ingeniería administrativa. – Promover el diagnóstico como parte fundamental de la aplicación de la ingeniería. Justificación Los resultados de este proyecto servirán para que, a partir de las percepciones que un decisor potencial tiene sobre el mal funcionamiento u obsolescencia de un sistema empresarial, de una manera consistente y clara se puedan emitir FI-UNAM O.E. Sotelo-Rosas y L.C. Ramírez-Carrera diagnósticos relevantes; lo que permitirá encuadrar el problema adecuadamente en tiempo y forma, y así contribuir a la disminución de la complejidad en la solución de los mismos. También se piensa que el hecho de atraer la atención sobre la importancia de detectar e identificar problemas adecuadamente, influirá en los estudiantes de ingeniería de manera provechosa, evitando pérdidas de tiempo y desperdicio de recursos. Estudios y procedimientos Apoyándose en la visión que del método científico aportan Van Dalen y Meyer (1979) y la metodología de Easton (1978), acerca del inicio del proceso de decisión , se efectuó un análisis identificando un paralelismo entre ambos procesos, hallándose las relaciones que se expresan en la figura 1. Ambos inician con la percepción de un problema o reconocimiento de una necesidad de cambio, pero mientras que en el método científico se observa la situación problemática en forma detallada para plantear las hipótesis y posibles soluciones para verificarlas, en la ingeniería se emplean herramientas de calidad para elaborar un plan de diagnóstico. En ambos métodos existe una etapa final llamada “generación de soluciones preliminares”. Metodología Éste se define como un proyecto de investigación cualitativa, cuyo objetivo científico principal es la comprensión de los fenómenos mediante el análisis de las percepciones e interpretaciones de los sujetos. 1. Selección del problema Se realizó a través de la percepción del mismo 2. Elección del diseño Longitudinal y flexible 3. Acceso al campo Se llevó a cabo en las instalaciones de la División de Estudios de Posgrado e Investigación del Instituto Tecnológico de Orizaba. 4. Muestra Cincuenta tesis de las maestrías en ciencias en ingeniería administrativa e industrial desarrolladas entre los años 2000-2004 (aproximadamente el 90 % de la población). 5. Selección de informantes Cincuenta estudiantes de la maestría en ciencias en ingeniería administrativa en el año 2004 (aproximadamente el 90 % de la población). 6. Procedimientos para la recolección y el análisis de la información Observación directa, aplicación de encuestas y entrevistas. Conteo. MÉTODO CIENTÍFICO SEGÚN EL ENFOQUE DE VAN DALEN Y MEYER Percepción de una dificultad MÉTODO PROPUESTO PARA DIAGNÓSTICO EN INGENIERÍA Reconocimiento e identificación de una necesi dad de cambio Identificación detallada del problema Elaboración Establecimiento de de hipótesis de un diagnóstico empleando Soluciones propuestas y verificación Generación de soluciones preliminares herramientas de TQM Generación de soluciones preliminares Figura 1. Diagrama comparativo entre las etapas del método científico y el diagnóstico en ingeniería propuesto Vol.VI No.2 -abril-junio- 2005 143 Del método científico al diagnóstico de problemas de ingeniería en México Análisis de resultados El método de diagnóstico aquí propuesto (Figura 2), se recomienda para dar solución a aquellos entornos empresariales que presentan áreas de oportunidad. En primer lugar y como requisito esencial para la aplicación asertiva del mismo, según experiencia de los autores de este artículo, se deben conocer la visión, misión, objetivos generales e individuales de la organización y/o del área donde se localiza la situación problemática. De no contar con ellos la empresa u organización, se recomienda enfáticamente diseñar primero estos elementos. A continuación se explica la figura 2: 1. El método de diagnóstico empieza cuando se reconoce una necesidad de cambio, lo que equivale a percibir un problema. 2. Para que se analice correctamente el asunto a mejorar, es conveniente conocer lo mejor posible los entornos externo e interno donde éste se encuentre, por tanto se sugiere trabajar con: a) El análisis DAFO. Con ello se analizan las potencialidades del medio en donde se originó la identificación de la necesidad del cambio, ya sea negativa o positivamente, de dos maneras diferentes: amenazas y oportunidades. Posteriormente, el analista debe ampliar su conocimiento de todos y cada uno de los aspectos del entorno interno de la situación problemática. Esto se hará aplicando sistemáticamente las siguientes herramientas. b) Diagrama de afinidad . Éste se usará para generar ideas sobre todas las posibles causas que originan la situación problemática y su organización lógica. c) Diagrama causa-efecto . Será útil como apoyo para comprender las ideas y su estructura, fruto del diagrama de afinidad que refleja la relación entre el efecto (problema) con las causas potenciales que se desprenden de una problemática determinada. 1. Reconocimiento e identificación de la necesidad de cambio 2. Realización de un diagnóstico a) Diagnóstico externo con un análisis DAFO a) Diagnóstico interno aplicando herramientas Diagrama de afinidad Diagrama causa-efecto Diagrama de relaciones 3. Definir objetivos de decisión Figura 2. Proceso inte gral de diagnóstico para resolver una situación problemática (Elaboración pr opia, 2003) 144 INGENIERIA Investigación y Tecnología FI-UNAM O.E. Sotelo-Rosas y L.C. Ramírez-Carrera d) Diagrama de relaciones. Es de suma utilidad cuando se presentan problemas poco claros que cuentan con causas que se ligan entre sí de forma complicada, y como conclusión ordenada para tener como resultado un diagnóstico detallado. El analizar las relaciones de causa-efecto por los distintos métodos, revela la importancia y el poder relativo de cada una de ellas, así como su interrelación dinámica. Al concluir con la aplicación de las herramientas, se deben haber obtenido la generación de soluciones preliminares. Conclusiones y recomendaciones Mediante este método se ofrece una técnica a los decisores potenciales de las empresas, la cual les ayuda a capturar sus percepciones sobre necesidades de cambio y aprovechar éstas para promover el diagnóstico como parte fundamental de la aplicación de la ingeniería. La similitud entre los pasos del método científico y el diagnóstico en ingeniería, permite aprovechar los recursos de una manera más racional, que va de acuerdo con el pensamiento científico. Esto servirá como apoyo metodológico para hacer más ágil el inicio del proceso de decisión. Esperamos que esta herramienta sea cada vez más usada en la ingeniería administrativa, evitando pérdidas de tiempo y soluciones equivocadas en el ámbito empresarial. Referencias Aiteco (2003). “Diagrama causa-efecto”, obtenido de la Red Mundial el 7 de Febrero, http://www.aiteco.com/ishikawa.htm. Bustamante A. y Prudente E. (2001). Las nuevas siete herramientas del control de calidad. Revista UPIICSA, mayo-agosto, pp. 31-35. Cucei (2003). “Diagrama de ishikawa”, métodos para su construcción, obtenido de la Red Mundial el 8 de febrero, http://www.cucei.udg.mx/~luisdegu/calida d_total/Unidad_2/herbas/ishi1/ishi1.html . Cruz-Moreno A.M. (2001). Modelo de control interno para incrementar la eficiencia en centros de computo de la iniciativa privada. Tesis de Maestría en Ciencias en Ingeniería Administrativa, Instituto Tecnológico de Orizaba, México. Easton A. (1978). Decisiones administrativas con objetivos múltiples. Edito rial Limusa, México, DF. Hicks P.E. (2000). Ingeniería Indus trial y Administración . Edito rial CECSA, México, DF. Ishikawa K. (1993). ¿Qué es control total de calidad? Edito rial Norma, Colombia. (2003). “Las 7 herramientas de control de calidad”, obtenido de la Red Mundial el 10 de febrero, http://www.geocities.com/WallStreet/excha nge/9158/7herra.htm. (2003). “Las nuevas 7 herramientas de la calidad”, obtenido de la Red Mundial el 10 de febrero http://www.geocities. com/CapeCanaveral/Hangar/4434/l7nh.html. (2003). “Las nuevas 7 herramientas de la calidad”, obtenido de la Red Mundial el 10 de febrero, http://www.woerldclassconsultant.org/serv03.htm . Morales G., Quiroz F. y Ramírez-Carrera L.C. (2001). Aplicación de un árbol de medios y metas al proceso de validación de una compañía farmacéutica. Revista UPIICSA, mayo-agosto, pp. 19-25. Solís-Coria M.L. (2002). Propuesta de un modelo de investigación para el Colegio de Bachilleres. Tesis de Maestría en Ciencias en Ingeniería Administrativa, Instituto Tecnológico de Orizaba, México. Udaondo M. (1998). Gestión de la calidad. Edito rial Díaz de Santos, S.A., España. Van-Dalen D. y Meyer W.J. (1979). Manual de técnica de la investigación educacional . Edito rial Limusa, México . Vela-Cao-Romero L. (2002). Diseño y aplicación de una Jerarquía de objetivos para la empresa Bombas Sumergibles de Córdoba S.A. de C. V. Tesis de Licenciatura en Ingeniería Indus trial, Instituto Tecnológico de Orizaba, México. Vol.VI No.2 -abril-junio- 2005 145 Del método científico al diagnóstico de problemas de ingeniería en México Semblanza de los autores Oscar Ernesto Sotelo-Rosas. Es ingeniero indus trial por el Instituto Tecnológico de Orizaba, logró el título profesional por alto promedio, obtuvo el grado de maestro en ciencias en ingeniería administrativa por el Instituto Tecnológico de Orizaba, alcanzó este nivel por su trabajo de tesis llamado “Diseño, construcción y aplicación de un método que gestione la solución de problemas de decisión”, del cual se desprende esencialmente este artículo. También es ilcenciado en informática y técnico en construcción egresado del Centro de Bachillerato Tecnológico indus trial y de servicios 142. Lilia C. Ramírez-Carrera. Es licenciada en ingeniería química por la Facultad de Ciencias Químicas de la Universidad Veracruzana, obtuvo la maestría en ciencias en ingeniería indus trial por el Instituto Tecnológico de Orizaba. Asimismo, es especialista en docencia por el Centro Interdisciplinario de Investigación y Docencia en Educación Técnica de Querétaro, Qro. Actualmente se desempeña como profesora del posgrado en el Instituto Tecnológico de Orizaba. 146 INGENIERIA Investigación y Tecnología FI-UNAM