EQUIPO EDITORIAL: Director: Director vitalicio: Editor: Editor revista digital: Diagramación: Diseño de la portada: Tcnl. DIM. Julio Cesar Narváez Tamayo MSc. Fernando Yañez Romero Ing. Freddy Medina Miranda Tte. Com. Rolando Sánchez Montalvo TF.CGON. Wilson Charlie Seoane Sánchez Univ. Diego Feraudy Pinto Univ. Cesar Antonio Narváez Gutiérrez [email protected] [email protected] [email protected] [email protected] [email protected] [email protected] [email protected] EDICIÓN TECNICA: Escuela Militar de Ingeniería Unidad Académica La Paz Carrera de Ingeniería de Sistemas Irpavi, La Paz - Bolivia Tel. (0 591) 2775536 URL: www.emi.edu.bo E-mail: [email protected] Reservados todos los derechos de reproducción total o parcial del contenido de esta revista. Copyright © 2014 Ingeniería de Sistemas CONTENIDO REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 PAG. EDITORIAL 3 PRESENTACIÓN DEL RECTOR 4 PRESENTACIÓN DEL VICERRECTOR 5 PRESENTACIÓN DEL DIRECTOR DE LA UNIDAD ACADÉMICA LA PAZ 6 ARTÍCULOS DE DOCENTES 7 ARTÍCULOS DE ESTUDIANTES 50 ACTIVIDADES DE LA CARRERA 88 FOTOS DE ESTUDIANTES POR CURSO 92 1 Ingenieria de Sistemas Competencia General Competencia por Área El Ingeniero de Sistemas graduado de la EMI: “Determina el diseño, desarrollo, implementación, evaluación, mantenimiento, soporte y retiro de sistemas con enfoque sistémico y visión emprendedora, aplicando nuevas tecnología de información y comunicación realizando el modelado y automatización de sistemas, desarrollando sistemas de gestión empresarial y de producción orientados a la toma de decisiones que optimicen los procesos, con creatividad, liderazgo y pensamiento crítico en un entorno complejo conflictivo multidisciplinario”. √ √ √ √ Sistemas de Información y Conocimiento. Tecnologías de la Comunicación y Redes. Modelación y Automatización de Sistemas. Sistemas de Gestión Empresarial. EDITORIAL REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Tcnl. DIM. Julio César Narváez Tamayo JEFE DE LA CARRERA DE INGENIERÍA DE SISTEMAS La revista Paradigma, por el importante rol que cumple, de difundir las actividades de investigación y de interacción social de la comunidad universitaria de la Carrera de Ingeniería de Sistemas de la Escuela Militar de Ingeniería, a partir de la presente gestión se publicará semestralmente. La implantación gradual en la Carrera del nuevo diseño curricular por competencias, que se enfoca en dotar al estudiante de competencias del saber, saber hacer y saber ser, haciendo uso de métodos, técnicas y herramientas didácticas centradas en el aprendizaje del estudiante, el cual es fundamentalmente colaborativo y sustentado en la investigación y en la interacción social, tiene en la revista Paradigma un instrumento de apoyo para la publicación de los resultados de investigación y de los efectos de las tareas de interacción social. Asimismo, la elaboración del trabajo de Grado por estudiantes de quinto año, como requisito para la titulación, da lugar a la presentación de artículos con los resultados del proceso de investigación. La Jefatura de Carrera ha realizado importantes esfuerzos para la implementación del laboratorio de Redes, que se constituye en el más completo y actual del país y que, a partir de la presente gestión es utilizado por estudiantes de la Carrera, de otras Carreras y del postgrado de la EMI. Por otra parte, se está en proceso de adquisición de un moderno laboratorio de robótica y automatización, que apoyará el área competencial de Modelado y Automatización de Sistemas del nuevo Diseño Curricular. El ininterrumpido avance de la Ciencia y de la Tecnología, relacionada con la Ingeniería de Sistemas hace que la investigación y la interacción social sean una prioridad para los docentes, estudiantes y los profesionales egresados de la Carrera. La convergencia tecnológica, la computación en la nube, los métodos estadísticos multivariantes, la implementación de controles de seguridad de la información, la identificación de modelos borrosos usando clustering, la detección de patrones caóticos en fenómenos de contaminación y otras investigaciones presentadas en los artículos de la revista, requieren ser aplicados en nuestro medio, para generar ventajas competitivas y comparativas que contribuyan al desarrollo tecnológico del país. Finalmente, un grato homenaje al MSc. Fernando Yañez Romero, director vitalicio de la revista, quien, en fecha 6 de junio de 2014, ha sido reconocido por el Señor Rector Cnl. DAEN. Alvaro Rios Oliver, por los servicios prestados a la EMI. 3 PRESENTACIÓN REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 4 Cnl. DAEN. Álvaro Alfonzo Ríos Oliver RECTOR DE LA ESCUELA MILITAR DE INGENIERÍA En las diferentes etapas de mi desarrollo profesional, en la Escuela Militar de Ingeniería, he tenido la oportunidad de participar y/o ser testigo de la evolución de esta publicación que recoge el esfuerzo intelectual y de investigación de directivos, docentes y estudiantes de la Carrera de Ingeniería de Sistemas. La importancia de una publicación como la presente radica en la posibilidad de permitir que todo el trabajo desarrollado en la academia trascienda; trascienda el ámbito físico de los recintos universitarios y, tal vez con mayor preponderancia, trascienda a nuevas generaciones de profesionales, estudiantes e investigadores en general, que encuentren en estas páginas la inspiración para nuevos emprendimientos. A través de estas líneas hago llegar un saludo a las autoridades, docentes, estudiantes y personal administrativo de la Carrera de ingeniería de Sistemas, además mis congratulaciones al equipo de trabajo que ha hecho posible una nueva edición de la Revista Paradigma, esfuerzos de esta naturaleza contribuyen a mantener y dignificar la imagen de nuestra Casa de Estudios Superiores. VICERECTOR REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Cnl. DAEN. Francisco Rivero Villca VICERRECTOR ESCUELA MILITAR DE INGENIERÍA Los bolivianos hemos ingresado a una etapa de progresiva liberación de nuestras capacidades productivas, intelectuales e innovadoras, sobre la base de un modelo de desarrollo con inclusión social y nos encaminamos con paso firme al horizonte de la definitiva emancipación científico - tecnológico. La emancipación científico - tecnológica es una condición imprescindible para la sustentabilidad de cualquier estrategia de verdadero desarrollo en los campos social, humano y económico. Soberanía científico - tecnológica implica la potestad de un estado de elegir libremente y sin condicionamientos externos el rumbo al que prefiere orientar su desarrollo en los campos de la ciencia y tecnología sobre los cuales se basa su consolidación como nación con capacidad de responder a las demandas de su población y de insertarse en el contexto mundial en condiciones de igualdad. Considerando que el conocimiento ya no es una mercancía de acceso restringido, sino un bien público cuyo manejo y dominio determinará el poder de un Estado. El contenido de la presente revista sin duda alguna contribuye a la transmisión, difusión y divulgación del conocimiento, y representa un aporte importante en la búsqueda de la soberanía científico - tecnológica. 5 DIRECTOR REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 6 Cnl. DAEN. Roberto René Alarcón Loza DIRECTOR DE LA UNIDAD ACADÉMICA LA PAZ La Escuela Militar de Ingeniería y, en particular, la Unidad Académica La Paz, inmersa en el proceso de implementación del Diseño Curricular por Competencias, tiene el propósito de impulsar la investigación y la interacción social, para dotar a los estudiantes de una formación que responda al encargo social, con las competencias requeridas por el mercado profesional, orientadas a apoyar el desarrollo y la industrialización del país. La revista Paradigma contribuye a incentivar a los docentes y estudiantes de la Carrera de Ingeniería de Sistemas en la realización de trabajos de investigación, además de cumplir con el importante rol de difundir las actividades de interacción social. En este contexto, es una grata satisfacción para la Dirección de la Unidad Académica La Paz, presentar una nueva edición de la revista Paradigma, destacando el esfuerzo realizado en su elaboración por la Jefatura, docentes y estudiantes de la Carrera de Ingeniería de Sistemas. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 “Rough sets” y su aplicación en la Ingeniería Kansei PAOLA CARRANZA BRAVO Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz-Bolivia [email protected] RESUMEN El presente artículo trata de la teoría de conjuntos Rough, que es una aproximación matemática para el análisis y la modelización de problemas de clasificación y de decisión relacionados con la información vaga, imprecisa, incierta o incompleta, mostrando sus aplicaciones a la Ingeniería Kansei en la determinación de las características del diseño que producen las percepciones, sensaciones y gustos identificados del consumidor, concluyendo con la elaboración de la herramienta informática KES (Kansei Engineering System) ABSTRACT This article deals with the Rough Set theory, a mathematical approach to the analysis and modeling ofclassification problems and decisions relating to the vague, imprecise, uncertain or incomplete information, and show its application to Kansei Engineering in determination of design features that produce perceptions, feelings and tastes of consumers identified, concluding with the development of the software tool KES (Kansei Engineering System). INGENIERÍA KANSEI Es una tecnología que emplea desarrollos y métodos rigurosos que permiten manejar la información de las preferencias emocionales de los consumidores, aplicando técnicas estadísticas y analíticas de ingeniería, para comprenderlas profundamente y para actuar sobre los elementos del sistema (producto, servicio, publicidad, etc.) que percibe el cliente. elementos del sistema (producto, servicio, publicidad, etc.) que más inciden en las emociones percibidas por el usuario, como también, modificar los diseños en aquellos puntos que pueden facilitar la creación de nuevas emociones. ROUGH SET La técnica “Rough Set” se basa en la suposición de que con todo objeto X del universo U que está considerando se puede asociar alguna información (datos, conocimiento), expresado por medio de atributos que describen el objeto (Pawlak, 1982) que en general, no pueden ser caracterizados de manera precisa en términos de la información disponible. Figura 1. Kansei La Ingeniería Kansei permite medir las emociones a través de estudios de semántica diferencial, conocer los Figura 3. Rough Set LA TEORÍA DE LOS ROUGH SETS Aplicación de la Inteligencia Artificial Figura 2. Ingeniería Kanse La teoría de conjuntos Rough es una aproximación matemática se ocupa del análisis y la modelización de problemas de clasificación y de decisión relacionados con la información vaga, imprecisa, incierta o incompleta. Se han propuesto conjuntos aproximados para una 7 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 variedad de aplicaciones, incluyendo la inteligencia artificial y las ciencias cognitivas, especialmente la máquina de aprendizaje, descubrimiento de conocimiento, minería de datos, sistemas expertos, razonamiento aproximado, y reconocimiento de patrones. Analiza las decisiones pasadas (experiencia histórica) de un determinado decisor de manera cuantitativa, para, basándose en esas decisiones, explicitar reglas. Estas reglas constituyen la esencia de las decisiones pasadas y contribuyen a objetivarlas. Las reglas obtenidas pueden ayudar a tomar decisiones futuras. [Aplicando esta metodología se consigue]: • • Evaluar la importancia de los atributos de condición (los que describen los objetos del sistema de información); Eliminar los atributos y objetos redundantes en el sistema para obtener los denominados reductos (conjuntos mínimos de atributos que mantienen la misma clasificación que el conjunto inicial); una vez reducido el sistema, se obtiene el algoritmo consistente en un conjunto de reglas de decisión en forma de sentencias lógicas: (si <condiciones> entonces <clase de decisión>) FUNDAMENTOS DE LA TEORÍA ROUGH SET - RS La teoría Rough Set (Conjuntos aproximados) ha tenido un gran desarrollo y aplicación en diferentes campos del conocimiento. Esta teoría fue desarrollada a mediados de los años ochenta por el científico Polaco Pawlak. La teoría Rough Set fue desarrollada en un ámbito de inteligencia artificial para analizar datos donde existe alta ambigüedad, permitiendo su clasificación y toma de decisiones más racional. El propósito principal de la teoría RS es la transformación de datos en conocimiento, es decir, se trata de extraer información útil de las bases de datos (Greco et al. 2001;Pawlak 1982 y 1991). METODOLOGÍA ROUGH SETS (CONJUNTOS APROXIMADOS) 1. Modelo Rough Set Original (RSO) La teoría Rough Set permite establecer una metodología para la extracción de patrones dentro de un conjunto de datos y está basada en los conceptos de “discernibilidad y aproximación”. 1. Discernir significa “conseguir distinguir una cosa de otra, por medio de los sentidos o de la 8 razonamiento humano”, lo que busca es encontrar todos aquellos objetos que producen distinto tipo de información, es decir, aquellos objetos que son “discernibles” (Pawlak y Slowi_ski, 1994). 2. Aproximación se refiere a la existencia de vaguedad, imprecisión en la información de un conjunto de objetos, se puede conseguir una mayor información cuando se utiliza conjuntos aproximados. A partir de estos conceptos se construye toda la estructura matemática del Rough Set (Pawkak y Skowron, 2007). Esta consiste en buscar las aproximaciones superior e inferior basada en las reglas de decisión de los datos “Rough Kansei”. Un modelo apoyado en la técnica de inteligencia artificial “Rough set” para seleccionar el conjunto de amenazas críticas en las cuales se deben enfocar los gestores de proyectos de desarrollo de software, para mitigar los riesgos y dar cumplimiento a los requerimientos y necesidades demandados por el usuario en este tipo de proyectos. Esta teoría de “Rough Set” asume la representación del conocimiento de los objetos en forma de una tabla de información, que es un caso especial de un sistema de información. En las filas de la tabla se indican los objetos (acciones, alternativas, eventos, candidatos, pacientes, empresas, etc.), mientras que las columnas corresponden a los atributos (característica, variables, condiciones, indicadores, etc.). Las entradas en la tabla son los valores del atributo (Pawlak) Según O _Leary (1995), los sistemas inteligentes pueden construirse a través de dos enfoques: 1. Introduciendo en el ordenador el conocimiento que los expertos humanos han ido acumulando a lo largo de su vida, obteniéndose lo que se conoce como sistema experto, ó 2. Elaborando programas capaces de generar conocimiento a través de datos empíricos y, posteriormente, usar ese conocimiento para realizar inferencias sobre nuevos datos que transformará una base de datos en una base de conocimiento. Dentro de este enfoque podemos distinguir entre las técnicas que buscan el conocimiento a través de anticipar patrones en los datos, entre ellas las diversas redes neuronales, y las consistentes en inferir reglas de decisión a partir de los datos de la base. Entre ellas la teoría Rough Set. Mosqueda (2010), distingue tres categorías generales de imprecisión en el análisis científico. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 1. La teoría Rough Set que es útil cuando las clases que se catalogan los objetos son imprecisas, pero, sin embargo, pueden aproximarse mediante conjuntos precisos. No se necesita ninguna información adicional acerca de los datos, tales como una distribución de probabilidad en estadística, o el grado o probabilidad de pertenencia en la teoría de lógica difusa. Es así que el modelo Rough Set se advierte como un método perteneciente a los Sistemas de Inducción de Reglas y Árboles de Decisión (o métodos de criterio múltiple), cuyo enfoque, a su vez, se encuadra dentro de las aplicaciones de la Inteligencia Artificial. equivalencia B*, es también referida como la clasificación y también es notada como U/IND(B). Los objetos que pertenecen a la misma clase de equivalencia Xi son indiscernibles, si están en distinta clase los objetos son discernibles con respecto al subconjunto de atributos B. Las clases de equivalencia Xi, i=1, 2, ..., r de la relación IND(B) son llamados los subconjuntos elementales en el sistema de información S. Un conjunto elemental de B se nota como [x]B y está definido así: [x]B = {y_U: xIND(B)y}. Un par ordenado AS=(U,IND(B)) es llamado un espacio de aproximación. Cualquier unión de conjuntos elementales en AS es llamado un conjunto compuesto en S. 1.1) SISTEMA DE INFORMACIÓN 1.3) Tablas de decisión La extracción de conocimiento es un proceso que tiene como referencia un sistema de información. Un sistema de información está compuesto por una cuádrupla S=U, A, V, f, donde: U el universo cerrado es un conjunto finito de N objetos {x1, x2, ... ,xN}; A es un conjunto no vacío de r atributos {a1, a2, ..., ar} que describe los objetos; V=a_AVa donde Va es el dominio del atributo a; y f:U_A_V es la función de decisión total llamada la función de información tal que f(x,a)_Va para todo a_A y x_U. Algunos sistemas de información pueden ser designados como tablas de decisión. El conjunto de atributos A se divide en dos subconjuntos disjuntos A=C_D, donde C es el conjunto de atributos condicionales y D es conjunto de atributos de decisión con C_D=_. Cualquier pareja (a,v) con a_A y v_V es llamado un descriptor en sistema de información S. El sistema de información puede ser representado por una tabla de información. 1.2) RELACIÓN DE INDISCERNIBILIDAD En un sistema de información para cada subconjunto de atributos del universo se puede definir una relación binaria que se denomina relación de indiscernibilidad. Sea S=<U, A, V, f> un sistema de información, y sean B_A un subconjunto de atributos y los objetos x, y_U, entonces a x e y se les dice indiscernibles para el conjunto de atributos B si y solo si f(x,a)=f(y,a) para todo a_B. La relación de indiscernibilidad en B se nota como IND(B). Donde: IND(B)={(x,y)_U_U:para todo a_B,f(x,a)=f(y,a)} Para cada pareja de objetos (x,y) que pertenece a la relación IND(B), ((x,y)_IND(B)), a los objetos x e y se dicen que son indiscernibles con respecto a B es decir, se puede distinguir los objetos x e y en términos de los atributos del conjunto B únicamente. La relación de indiscernibilidad IND(B) separa el universo U en una familia de clases de equivalencia {X1,X2, ... ,Xr}. La familia de clases de equivalencia {X1,X2, ... ,Xr} definida mediante la relación IND(B) en U, genera una partición de U y es notada como B*. La familia de clases de Del sistema de información S, se puede considerar una tabla de decisión denotada como DT=<U,C_D,V.f>, donde: C es un conjunto de atributos condicionales; D es un conjunto de atributos de decisión; V=_a_C_D Va con Va el conjunto de dominio del atributo a_A; y f:U_(C_D)_V es la función de decisión total llamada la función de información tal que f(x,a)_Va para todo a_A y x_U. Una tabla de decisión es notada por (U, C_D) o por DTC donde C nota el conjunto de atributos condicionales. El conjunto D en general puede contener muchos atributos de decisión, sin embargo, de cara a la aplicación a la Ingeniería Kansei este conjunto contiene un atributo de decisión denotando como un número dado de clases de categorías c{c1, c2, ... cl}. En general las tablas de decisión generadas en un estudio Kansei es no-deterministas debido a que las valoraciones son obtenidas de un conjunto de consumidores que dan valoraciones Kansei con algún grado de incertidumbre generando sistemas de información imprecisos. 1.4) ESPACIO DE APROXIMACIÓN Algunos subconjuntos de objetos en un sistema de información no pueden ser distinguidos en términos de los atributos disponibles. Ellos pueden ser definidos en forma aproximada. La idea de Rough Sets consiste de la aproximación de un conjunto mediante un par de conjuntos, llamados aproximación inferior_BX de X contiene todos los objetos que, basado en el conocimiento de atributos B, puede ser clasificado con certeza que pertenece al concepto X (basado en el conocimiento de B) y superior de este conjunto, B _X del conjunto X es 9 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 la unión de aquellos conjuntos elementales cada uno de los cuales tienen una intersección no-vacía con X. • • Figura 4. Espacio de aproximación 2) MÉTODO DE EXTRACCIÓN DE LAS REGLAS DE DECISIÓN DE LAS REGIONES APROXIMADAS La gran mayoría de las aplicaciones que tiene la teoría Rough Sets están fundamentadas en la toma de decisiones, por tanto una de las partes más importantes de su aplicación es la generación o extracción de reglas de decisión. Específicamente en la ingeniería Kansei, la extracción de reglas de decisión esta asociada a la combinación de categorías que debe tomar cada propiedad del producto que permita obtener la máxima valoración. Generación de un conjunto exhaustivo de reglas, buscando obtener todas las posibles reglas de una tabla de decisión. Generación de un conjunto “robusto” de reglas, que eventualmente podría se discriminante, pero cubriendo a muchos objetos de la tabla de decisión, es decir, no se llega a cubrir necesariamente a todos los objetos. En el contexto de la aplicación de Ingeniería Kansei, se proponen tres índices de evaluación de reglas de decisión usando las valoraciones de los productos y los efectos de los productos en la decisión . Las reglas extraídas pueden ser representadas en la forma de IF THEN . Para efectos prácticos se usa la siguiente notación IF condk THEN Dj con k=1, .... ,m. El índice de certidumbre notado como CER =cer(condk ;Dj ) es la razón entre el número de eventos que satisfacen la regla IF - THEN con respecto al número de eventos que satisfacen la parte condicional condk de la regla:_ _Donde |Cond_k_D_j | se refiere al número de eventos que cumplen la condk y d=j que son iguales a: es el número de eventos que cumplen la condk . Slowinski y Stefanowski (1989) establecen que dada una tabla de información S=<U, A, V, f> , donde A= C _D , se puede definir una tabla de decisión DT=<U,CD,V.f> donde C es un conjunto de atributos condicionales; D es un conjunto de atributos de decisión. Sea U/IND(C) la familia de clases de equivalencia definida por el conjunto de atributos C y designados por Xi con i 1,...,m , y sea también U/IND(D) la familia de clases de equivalencia definida por el conjunto de atributos D y designados por Yj con j= 1,...,n y llamados clases de decisión. Se quiere establecer una relación de dependencia entre los atributos de condición y decisión, así una tabla de decisión puede ser vista como un conjunto de reglas de decisión. Existen sentencias (implicaciones) lógicas del tipo “if..., then ...”, donde el antecedente (parte condicional) especifica valores asumidos por uno o mas atributos de condición y la consecuente (parte de decisión) especifica una asignación a uno o más clases de decisión. PROCEDIMIENTOS- ESTRATEGIAS QUE PERMITEN DERIVAR REGLAS DE DECISIÓN: • 10 Generación de un conjunto mínimo de reglas, cubriendo todos los objetos de una tabla de decisión. El índice de certidumbre muestra el grado de certeza para los cuales las condk _Dj se cumplen. El índice precisión o cobertura notado como PREC= cov(Condk ,Dj ) es la razón entre es la razón entre el número de eventos que satisfacen la regla de decisión con respecto al número de eventos que satisfacen a Dk. y esta definido como: El índice de calidad o de fuerza notado como CAL(Condk ,Dj), es la razón entre el número de eventos que satisfacen la regla de decisión con respecto al numero total de eventos. Mediante la Ingeniería Kansei se plasma en imágenes mentales, las percepciones, sensaciones y gustos del consumidor. Primero, mediante el uso de cuestionarios y de métodos tan curiosos como, por ejemplo, el análisis del movimiento inconsciente de los ojos al ver un producto nuevo, se obtienen las respuestas de en términos de Kansei. Posteriormente, mediante herramientas de regresión y análisis de datos, se identifican qué REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 características del diseño producen las respuestas anteriores. Por último, uniendo todo lo anterior, se elabora una herramienta informática denominada KES (Kansei Engineering System) y que consta de cuatro bases de datos: • • • Base de datos de palabras -> En esta base de datos se almacenan todas las palabras que el consumidor utiliza para describir el producto Base de datos de imágenes -> Se almacenan todas las relaciones entre los elementos de diseño y las palabras. Base de conocimientos -> A partir de datos anteriores, decide cuáles son los elementos de Estudiantes asistiendo a un seminario • diseño finales sugeridos para el producto. Base de datos de diseño y color -> Almacenamiento de detalles de diseño y colores, considerando su correlación con las palabras que utiliza el usuario En resumen, un diseñador que disponga de esta herramienta introduce en el sistema las palabras que describen todos los atributos que desea lograr con su producto o servicio. El sistema busca en la base de datos de palabras y utiliza las otras tres para indicar los elementos de diseño y de color que más se ajustan a los atributos buscados. 11 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 La Tecnología en Nuestros Días MSC ING. SERGIO ANTONIO TORO TEJADA Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz-Bolivia RESUMEN El presente artículo trata de la convergencia tecnológica, sus pilares y los beneficios para los usuarios que puede traer su aplicación en nuestro país. ABSTRACT This article deals with the technological convergence, its pillars and benefits for users who can bring your application in our country. INTRODUCCIÓN Hoy en día estamos rodeados por un mundo multimedia, donde la tecnología se hace presente en nuestros días en forma convergente en muchos niveles. Con el presente artículo se propone realizar una revisión de las convergencias tecnológicas. Entonces podemos afirmar fehacientemente que en la actualidad la tecnología se encuentra en un constante avance, donde siempre se busca mejorar cada cosa que es inventada o descubierta, habiendo dejado atrás el privilegio que tenían los países desarrollados de ser los únicos propietarios del avance de la humanidad; hoy en día vemos con relativo asombro que países en vías de desarrollo son capaces, a través de sus individuos, de inventar o de al menos aportar con su conocimiento. Uno que los más grandes retos que nos debemos plantear quienes estamos inmersos en la educación y en la producción de científicos e intelectuales, que en un futuro no muy lejano serán quienes manejen el país, se debe centrar en ser soberanos en temas de ciencia y tecnología, y aprovechar esa convergencia tecnológica y esa presencia de la tecnología en prácticamente todo lo que nos rodea, siendo capaces de rescatar una identidad propia a partir de nuestros saberes y conocimientos ancestrales en beneficio de los bolivianos y de la humanidad. Es necesario saldar desde las universidades una deuda histórica, y ser capaces de generar conocimiento en un país como Bolivia que, en su visión republicana, siempre se vio a sí misma como incapaz de avanzar en el desarrollo del conocimiento científico-tecnológico, pues desde la colonia el primer mensaje que se recibió fue la sobrevaloración de lo foráneo y la desvaloración de lo nuestro. Siempre nos vimos como simples adoptantes y adaptadores de formas foráneas de hacer y de producir. 12 El desarrollo de la tecnología y la generación del conocimiento, lo pensábamos, estaba reservado para países del Norte Imperial o primer mundo, creencias profundas que son complementarias en una subjetividad marcada por el auto-sabotaje del ser nacional. Este bloqueo primordialmente mental del boliviano, resulta totalmente negativo en un siglo como el actual, donde los avances de la ciencia y la tecnología, son cada vez más vertiginosos e inclusivos pues están presentes en casi todas las actividades del quehacer de las personas, por lo que resultan determinantes dentro del futuro de cualquier sociedad. El intelectual Boliviano René Zavaleta Mercado, en su libro “Lo Nacional Popular en Bolivia” , afirma que la autonomía y soberanía de un país sólo podía ser posible en la medida en que éste se incorporara de manera positiva en las dinámicas económicas globales, y así dejar de ser tanto periféricos como funcionales y al mismo tiempo dependientes de las decisiones y direcciones de los países del Norte Imperial. De ahí la importancia de tomar en cuenta que el desarrollo tecnológico puede ser un factor gravitante para generar un desarrollo económico, social y cultural nacional. Pero esta vez, basados en ser autosuficientes y soberanos, capaces de generar conocimiento, revalorizando la identidad y rescatando los saberes que siempre han estado presentes, pero por esa obtusa visión se los ha ignorado o simplemente, no se los ha tomado en cuenta, convencidos de que sólo lo que llega de fuera es lo que vale. Debemos estar conscientes de que el hombre opta por unir varias tecnologías con un bien específico, lo cual mejora y facilita el trabajo. Como por ejemplo, la red los ordenadores o computadores, los cuales hoy en día poseen audio, por el cual se puede reproducir música u otros sonidos diferentes, el video por el medio del cual podemos reproducir imágenes y películas. Otro ejemplo de lo que ha hecho la convergencia tecnológica hoy en día es la creación de combos, o unión REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 de varios productos como es televisión por cable, internet de alta velocidad, telefonía móvil y telefonía fija. Originalmente, las redes públicas de telecomunicaciones fueron concebidas para prestar únicamente un servicio a través de ellas; por ejemplo, la red de telefonía fija únicamente transportaba voz, al igual que las redes de telefonía móvil, mientras que, la red utilizada para prestar servicios de televisión por cable, sólo permitían prestar el servicio de radiodifusión. FUNDAMENTOS La tecnología comenzó a desarrollarse desde que el hombre comenzó a utilizar su cerebro más allá de lo normal. Es decir, no quedarse en la monotonía de realizar siempre las mismas labores sino buscar más allá de lo que podía hacer. Explorar el terreno, entonces viene el desarrollo de herramientas, con un fin, facilitar la caza. La convergencia tecnológica de dos maneras: una hace referencia a la capacidad de diferentes plataformas de red para transportar servicios o señales similares; la otra se centra en la posibilidad de recibir diversos servicios a través de un mismo dispositivo como el teléfono, la televisión o el ordenador personal. En otras palabras, la convergencia tecnológica puede ser entendida como la posibilidad para el usuario de servicios de telecomunicaciones de recibir en un mismo dispositivo diversos servicios, como pueden ser, telefonía, internet, televisión, radio y, por otra parte, como la posibilidad de los proveedores, de soportar el envío por medio de sus redes, de diversos servicios. La base de la convergencia tecnológica tal y como se plantea, choca con una sociedad en la que prima el consumismo como una expresión fundamental del ser humano, especialmente en las ciudades o áreas urbanas. Por ello, y pese a que se pueda apreciar la conversión de dispositivos tecnológicos (celulares, smartphones, readers, tabletas y otros), su producción no se ha visto reducida, sino todo lo contrario, ya que responde a la premisa consumista imperante en la mente de cada individuo de ese mundo que hace pensar que tener lo último es “ser mejor”. Internet es quizás el ejemplo más extendido de la convergencia tecnológica. Prácticamente todas las tecnologías de entretenimiento - de la radio a la televisión, a los periódicos, a la prensa escrita, al vídeo a los libros a los juegos - se pueden ver y jugar en línea, a menudo con una mayor funcionalidad que la que tienen en la tecnología principal. Tecnologías de la comunicación, así, se puede utilizar, con la Internet para sustituir las máquinas de fax, teléfonos, videoteléfonos, y el servicio postal. En la convergencia tecnológica la podemos encontrar en algunos ámbitos, organizada de la siguiente manera, primero los servicios que nos ofrece, en segundo lugar están los equipos terminales, donde se reproducirá, más adelante están las redes o medios de transmisión y el mercado, como se va a publicar y como se venderá la convergencia tecnológica al público. Servicios: Se deben ofrecer variedad de servicios, una mejora, pes anteriormente cada uno de los servicios como internet, telefonía, televisión por cable, cada uno se vendía por aparte. La convergencia tecnológica los agrupa para venderlos como combotización. Equipos terminales: Son los medios donde finalmente llegarán los productos establecidos, como por ejemplo el internet llegara al ordenador que se encuentre en el sitio donde se concretó el servicio. De igual manera sucedería con el equipo de televisión y el servicio de televisión por cable o satelital. Redes o medios de transmisión: Se encuentran la diferentes plataformas por las que se transmiten los servicios, por ejemplo la televisión puede transmitirse por ondas satelitales con cables coaxiales que se encuentran en una red de infraestructura situada desde la casa hasta el sitio de transmisión del servicio. Mercado: Aquí se realizaran las tarifas y se promocionaran los paquetes con la variedad de servicios agrupados para vender al público. Entonces aquí puede haber tarifas planas, operaciones integradas por fusiones y adquisiciones. LOS CUATRO PILARES DE LA CONVERGENCIA TECNOLOGICA Nanotecnología, es el estudio, diseño, creación, síntesis, manipulación, aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, cuando se manipula la materia a la escala tan pequeña de átomos y moléculas demuestra fenómenos y propiedades totalmente nuevas, por lo tanto los científicos utilizan esta nanotecnología para la creación de materiales y aparatos y sistemas novedosos y económicos con propiedades únicas e increíbles. Biotecnología, es una rama de la tecnología que se basa en la aplicación práctica, orientada necesidades humanas de la biología y consiste en la manipulación de células vivas para la obtención y mejora de productos como medicamentos o alimentos, se utiliza en diferentes campos como en agricultura, farmacología ciencias forestales entre otras. Infotecnología es una cultura del trabajo, basada en un grupo de modernas herramientas informáticas para la navegación, la búsqueda, la revisión 13 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 y el procesamiento de la información en formato digital. Permite que profesionales e investigadores sean capaces de identificar las principales fuentes de información de frontera, seleccionar las herramientas más adecuadas de búsqueda, trabajar con bases de datos remotas, construir bibliotecas personales digitalizadas, realizar artículos y trabajos científicos en los formatos que exigen las principales revistas y editoriales del mundo. Cognotecnologia, es el estudio interdisciplinario de cono la información es representada y transformada en la mente, es el conjunto de disciplinas que surgen de la convergencia transdisciplinaria de investigaciones científicas y tecnológicas entorno a los fenómenos funcionales y emergentes dados a partir de las actividades neurofisiológicas del encéfalo y del sistema nervioso incorporados y que típicamente se les denomina como mente y comportamiento, la naturaleza de las investigaciones cognitivas es decir de naturaleza lingüística, la psicología cognitiva y la inteligencia artificial y la neurociencia y la antropología. Cognitiva. La neurística de las investigaciones cognitivas ha sido guiada por preocupaciones eminentemente filosóficas a partir de algunas de sus ramas como la lógica, gnoseología, la epistemología y la filosofía u ontología de la mente. BENEFICIOS DE LAS PROPUESTAS CONVERGENCIA TECNOLOGICA DE LA Una de las formas de aprovechar las diferentes propuestas de convergencia tecnológica es haciendo uso diario de ellas ya que hay gran variedad de estas tecnologías en nuestra sociedad de las cuales muchas veces no sabemos sus diferentes usos y no es aprovechado totalmente por lo que además de hacer uso de ellas deberíamos conocer un poco más a profundidad sus orígenes y propósitos específicos. Además de los beneficios que la convergencia genera en favor de los usuarios, derivados del incremento de la competencia en servicios de telecomunicaciones, la convergencia también permite maximizar el aprovechamiento de la capacidad de las redes, impulsando su pleno desarrollo y su ampliación hacia sectores que, todavía no cuentan con acceso a servicios digitales o éstos se ven muy limitados, ya que pueden emplearse indistintamente las redes de empresas de telefonía fija, móvil, de fibra óptica, e incluso de televisión satelital, para llevar todos los servicios a las comunidades a las que tengan acceso, multiplicando las posibilidades de cobertura sin la necesidad de desarrollar una red para cada tipo de servicio. Cabe señalar que este tipo de servicios, generalmente asociados al entretenimiento, 14 también son empleados en otros sectores fundamentales para el desarrollo actual de las comunidades, como pueden ser salud, educación, empleo y en general, para su crecimiento económico. Por ejemplo, al cierre del 2013 habrá en México unos 20 millones de nuevos teléfonos inteligentes y 4.5 millones de tabletas nuevas respecto al año pasado. Esto refleja un crecimiento exponencial en la adopción de las tecnologías móviles en el país pues, en total, existirán 41 millones de teléfonos inteligentes y 10.5 millones de tabletas en el país, de acuerdo con cálculos de la firma de análisis IDC. La adopción de estas tecnologías va en aumento. Una encuesta de IDC en Latinoamérica mostró que al 2013, el 46% de las empresas ya tenían al menos una solución que corre en la nube, desde el 3.5% del 2009. Pero el innovar también implica tomar riesgos, advirtió Jorge Zavala, cofundador y director de innovación Kinnevo, una empresa con sede en Silicon Valley que brinda asesoría y mentaría a emprendedores. Esta precisamente ha sido la clave para el éxito de las startups tecnológicas donde la velocidad de aprendizaje es la clave para el crecimiento. “Innovar implica riesgo, implica incertidumbres y uno puede ganar pero también puede perder. Si algo va a salir mal, procura que sea rápido para hacerlo mal. Fallar no es lo grave; no aprender es catastrófico y el nombre del juego es velocidad”, dijo. Los expertos advierten que hay dos factores que representan un reto para la innovación en las empresas: generación de talento y el costo de las innovaciones. “Cuanto a migrar hacia ese modelo de la nube tiene que ver con la parte de la gente y el talento, que es la principal barrera porque la parte tecnológica y operativa, derivado de gran cantidad de dispositivos, de datos y de aplicaciones, la que se terceariza; tenemos que desarrollar otro tipo de competencias para maximizar la tercerización y poder innovar”, dijo Edgar Fierro, de IDC . Por eso dijo que se debe estimular la comercialización a pequeñas y medianas empresas, a quienes los nuevos servicios tecnológicos y soluciones especializadas les permitirán incrementar su eficiencia en el negocio y satisfacer sus necesidades con respuestas específicas a cada una de ellas. CONCLUSIONES Es de vital importancia ser capaces de empezar a ver que el desarrollo tecnológico se lo puede ver desde REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 adentro, EN BOLIVIA SOMOS CAPACES, de subirnos a ese tren de los llamados adelantos tecnológicos. Empecemos a vernos a nosotros mismos como autosuficientes en un campo tan competitivo, y hagamos que desde las Universidades surjan los profesionales capaces de generar ciencia, de aportar conocimiento y de ser lo suficientemente innovadores, para generar riqueza a partir de nuestros saberes locales y conocimientos ancestrales, esa al parecer es una de las únicas fórmulas de hacerle frente a ese mundo cada vez Asistencia al desfile del 6 de agosto. más globalizado y poco solidario, en el que el fuerte irremediablemente empieza a comerse al más débil. Resulta de fundamental importancia que las autoridades que se encargan de regular las telecomunicaciones, impulsen y protejan los procesos de convergencia en las redes a favor de los usuarios de servicios, proceso que se encuentra estrechamente relacionado con la interconexión entre redes 15 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Construcción de Flujos de Caja GONZÁLEZ HERRERA JOHNNY. Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz Bolivia [email protected] RESUMEN En el siguiente artículo se tratará sobre la importancia que tienen los flujos de caja en la evaluación de proyectos tanto privados como sociales, pues éstos constituyen uno de los elementos más importantes del estudio de un proyecto, ya que la evaluación del mismo se efectuará sobre los resultados que en ella se determinen. ABSTRACT In the next article will focus on the importance of the cash flows in the evaluation of projects both private and social, because they are one of the most important elements of the study of a project, because the evaluation of the same shall be made on the results that it determined. PALABRAS CLAVE Estudio de Mercado, Estudio Técnico, Estudio Organizacional, Depreciación, Amortización, Costos fijos, costos variables y Tasa de Descuento. INTRODUCCIÓN El presente artículo propone la evaluación financiera dentro de la metodología de evaluación de proyectos, consiste en expresar en términos monetarios todas las determinaciones hechas en los estudios de mercado, técnico y organizacional. Las decisiones que se hayan tomado en todos los estudios anteriormente citados en términos de cantidades del producto, bien o servicios que se piensa introducir al mercado, precios de dicho bien, materias primas, desechos del proceso, cantidad de personal, cantidad de mano de obra directa e indirecta, número y cantidad de equipo y maquinaria necesarios para el proceso determinado, ahora deberán aparecer en forma de inversiones y degasto. OBJETIVO Una vez que se hayan concluido los estudios de mercado, técnico y organizacional, se habrá dado cuenta de que existe un mercado potencial o bien una demanda insatisfecha por cubrir y que no existe impedimento tecnológico para llevar a cabo el proyecto. La parte del análisis del análisis financiero pretende determinar cual es el monto de los recursos económicos necesarios para la realización del proyecto, cual será el costo total de la operación de la planta si es un proyecto productivo, o cual será el costo total de los componentes del servicio, así como otra serie de indicadores que servirán como base para la parte final y definitiva del proyecto, que es la evaluación financiera. ANTECEDENTES 16 El problema más común asociado a la construcción de un flujo de caja es que existen diferentes flujos para diferentes fines: uno para medir la rentabilidad del proyecto, otro para medir la rentabilidad de los recursos propios y un tercero para medir la capacidad de pago frente a los préstamos que ayudarán a su financiación. También se producen diferencias cuando el proyecto es financiado con deuda o mediante leasing, factoring o warrant. El flujo de caja de cualquier proyecto se compone de cuatro elementos básicos: a) los egresos iniciales de fondos, b) los ingresos y egresos de operación, c) el momento en que ocurren estos ingresos y egresos, y d) el valor de desecho o salvamento del proyecto y la recuperación de capital. Los egresos iniciales corresponden al total de la inversión inicial requerida para la puesta en marcha del proyecto. El capital de trabajo, si bien no implicará un desembolso en su totalidad antes de iniciar la operación, se considerará también como un egreso en el año cero, ya que deberá quedar disponible para que el administrador del proyecto pueda utilizarlo en su gestión. La inversión en capital de trabajo puede producirse en varios periodos. Si tal fuese el caso, sólo aquella parte que efectivamente deberá estar disponible antes de la puesta en marcha se tendrá en cuenta dentro de los egresos iniciales. Los ingresos y los egresos de operación constituyen todos los flujos de entradas y salidas reales de caja. Es usual encontrar cálculos de ingresos y egresos basados en los flujos contables en estudios de proyectos, los cuales, por su carácter de causados o devengados, no necesariamente ocurren en forma simultanea con los flujos reales. Por ejemplo la contabilidad considera como ingreso el total de REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 la venta, sin reconocer la posible recepción diferida de los ingresos si ésta se hubiese efectuado a crédito. Igualmente concibe como egreso la totalidad del costo de ventas, que por definición corresponde al costo de los productos vendidos solamente, sin inclusión de aquellos costos en que se haya incurrido por concepto de elaboración de productos para existencias. La diferencia entre devengados o causados reales se hace necesaria, ya que el momento en que realmente se hacen efectivos los ingresos y egresos será determinante para la evaluación del proyecto. El flujo de caja se expresa en momentos. El momento cero reflejara todos los egresos previos a la puesta en marcha del proyecto. Si se proyecta reemplazar un activo durante el período de evaluación, se aplicara la convención de que en el momento de reemplazo se considerara tanto el ingreso por la venta del equipo antiguo como el egreso por la compra del nuevo. Con esto se evitaran las distorsiones ocasionadas por los supuestos de cuando se logra vender efectivamente un equipo usado o de las condiciones de crédito de un equipo que se adquiere. El horizonte de evaluación depende de las características de cada proyecto y de la realidad existente en cada país. Por ejemplo en Chile un buen horizonte de tiempo son diez años, en México se considera cinco años, en nuestro país yo sugeriría, dependiendo del monto de la inversión que se vaya efectuar, una variable importante es el tiempo en que la entidad financiadora otorgue el préstamo que vendría a ser el horizonte de tiempo del proyecto que en promedio son cuatro años. Los costos que componen el flujo de caja se derivan de los estudios de mercado, técnico y organizacional. Un egreso que no es proporcionado como información por otros estudios y que necesariamente tiene que incluirse en el flujo de caja del proyecto es el impuesto a las utilidades, teniendo la salvedad que si el proyecto es localizado en la ciudad de El Alto esta exento por una determinada cantidad de años de acuerdo a una ley de la República de Bolivia. Para su cálculo deben tomarse en cuenta algunos gastos contables que no constituyen movimientos de caja, pero que permiten reducir la utilidad contable sobre la cual deberá pagarse el impuesto correspondiente. Estos gastos conocidos como no desembolsables, están constituidos por las depreciaciones de los activos fijos como ser maquinaria, muebles, equipos, movilidades y todo aquel activo que tenga una vida útil; la amortización de activos intangibles como ser seguros, patentes, gastos de puesta en marcha y el valor libro o contable de los activos que se venden. Puesto que el desembolso se origina al adquirir un activo, los gastos por depreciación no implican un gasto en efectivo, sino uno contable para compensar, mediante una reducción en el pago de impuestos, la pérdida del valor del activo por su uso. Mientras mayor sea el gasto por depreciación el ingreso grabable disminuye y, por tanto, también el impuesto pagadero por las utilidades del negocio. Por eso que esta normado la vida útil de los activos y en nuestro caso la entidad que regula la vida útil es el Servicio de Impuestos Nacionales. Al depreciarse todo el activo por cualquier método se obtendrá el mismo ahorro tributario, diferenciándose solo el momento en que ocurre. Al ser tan marginal el efecto, se opta por el método de línea recta que además de ser más fácil de aplicar es el que entrega el escenario más conservador. Aunque lo que interesa al preparador y evaluador de proyectos es incorporar la totalidad de desembolsos, independientemente de cualquier ordenamiento o clasificación de costos que permita verificar su inclusión. Una clasificación usual de costos se agrupa, según el objeto del gasto, en costos de fabricación, gastos de operación, financieros y otros. Los costos de fabricación pueden ser fijos o variables (estos últimos conocidos como también gastos de fabricación). Los costos fijos los componen los materiales directos y la mano de obra directa, que debe incluir los salarios, la previsión social, las indemnizaciones, bonos y otros desembolsos relacionados con un salario o sueldo. Los costos variables por su parte, se componen de la mano obra indirecta (jefes de producción, choferes, personal de reparación y mantenimiento, personal de limpieza, guardias de seguridad); materiales indirectos (repuestos, combustibles y lubricantes, útiles de aseo), y los gastos indirectos, como energía (electricidad, agua, gas), comunicaciones (teléfono, fax, internet), seguros, alquileres depreciaciones, etc. Los gastos de operación pueden ser gastos de venta o gastos generales y de administración. Los gastos de venta están compuestos por los gastos laborales (como sueldos, bonos y otros), comisiones de venta y de cobranza, publicidad, empaques, transportes y almacenamiento. Los gastos generales y de administración los componen los gastos laborales (aguinaldos, vacaciones, aportes patronales a las AFP s, fondo solidario, seguro social médico, fondo de vivienda, beneficio social por año), gastos de representación, seguros alquileres, materiales y útiles de oficina, depreciación de edificios administrativos y equipos de oficina, impuestos y otros. 17 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Los gastos financieros que también están afectos a impuestos, salen de descomponer de la cuota que se paga al ente financiador. Cabe aclarar de que de la cuota se debe descomponer solo el interés y que la parte de la amortización de la deuda va después de impuestos. para la estimación del costo de capital o tasa de descuento relevante, el 14% utiliza modelos factoriales, el 10% utiliza tasas de descuento basadas en políticas corporativas 7y el 34% restante en lo que llaman “olfato”. CONCLUSIONES Otra de las variables que más influyen en el resultado de la evaluación de un proyecto es la tasa de descuento empleada en la actualización de sus flujos de caja. El costo de capital corresponde a aquella tasa que se utiliza para determinar el valor actual de los flujos futuros que genera un proyecto y representa la rentabilidad que se le debe exigir a la inversión por renunciar a un uso alternativo de los recursos en proyectos de riesgos similares. Toda empresa o inversionista espera ciertos retornos por la implementación de proyectos de inversión. Inicialmente se desarrollan diversos sistemas para determinar e incorporar el costo de capital, como las razones precio/utilidad, los dividendos esperados, los retornos esperados de la acción, los retornos sobre proyectos marginales, etcétera. Ninguno de estos métodos tradicionales incorpora el riesgo asociado con la inversión. Si los proyectos estuviesen libres de riesgo, no habría mayor dificultad en determinar el costo de capital, ya que bastaría usar como aproximación el retorno de los activos libres de riesgo. No obstante, la gran mayoría de los proyectos no están libres de riesgo, por lo que se debe exigir un premio sobre la tasa libre de riesgo, el que dependerá de cuan riesgoso sea el proyecto. La estimación del costo de capital es un punto de constante controversia entre los analistas. Un estudio realizado por McKinsey y la Escuela de Negocios de la Universidad de Chicago determino que el 42% de los analistas y académicos utilizan modelos lineales basados en el CAPM (Modelo de Valorización de Activos de Capital) 18 En conclusión se puede indicar que en la elaboración de un proyecto de factibilidad un factor muy importante es la correcta elaboración en la construcción de un flujo de caja. Ya que los datos que conlleva viene de los estudios de marcado, técnico y organizacional. Se tienen que considerar todas las erogaciones de dinero en las que se incurrirá o llamadas desembolsos de efectivo como también no se deben de olvidar los gastos no desembolsables que ayudan a aminorar el pago de impuestos. Existen dos tipos de beneficios que no debemos olvidar al final del periodo de evaluación que son el valor de desecho del proyecto como la recuperación del capital de trabajo ya que si obviamos dichos montos hará variar la tasa interna de retorno del proyecto y el valor actual neto. Por último otro factor importante es la tasa de descuento ya que si no es aplicada de la manera adecuada nos hará variar en la aceptación o rechazo del proyecto de inversión. REFERENCIAS BIBLIOGRAFICAS • • • • • Bolten, Steven, Administración Financiera. México; Limusa 1981 Brealey, R. y S.Myers, Principles of Corporate Finance. New York; Mc Graw Hill, 1998 Neveu, Raymond, Fundamentals of Managerial Finance. Cincinnati Ohio; South Western. 1981 Van Horne. Administración de Finanzas. México. Prentice Hall. 1998. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Algunos de los errores más frecuentes en la implementación de controles de seguridad de la Información LIMBERG F. ILLANES MURILLO Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz Bolivia RESUMEN Hablar de seguridad de la información, muchas veces se piensa que es hablar de criterios de confidencialidad, pero también comprende criterios de integridad y disponibilidad. Ahora, al momento de implementar controles de Seguridad de la Información que cumplan con estos criterios. Entre los errores más comunes está: la elección inadecuada del Líder del Proyecto de Seguridad de la Información, creer que únicamente con aplicaciones o sistemas se resuelven los problemas, hacer las cosas solo por cumplir, los proyectos no está alineados a los objetivos estratégicos del negocio y por último pensar que los consultores conocen más la Organización que uno mismo. El presente artículo explica de forma resumida cual la causa de estos errores frecuentes. ABSTRACT To talk about information security, often we thought to be only talk about confidentiality criteria, but also includes integrity and availability´s criterias. Now, when implemented Information Security controls that meet these criteria. Among the most common mistakes are: improper choice of the Information Security´s Project Leader, believing that only applications or systems solved the problems, do things just to meet, projects are not aligned to business objectives strategic and finally think that consultants know the Organization more than oneself. This article explains summarizes the cause of these common mistakes. INTRODUCCIÓN Existen diferentes situaciones que se presentan al momento de querer implementar controles de Seguridad de la Información que desnudan la madurez que tiene una Organización. Muchas veces esta madurez en Seguridad de la Información de una Organización tiene bases en la falta de comprensión o entendimiento de la Alta Gerencia, falta de concientización de los funcionarios, rechazo a los cambios, rechazo a los controles y sobre todo la falta de cultura en Seguridad de la Información. Pero lo descrito anteriormente ocurre muchas veces por los errores que cometen los responsables, líderes o auspiciadores de los diferentes proyectos de la empresa. Cabe aclarar que uno de los primeros errores que comenten las organizaciones es no realizar una Gestión de Riesgos de Seguridad de la Información, pero al ser éste un tema tan crítico y amplio lo mencionaremos en otro artículo. Ahora solo veremos algunos de los errores más comunes de la parte operativa de una organización así como de su área de Tecnología o Sistemas en temas de Seguridad de la Información. ERRORES MÁS FRECUENTES A continuación se describen algunos de esos errores: Elección inadecuada del Líder del Proyecto de Seguridad de la Información En muchos casos el líder de proyecto es muy técnico y debe llevar adelante tareas o actividades que van más allá de su cargo y responsabilidad, afectando la segregación de funciones. A raíz de esto, los requerimientos se traban, la información requerida se demora y ante la falta de apoyo, finalmente otro funcionario que desconoce el objetivo y alcance del proyecto decide sobre los temas desconociendo la problemática. Muchas veces los recursos humanos para encarar el proyecto no se asignan y si se hace, el proyecto se demora dado que hay que "poner en tema" al recurso asignado, ya que en gran parte tampoco tienen la jerarquía necesaria para tomar decisiones. Es un problema muy difícil de resolver si nuestro Líder de Proyecto no está en condiciones de obtener la información requerida, convocar a los referentes necesarios y/o tomar alguna decisión relevante en relación al proyecto. De presentarse esta situación estaríamos ante una Organización no muy comprometida con la implementación de controles de Seguridad de la Información. 19 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Creer que únicamente con aplicaciones o sistemas se resuelven los problemas Hay proyectos que se generan para generar una determinada aplicación o sistema, pero llegado el momento de la implementación comienzan a aparecer los problemas, que pueden ser que: • • • El producto no hace todo lo que queríamos, esto a raíz de que no se hizo el relevamiento adecuado o se comenzó el desarrollo sin tener claro el objetivo y alcance. Requiere información que aún no hemos podido recolectar Depende de procesos que la Organización aún no tiene implementados o con el nivel de madurez necesario. Por ejemplo es muy frecuente escuchar acerca de proyectos de Data Loss Prevention (DLP) en Organizaciones que aún no tienen un inventario centralizado de activos o no tienen establecido su Clasificación de la Información. Finalmente para "justificar" el proyecto, la herramienta se implementa con funcionalidades mínimas para luego volver a generar algún proyecto que regularice la situación (que muchas veces no lo hace). cumplir o para que los responsables de un determinado problema no asuman la responsabilidad de la falta de gestión. No está alineados a los objetivos estratégicos del negocio Si bien parece muy claro que el área de Tecnología o Sistemas debe brindar un servicio al negocio y acompañarlo para lograr el cumplimiento de los objetivos estratégicos, es frecuente encontrarse con proyectos que no tienen ninguna relación con el rumbo que tiene el negocio. Negocios que están pensando en ir hacia la nube (Cloud computing), en donde el área de Tecnología o Sistemas ejecuta proyectos de centralización de aplicaciones cliente/servidor o restricciones para el trabajo remoto, ambas cuestiones que muestran un camino completamente distinto entre el negocio y su área de Tecnología o Sistemas. Negocios que se despliegan sobre plataformas o redes sociales y canales de comunicación con sus clientes, frente a proyectos que buscan restringir el uso de redes sociales sin un análisis de riesgos previo para determinar que controles de Seguridad implementar. Hacer las cosas solo por cumplir No deja de ser un signo de problemas aún mayores, dado que generalmente en ese tipo de organizaciones, el área de Tecnología o Sistemas se considera dueña de los servidores y es frecuente que sea el usuario quien notifica los problemas dado que la "independencia" de gestión es absoluta y se prescinde o evita contar con una Gestión de Incidentes por temor a mostrar los problemas internos. Lamentablemente en reiteradas ocasiones se escucha que un determinado proyecto se hace: Pensar que los consultores conocen más la Organización que uno mismo En las organizaciones en las cuales se presenta esta situación, normalmente el área de Tecnología o Sistemas es la encargada de la mayoría de los temas referentes a Seguridad de la Información y las demás áreas no tienen ningún involucramiento al respecto. • • • • Por cumplir PCI DSS Porque me lo pide Auditoria Porque me lo exige mi ente Regulador Porque surgió de una reunión entre gente que desconoce los problemas (Comités de Riesgos, Reuniones de Directorio) y el auditor confundiendo su rol hace consultoría. Si el consultor toma decisiones que debe tomar la Organización, los controles de Seguridad de la Información presentan síntomas de fracaso. El valor agregado del consultor viene relacionado con la experiencia en otros proyectos, su formación, el hecho de mantenerse actualizado y de la dedicación a los temas relacionados con Seguridad de la Información. Por ende, el resultado es conocido, surge un proyecto de remediación de un problema que quizás no existe. Ahora bien, eso no lo convierte en la persona adecuada para tomar decisiones que le corresponden a los miembros de la Organización, dado que ellos conocen el valor de la información involucrada, los objetivos de negocio de corto, mediano y largo plazo, las idas y vueltas políticas, los intereses internos y todo aquello que es tan importante al momento de tomar decisiones. Más allá de que sería ideal que los proyectos surjan de necesidades reales de la Organización, que correspondan con un objetivo claro y medible, es poco frecuente encontrarse con tal escenario. A veces se hacen para 20 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 CONCLUSIONES En muchas oportunidades se menciona y repite la importancia del involucramiento de los máximos referentes de una Organización en temas relacionados con Seguridad de la Información. Es una responsabilidad de la Alta Gerencia y la Dirección el estado de seguridad de su negocio, definir el nivel de protección adecuado para sus activos y asignar los recursos necesarios para lograrlo. Si esto no se presenta, Frontis de la Unidad Académica La Paz - Irpavi. es muy probable que alguien asuma una responsabilidad que lo excede y por consiguiente el propio desconocimiento del negocio haga que la estrategia de seguridad sea errónea. El desafío para quienes deben gestionar la Seguridad de la Información es lograr el interés e involucramiento de los líderes, es allí en donde se debe invertir el mayor esfuerzo, para luego no dedicarle tanto tiempo y esfuerzo a reparar los errores producto de decisiones equivocadas, mal uso de los recursos y medidas desacertadas 21 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Generación de Sinergias, basada en actividades académicas para potenciar la investigación ALEJANDRO MIGUEL ZAMBRANA CAMBEROS Departamento Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz Bolivia [email protected] RESUMEN Este artículo explora la posibilidad de verificar competencias universitarias mediante la generación de sinergias positivas desencadenadas a raíz de actividades académicas que propicien un espacio que motive tanto a estudiantes como docentes a investigar. La actividad académica utilizada para tener un acercamiento es el concurso de programación que se realiza en la Carrera de Ingeniería de Sistemas de la Universidad. ABSTRACT This article explores the possibility of verifying college skills through the generation of positive synergies triggered as a result of academic activities to foster a space that motivates both students and teachers to investigate. The academic activity used to be a rapprochement is the programming contest that takes place in the career of Systems Engineering of the University. PALABRAS CLAVES: Competencias, Investigación, Programación, Concurso de Programación, Verificación. INTRODUCCION Las actividades académicas realizadas en la Universidad, normalmente son para lograr visibilidad en el entorno y fortalecer el proceso de enseñanza - aprendizaje, en el cual, el estudiante que se encuentra motivado por obtener un buen desempeño en la actividad y por lograr satisfacción personal, investiga, hace praxis y alcanza niveles verificables de competencias profesionales que pueden ser medidas por diversos medios. La Figura 1, muestra la metodología abordada en base a las sinergias entre los siguientes sistemas: • • • • • • • • Actividad académica. Habilidades de Estudiantes. Investigación de estudiantes. Exigencias a las materias afines. Investigación de Docentes. Aportes intelectuales. Generación de Proyectos de Investigación. Implementación de TIC´s La problemática radica, en ¿cómo lograr sinergias positivas para que a raíz de las actividades académicas, docentes y estudiantes investiguen y generen productos que puedan ayudar a verificar competencias desarrolladas en la Universidad? Para ello exploraremos el camino que puede trazarse a partir de la actividad denominada “Concurso de Programación” para la carrera de Ingeniería de Sistemas que tiene inicialmente el objetivo de mejorar las habilidades de programación de sistemas de información y TIC´s en los futuros profesionales de la carrera. CONTENIDO Iniciamos con la metodología para afrontar la problemática presentada, para luego evaluar los logros reales alcanzados y concluir con los retos que aún quedan para avanzar en la investigación planteada. 22 Básicamente se presenta la siguiente relación sinérgica en base al comportamiento deseado de los sistemas en consideración: REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 • • • • • • • El incremento de la realización de la actividad académica, genera un incremento de las habilidades en estudiantes para mejorar su rendimiento en la actividad académica. El incremento de habilidades de los estudiantes, genera incremento de la investigación estudiantil para resolver la actividad. El incremento de la investigación estudiantil, genera mayores exigencias de estos en las materias afines que nutren en conocimiento y practica. En paralelo, el incremento de la realización de la actividad académica y El incremento en la exigencia de los estudiantes, genera el incremento en la investigación en los Docentes para apoyar a los estudiantes. El incremento de investigación en los docentes, genera mayores Aportes Intelectuales (artículos, libros y otros) más el incremento de Proyectos de investigación. El incremento de Proyectos de investigación, generan incremento en implementación de TIC´s en la Universidad. El incremento de implementación de TIC´s en la universidad, generan evolución en la realización de la actividad académica, que desencadena nuevamente las relaciones sinérgicas ya explicadas. Realizado este análisis lo que queda es evaluar la metodología planteada en base modelo causa efecto planteado Luego revisar los indicadores en cada sistema involucrado. Los logros alcanzados pueden ser medidos en base a la verificación de los niveles alcanzados, al incremento de estudiantes involucrados y con el número de docentes generadores de investigaciones con base de actividades académicas. Otro aspecto importante, es considerar que el modelo, hasta el momento no asegura que se llegará a buen puerto con pocas realizaciones de la actividad académica en cuestión y que dependerá de las características específicas de la actividad que sea impulsada. La figura 2, muestra que el detonante es la realización de la actividad académica y que requiere del apoyo constante por parte de la Universidad. Sin embargo, los indicadores no podrán ser considerados como objetivos de gestión hasta que se identifiquen claramente las tareas necesarias para ajustar cada sistema y se logre el rendimiento esperado. Evaluemos ahora una actividad académica específica, realizada en la carrera de Ingeniería de Sistemas. “La Competencia de programación”, esta consiste en la resolución de problemas, de diversa complejidad, empleando un lenguaje de programación informática y tiene la finalidad de descubrir estudiantes con habilidades inherentes a la programación informática, trabajo en equipo en un entorno competitivo y empleando conocimientos de elaboración de algoritmos a niveles altos. Los estudiantes calificados en esta competencia pueden representar en varios niveles a la Universidad y su aprendizaje debe ser apoyado por los docentes, quienes se actualizan en las técnicas de programación empleadas por los mejores a nivel mundial. Los estudiantes participan en equipos de tres de acuerdo a reglas internacionales. Las Universidades que se tomaron en cuenta, fueron en las que el autor lideró esta actividad. Las Figuras 3 y 4, muestra el rendimiento obtenido de los equipos en las competencias locales, considerando las variables de: • • • • Número de problemas resueltos. Porcentaje de equipos con por lo menos un problema resuelto. Porcentaje de equipos con por lo menos 2 problemas resueltos. Porcentaje de equipos con por lo menos 3 problemas resueltos. Es necesario resaltar que los datos se extrajeron de los resultados de las competencias aceptadas por la ACMICPC sección Bolivia, realizadas en las Universidades de La Salle y la Escuela Militar de Ingeniería y que el mejor rendimiento de un equipo Boliviano es de 4 problemas resueltos de 11 planteados. 23 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Con este análisis, observamos que las Universidades han logrado un proceso Docente - Estudiante para obtener logros y crecimiento, reflejados en el rendimiento de la actividad en las últimas gestiones. En la Escuela Militar de Ingeniería, el estado real muestra la presentación de proyectos orientados a respaldar un crecimiento mayor, que permita reducir la brecha con la región. Estos proyectos se han clasificado en dos categorías: Categoría Estudiantes: • La evolución del número de problemas resueltos respecto a los planeados es lenta, debido a la complejidad que representa su resolución. Otro dato importante es que en la región (Perú, Chile, Bolivia, Argentina y Colombia), la mayor cantidad de problemas resueltos también ha tenido una evolución lenta. • • • Proyecto 001: Capacitación para equipos para preparación a la competencia nacional, agosto 2011, propuesta por los estudiantes José Machicado y Miguel Machicado, aprobado por Consejo de Carrera de Ingeniería de Sistemas EMI. Proyecto 002: Desarrollo de juez virtual para la EMI, enero 2012, propuesta por los estudiantes José Machicado y Miguel Machicado, aprobado por Consejo de Carrera de Ingeniería de Sistemas EMI. Proyecto 003: Documentación para preparación de estudiantes para la competencia interna de programación EMI 2012, enero 2012, propuesta por los estudiantes José Machicado y Miguel Machicado, aprobado por Consejo de Carrera de Ingeniería de Sistemas EMI. Proyecto 004: Cursos de capacitación para equipos para la competencia interna EMI 2012, abril 2012, propuesta por los estudiantes José Machicado y Miguel Machicado, aprobado por Consejo de Carrera de Ingeniería de Sistemas EMI. Categoría Docentes: • La Figura 4, muestra esta evolución en los ejercicios resueltos en los últimos 5 años. Respecto al rendimiento interno, este análisis nos permite ser más exhaustivo, puesto que demuestra la interacción entre docentes y estudiantes en el apoyo para la resolución de estos problemas. Observamos que cada gestión, la cantidad de equipos que por lo menos resuelven un problema ha incrementado, eso denota mejorías considerables en los participantes y que adicionalmente, equipos lograron resolver por lo menos 3 problemas. Aunque todavía queda por avanzar, para alcanzar a los mejores de la región, la brecha puede ser disminuida empleando las sinergias planteadas en este artículo. 24 Proyecto 005: Implementación de Juez Virtual en la página Web de la EMI a cargo del equipo de trabajo de la competencia de programación, febrero 2012, aprobado por Consejo de Carrera de Ingeniería de Sistemas EMI. El análisis de los proyectos planteados y su efecto en la investigación, serán sujetos de un nuevo artículo que complementarán a éste, puesto que la rueda sigue girando y dependiendo de los logros, en aportes de estudiantes y docentes generados en esta gestión, permitirá obtener un parámetro más para evaluar Competencias trazadas por la Carrera de Ingeniería de Sistemas. Otro indicador interno, es el número de estudiantes involucrados en las investigaciones referidas a las exigencias de la competencia de programación. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 a la formación de estudiantes, para mejorar el rendimiento en la competencia de programación, puede ser impulsada a partir de actividades académicas. También pueden evaluarse competencias académicas y de liderazgo relativas al proceso de investigación, considerando el avance en los logros obtenidos en las distintas instancias de la actividad. Se recomienda apoyar a iniciativas que permitan generar sinergias en base a actividades académicas. También se recomienda motivar a los docentes para que lideren actividades de investigación impulsadas por actividades académicas, de esta manera estos podrán presentar investigaciones sobre los métodos teóricos y prácticos empleados para mejorar continuamente. BIBLIOGRAFÍA El indicador mencionado en el anterior párrafo, muestra que en los seis últimos años, ha incrementado el interés de estudiantes involucrados, permitiendo que la competencia de programación presente no solo a competidores, sino también a líderes que son referentes para los estudiantes internos y externos a la universidad. El trabajo desarrollado para potenciar el liderazgo estudiantil, para incrementar los niveles de investigación de los estudiantes, ha permitido que estos líderes capaciten a sus compañeros desde una perspectiva entre pares. La labor docente entonces puede concentrarse en los nuevos retos, alcanzar niveles más altos de dominio y proporcionando herramientas mas complejas. CONCLUSIONES Y RECOMENDACIONES Referencias de libros: • Oscar Johanssen, Introducción a la Teoría General de Sistemas, Limusa, 1983. • Javier Aracil y Francisco Gordillo, Dinámica de Sistemas, Alianza editorial, 1997. • Benjamin Blanchard, Ingeniería de Sistemas, Isdefe, 1995. • Angel Sarabia, Teoria General de Sistemas, Isfede, 1995. • George Beal, Conducción y Acción Dinámica del Grupo, KAPELUSZ, 1964 • Noemi Paymal, Pedagogía 3000, Ox La-Hun,2008. Informes de actividades: • Informe Competencia de Programación, EMI, 2007, 2008, 2009, 2010 y 2011. • Informe Competencia de Programación, Universidad La Salle, 2009,2010 y 2011. Como se observó, la actividad de investigación relativa Unidad Académica Santa Cruz. 25 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Identificación de modelos borrosos utilizando la tecnicas de clustering ING. GERMAN JESÚS PEREIRA MUÑOZ Departamento Ingeniería de Sistemas - Escuela Militar de Ingeniería [email protected] RESUMEN La aplicación de las técnicas de clustering borroso para la identificación de modelos borrosos se está extendiendo cada vez más. Sin embargo, y dado que su origen es bien distinto a la ingeniería de control, aparecen numerosos problemas en su aplicación. En este trabajo se definen las características de un algoritmo de clustering ideal para su aplicación a la construcción de modelos locales de sistemas complejos no lineales para control. Posteriormente se desarrolla una nueva familia de algoritmos de clustering llamada AFCRC (Adaptive Fuzzy C-Regresssion models with Convex membership functions) que permite desarrollar modelos con esas características ideales, mejorando (respecto a algoritmos previamente existentes) la interpretabilidad de los modelos borrosos obtenidos y el descubrimiento de estructuras (hiper-)lineales en los mismos. Palabras Clave Clustering borrosas, identificación de sistemas complejos, sistemas borrosos INTRODUCCIÓN ALGORITMO DE CLUSTERING FUZZY C-MEANS Para tratar de modelar sistemas complejos se puede recurrir a su descomposición en un conjunto más o menos grande de submodelos con un rango de validez limitado, que denominamos modelos locales. El modelo global del sistema se puede obtener a través de la integración de los modelos locales utilizando, por ejemplo, una base de reglas borrosa que permite la selección de los modelos adecuados a la situación en que se encuentra el sistema [9]. Con este enfoque se dispone de una técnica simple e intuitiva para el modelado de procesos complejos, además de una herramienta muy útil para el diseño de sistemas de control. La mayoría de las técnicas analíticas de clustering borroso se basan en la optimización de la función objetivo cmeans [2] o alguna modificación de ésta. Los problemas que surgen a la hora de utilizar esta técnica son la selección del número de modelos locales que se deben emplear y la identificación de los distintos modelos locales utilizados. Una de las alternativas es la utilización de datos experimentales y extraer a partir de éstos la estructura del sistema de reglas borrosas (extracción de reglas) y los parámetros de los modelos locales (identificación paramétrica). Existen diversos métodos para resolver este problema y se basan en algoritmos genéticos, redes neuronales, plantillas o técnicas de agrupamiento (clustering)[1]. Los algoritmos de agrupamiento borroso son los más adecuados para la identificación borrosa ([12], [5], [1]). Los más utilizados en este tipo de aplicaciones son el método de Fuzzy CMeans (FCM) [2] y el método de Gustafson-Kessel (GK) [6]. Función objetivo c-means La función objetivo base de una gran familia de algoritmos de clustering borroso es la siguiente: Donde: son los datos que deben ser clasificados, (3) es una matriz partición borrosa de Z, (4) es el vector de centros (centroides, prototipos) a determinar, (5) es una norma, y (6) es un exponente que determina la "borrosidad" de los clusters resultantes. El valor de la función de coste (1) es una medida ponderada del error cuadrático que se comete al representar los c clusters por los prototipos ci. Algoritmo fuzzy c-means (FCM) La minimización de la función objetivo (1) es un problema de optimización no lineal que puede ser resuelto de muchas formas, pero la más habitual es la conocida como algoritmo fuzzy c-means. 26 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Los puntos estacionarios de la función objetivo (1) se encuentran añadiendo la condición de que la suma de las pertenencias de un punto a todos los clusters debe ser igual a uno a J mediante los multiplicadores de Lagrange [13]: aunque no tanto como el FCM, se usa bastante en la bibliografía para la obtención de modelos borrosos, dado que los clusters hiperlipsoidales que busca, detectan de forma bastante correcta los comportamientos quasi-lineales de los diversos regímenes de funcionamiento que pueden existir en un conjunto de datos. (7) ALGORITMO DE GUSTAFSON-KESSEL (GK) Igualando a cero las derivadas parciales de _ con respecto a U, C y _, las condiciones necesarias para que (1) alcance su mínimo son: Este algoritmo, al extender el algoritmo básico fuzzy cmeans eligiendo una norma diferente Bi para cada cluster, convierte (5) en [6]: (10) (8) (9) Estas matrices son ahora tomadas como posibles variables para la optimización de la función (1), con lo que se adaptará la norma a cada cluster según sus características. Sea B = {B1, B2, ..., Bc} el vector que contiene las c normas. La nueva función a minimizar será: (11) La ecuación (9) nos da un valor para ci como la media ponderada de los datos que pertenecen a un cluster, donde los pesos son las funciones de pertenencia. El problema más importante con el que nos enfrentamos al emplear el algoritmo FCM para la identificación de modelos borrosos, es que los clusters identificados tienen forma hiper-elipsoidal, cuando lo deseable para una posterior aplicación a control es que, como se ha dicho, dichos clusters tengan una estructura afín o lineal. Existen muchas extensiones y modificaciones al algoritmo básico c-means que se ha descrito. Estos nuevos métodos pueden ser clasificados en tres grandes grupos: • • • Algoritmos que utilizan una medida de la distancia adaptativa (una norma diferente para cada cluster). Esto posibilita la detección de clusters de datos con estructuras (tamaños y formas) diferentes. Algoritmos basados en prototipos lineales (norma constante y prototipos variables). Es una alternativa a la solución anterior de las restricciones de FCM. Algoritmos basados en prototipos no lineales. Este tipo de algoritmos no tienen aplicación al caso que nos ocupa (clusters huecos). De entre los algoritmos con distancia adaptativa, cabe destacar el de Gustafson-Kessel (GK), algoritmo que extiende el algoritmo básico fuzzy c-means eligiendo una norma diferente Bi para cada cluster. Este algoritmo, cumpliendo (3), (4) y (6). Para obtener una solución viable, Bi debe ser limitada de alguna forma. La forma más habitual es fijar el determinante de Bi, lo que es equivalente a optimizar la forma del cluster manteniendo su volumen constante: (12) con _i constante para cada cluster. La expresión que se obtiene mediante los multiplicadores de Lagrange es: (13) siendo Fi la matriz de covarianzas de cluster i definida por: (14) Una vez determinados los clusters hiperlipsoidales, si lo que se desea es conseguir un modelo borroso de TakagiSugeno, se deberán ajustar dichos clusters a estructuras lineales siguiendo la información proporcionada por el eje mayor de dicho cluster y mediante el uso de, por ejemplo, el algoritmo de mínimos cuadrados. El algoritmo GK es bastante adecuado para el propósito de la identificación, ya que tiene las siguientes 27 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 propiedades: • • • La dimensión de los clusters viene limitada por la medida de la distancia y por la definición del prototipo de los clusters como un punto. En comparación con otros algoritmos, GK es relativamente insensible a la inicialización de la matriz de partición. Como el algoritmo está basado en una norma adaptativa, no es sensible al escalado de los datos, con lo que se hace innecesaria la normalización previa de los mismos. El objetivo primordial de este trabajo es buscar técnicas de clustering que desarrollan clusters lineales o hiperplanos (consecuente deseado), manteniendo la interpretabilidad de las reglas (antecedente deseado) y todo ello con resultados de error de modelado al menos tan buenos como el algoritmo GK, de forma que se pueda facilitar el uso posterior de dichos modelos para el control del sistema que está siendo modelado. Como se verá, esto se consigue por medio de la implementación de lo que se ha llamado función de coste mixta. ALGORITMOS CON PROTOTIPOS LINEALES Por todas estas características es bastante empleado en la identificación de los sistemas que no ocupan. Sin embargo, también tiene sus desventajas: • • • • La carga computacional es bastante elevada, sobre todo en el caso de grandes cantidades de datos. El algoritmo GK puede detectar clusters de diferentes formas, no solo subespacios lineales que son los que en principio nos interesan (en realidad busca clusters hiperelipsoidales). Cuando el número de datos disponibles es pequeño, o cuando los datos son linealmente dependientes, pueden aparecer problemas numéricos ya que la matriz de covarianzas se hace casi singular. El algoritmo GK no podrá ser aplicado a problemas puramente lineales en el caso ideal de no existir ruido. Si no hay información al respecto, los volúmenes de los clusters se inicializan a valores todos iguales. De esta forma, no se podrán detectar clusters con grandes diferencias en tamaño. Por otra parte, es una característica común de la identificación de modelos borrosos por clustering olvidar el fin (el modelo borroso) en la etapa de agrupación de los datos. Siempre es un paso posterior derivar reglas en alguno de los tipos de modelo borroso existentes (Takagi-Sugeno en nuestro caso). Para ello, la solución más sencilla es proyectar la pertenencia a los clusters obtenidos en el espacio deseado, obteniendo así funciones de pertenencia que definirán conjuntos borrosos en los espacios que se proyecten. Otra opción en conservar en el espacio n-dimensional la función de pertenecía obtenida. Si no se realiza la proyección en el espacio de salida (modelo Mandami), se emplea un método alternativo de ajuste apropiado para la determinación del consecuente (mínimos cuadrados, algoritmos genéticos, ...). Además, se suele perder la interpretabilidad de las reglas a cambio de un bajo error de modelado. 28 Existen diferentes algoritmos que eliminan el problema de la limitación de forma y tamaño de los clusters impuesta por FCM manteniendo la norma constante pero definiendo prototipos r-dimensionales (0 ≤r ≤n-1), lineales o no lineales, en subespacios del espacio de datos. Esta opción es opuesta a la idea de GK de emplear normas variables, pero también obtiene buenos resultados. Los algoritmos de este tipo y que pueden ser de nuestro interés, referentes a espacios o subespacios lineales, son el algoritmo fuzzy c-varieties [2] (FCV) y el algoritmo fuzzy c-regression models [8] (FCRM). De entre todos estos algoritmos, el que en un principio parece más interesante es el FCRM, ya que ajusta los parámetros de la clasificación a un modelo de regresión genérico: (15) con las funciones fi parametrizadas por _i _R pi. El grado de pertenencia µik _U se interpreta en este caso como la cercanía existente entre el valor predicho por el modelo (15) e yk. El error de predicción suele calcularse como: (16) Las funciones objetivo a minimizar con el método que se presenta, son definidas por U _Mfc y (_1, ...,_c) _R p1x R p2 x ... x R pc para (17) Una posibilidad para minimizar (17) se presenta en [7] . A pesar de lo interesante que en un principio parece el algoritmo, tan solo Kim [10] sugiere emplearlo para el modelado borroso. Además, los resultados que obtiene no son muy prometedores, y se considera que solo debe ser empleado como una primera aproximación y el ajuste fino del modelo final se hará posteriormente, por ejemplo, con el método del gradiente. En cuanto al antecedente REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 de las reglas lo obtiene en un paso también posterior al clustering, mediante un ajuste de U a funciones exponenciales. El comportamiento de FCRM cuando en los datos no hay estrictamente clusters lineales, sino que lo que se pretende es obtener modelos lineales que aproximen a un sistema que no es lineal (ni siquiera a tramos) se puede comprobar buscando modelos lineales con alguna curva, por ejemplo, una parábola. Las soluciones que obtiene FCRM para este caso se muestran en la figura 1. Figura 1. FCRM en la detección de datos sin estructura lineal (azul: datos, verde: simulación, rojo: modelos lineales identificados). Una inicialización de la matriz de partición U más cercana al resultado deseado lleva a resultados como los mostrados es la figura 2a, pero nunca comparables a los que se obtienen con el algoritmo GK (figura 2.b). Por tanto, este algoritmo no consigue los objetivos deseados aunque su filosofía no sea desechable. Existe una familia de algoritmos que combina ventajas de uno y otro enfoque y que se presenta a continuación. Figura 2. a) FCRM en la detección de datos sin estructura lineal con U dada (azul: datos, verde: simulación, rojo: modelos lineales), b) GK en el mismo caso (azul: datos, rojo: simulación, verde: modelos lineales). A L G O R I T M O S C O N P R O TO T I P O S M I X TO S El problema del que adolece el algoritmo es que aunque el error entre los datos de salida y los del modelo se minimiza, los modelos lineales obtenidos no son nada parecidos a lo esperado (aproximar la función a modelar con modelos lineales en el entorno de un punto de funcionamiento), tal y como se muestra especialmente en la figura 1.b. Existe un tercer tipo de algoritmos (además de los que tienen norma adaptativa o los que emplean prototipos lineales) que intentan superar los problemas de los algoritmos con prototipos lineales mediante la combinación de éstos con los de norma adaptativa. Estos algoritmos son el algoritmo fuzzy celliptotypes [2] (FCE) y el algoritmo 29 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 adaptive fuzzy c-regression models [11] (AFCR), y a los que podríamos llamar algoritmos con prototipos mixtos. Con FCE se pretenden superar algunos de los problemas del FCV. Se toma un criterio genérico, (18) se fuerza a cada cluster a tener un centro de gravedad cdgi y se mide la distancia como combinación de las distancias de FCM (Dik) y FCV (Drik) (19) con _ _[0,1]. El problema en este algoritmo es la elección del _ correcto para cada cluster. El algoritmo AFCR (del que tan solo se han encontrado referencias en la literatura japonesa) intent proporcionar un tratamiento similar a FCRM del que hace FCE con FCV. En este caso el criterio queda: (20) y se toma la distancia como combinación de las distancias de FCRM (Eik) y FCM (Dik): Figura 3. AFCR en la detección de datos sin estructura lineal (azul: datos, verde: simulación, rojo: modelos lineales) para 3 clusters (a) y 5 clusters (b). (21) con _ _[0,1]. El primer término proporciona el mismo criterio que FCRM y el segundo incrementa la capacidad de partición en el espacio de las variables ya que tiene en cuenta la distancia de los datos al prototipo de los clusters. La elección del _ se hace de forma dinámica en este algoritmo y se acerca a 1 según la estructura descubierta en el cluster es más lineal. Su determinación se basa en (22) con _kl los autovalores de la matriz de covarianzas definida en (14) para GK. De este modo se conjuga en un solo algoritmo ventajas de FCRM, FCM y GK. El parámetro _ sirve de balance entre los términos cuando su tamaño medio es muy diferente y no hay ningún estudio respecto a su determinación. Los resultados que obtiene AFCR para el mismo ejemplo planteado en las figuras 1 y 2 se pueden observar en la figura 3 y se pueden comparar con el resultado obtenido por GK en la figura 4 y FCRM en la figura 3. 30 Figura 4.GK la detección de datos sin estructura lineal con U dada (azul: datos, rojo: simulación, verde: modelos lineales) para 3 clusters (a) y 5 clusters (b). REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Los resultados se corresponden con la mejora indicada en [11] respecto a FCRM, igualando resultados de algoritmos como el GK y obteniendo, al tiempo de realización del clustering, una serie de modelos locales lineales que se ajustan perfectamente a la función en estudio e incluyendo el error de modelado en la función de coste. Además, la capacidad de detección de estructuras lineales no se ha perdido en AFCR, obteniendo resultados idénticos a FCRM con diferentes conjuntos de datos en lo que éste funcionaba correctamente. A continuación, y dados los buenos resultados obtenidos, se estudió el campo en el que GK se comporta mejor y que es, por otra parte, el que más interesa: el mapeado de funciones estáticas y dinámicas, como nos vamos a encontrar en control. Para ello, se ha tomado en primer lugar una serie de datos reales de un biorreactor [3], ejemplo que se muestra en la figura 5. Figura 6. GK detectando estructuras lineales en datos reales (azul: datos, rojo: simulación, verde: modelos lineales). Este efecto (el de la pérdida de la interpretabilidad) se hace mucho más claro en sistemas más "complejos". Figura 5. AFCR (a) y FCRM (b) detectando estructuras lineales en datos reales (azul: datos, rojo: simulación, verde: modelos lineales). Claramente AFCR supera FCRM (figura 5) e iguala GK (figura 6). Cabe destacar que en ambos casos de resultado positivo (AFCR y GK) las funciones de pertenencia borrosas obtenidas pierden parte de su interpretabilidad (convexidad), como se muestra en la parte inferior de la figura 6. Figura 8. AFCR (a) y GK (b) en la detección de datos dinámicos. 31 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Los resultados mostrados en 8 no son demasiado buenos al fijarnos en las funciones de pertenencia y, aunque nuevas ejecuciones de AFCR (variando el valor de _) o GK dan clusters que aproximan mejor (localmente) la función en estudio, las funciones de pertenencia han perdido su interpretabiblidad a cambio de un bajo error de modelado. Una inspección de la matriz U definitiva a la que llevan AFCR o GK, nos indica que se minimiza el error no por cercanía del modelo obtenido, sino por la ponderación de varios modelos. Sin embargo, lo que nosotros pretendemos buscando modelos cuyo fin es un posterior control, son modelos locales lineales que se aproximen lo más posible al modelo del sistema: se pretende aproximar la función desconocida que representa al sistema con hiperplanos en el entorno del prototipo del cluster que representará un punto de funcionamiento. La idea que se persigue a partir de este momento es incluir en el proceso de clustering alguna condición que favorezca la pertenencia a clusters concretos: entradas de U (pertenencias) cercanas a 1 si estamos cerca del prototipo del cluster y cercanas a 0 si estamos lejos del prototipo. Se pretende, por tanto, conseguir la convexidad de las funciones de pertenencia borrosas suministradas en el proceso de identificación, pues es lo que se necesita para una posterior interpretación y validación y ni el algoritmo AFCR ni el GK lo consiguen. A pesar de esto, con los algoritmos propuestos hasta el momento, ya se puede decir que el funcionamiento de AFCR supera a GK, dado que para los mismos conjuntos de datos se obtienen resultados finales similares y siempre con la ventaja de que el consecuente afín de las reglas borrosas identificadas forma parte del propio proceso de clustering. (24) con _ _[0,1] siguiendo para su determinación el criterio (22). El parámetro _se mantiene para el balance entre los términos cuando su tamaño medio es muy diferente y se incluyen _1y _2con el mismo fin. Para determinar los valores de Dlejos iky Dcerca ik se identifica en (25) y (26), respectivamente, el criterio de distancia que es necesario incluir en un índice para expresar la penalización por alta pertenencia de puntos lejanos a un prototipo (25) y baja pertenencia de puntos cercanos al prototipo (26). Se ha utilizado una penalización exponencial en ambos casos, lo que llevará a una preferencia por la generación de funciones de pertenencia exponenciales, aunque dicho criterio puede ser modificado según el criterio que pueda interesar en cada caso. (25) (26) Este nuevo algoritmo, denominado AFCRC (adaptive fuzzy c-regression models with convex membership functions), ha sido programado y, aunque se pretende realizar en el futuro un estudio teórico para la determinación más adecuada de _1y _2, numerosas simulaciones se han llevado a cabo con resultados muy interesantes. Para el mismo conjunto de datos empleados en el ejemplo de la figura 8, el nuevo algoritmo se comporta para diferentes valores de _1(no se han incluido en este caso variaciones del término _2) como se observa en las figuras 9 a 11. ALGORITMOS QUE FAVORECEN LA CONVEXIDAD Aprovechando, como ya se ha comentado, la demostración de [2] en la que se indica que la única condición para la convergencia del índice J de los algoritmos de clustering es que la distancia sea siempre positiva, se van a añadir nuevos términos a la distancia (21) empleada en AFCR para mejorar la convexidad de las funciones de pertenencia y manteniendo lo positivo de este algoritmo. Para un criterio como el mostrado en (23) (23) se incluirá en DC ikun término para penalizar la alta pertenencia de los puntos lejanos a un prototipo (Dlejos ik) y otro para penalizar la baja pertenencia de puntos cercanos al prototipo (Dcerca ik), manteniendo también las distancias de FCRM (Eik) y FCM (Dik ). La nueva distancia global que se empleará será: 32 Figura 9. Clusters (a) y funciones de pertenencia (b) con AFCRC (_1= 10^5) REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 forma de las funciones de pertenencia y mejorar su convexidad con una correcta elección de parámetros, tal y como muestras las últimas figuras. El efecto de (26), aunque no tan espectacular, tampoco es despreciable. La combinación de ambos términos lleva a resultados como el de la figura 12, donde se ha tomado el mejor de los valores observados para _1en las simulaciones anteriores y se han probado distintos valores de _2 hasta obtener los resultados mostrados en la figura. Figura 10. Clusters (a) y funciones de pertenencia (b) con AFCRC (_1= 10^3 Figura 1 Clusters (a) y funciones de pertenencia (b) con AFCRC (_1= 10^3 y _2= 10^-2). Con este segundo término se aprecia una mejora en las pertenencias de los puntos centrales de los clusters, pero muy ligera. Por tanto, parece que ambos términos cumplen su cometido y ayudan a conseguir unas funciones de pertenencia más interpretables y unos clusters más ajustados a lo deseado. Figura 11. Clusters (a) y funciones de pertenencia (b) con AFCRC (_1= 10^2). El efecto del término generado en (25) en el proceso de clustering es muy claro en lo que respecta a modificar la Sin embargo, para el ejemplo anterior el ajuste de _1 y _2 se ha hecho de forma manual. Como ya se ha dicho, es un trabajo para el futuro determinar algún criterio para que fuese el propio proceso de clustering el que determinase el _ apropiado en cada caso. Una primera aproximación sencilla se ha determinado viendo que los términos sigma están situados en el denominador de un término exponencial, cuyo numerador es la distancia al cuadrado del punto que se está evaluando. Es por ello que se intuye una dependencia del _ adecuado con las distancias, el rango máximo de las variables (universo de discurso) y el número de clusters que se pretende emplear para explicar el sistema. Como regla sencilla se ha empleado en este artículo _1=DM/(clusters/2) y _2=Dm/(clusters/2). Los resultados con 33 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 esta estimación y permitiendo que los valores de DM (Distancia Máxima) y Dm (Distancia mínima) sean dinámicos (recalculados en cada iteración), se obtienen los resultados de la figura 13 para 4 y 6 clusters. Figura 13. Clusters y funciones de pertenencia con AFCRC y asignación automática de _. Los resultados en este caso son buenos para todo número de clusters y se puede comprobar una clara mejoría respecto al algoritmo GK en el caso concreto de tomar 6 clusters (figura 8.b). En el caso de volver a tomar los datos del biorreactor (como en las figuras 5 y 6) y aplicar AFCRC con este criterio, el algoritmo también llega a resultados correctos, tanto en modelado con funciones lineales (consecuentes de las reglas borrosas) como en la interpretabilidad de las funciones de pertenencia (antecedentes de las reglas borrosas). Los resultados de AFCRC se pueden observar en las figuras 14.a a 16.a y son fácilmente comparables con el algoritmo GK en las figuras 14.b a 16.b, siendo la mejora muy clara. 34 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Figura 15. Detección de 4 clusters y funciones de pertenencia con AFCRC de asignación automática de _(a) y GK (b). Figura 16. Detección de 5 clusters y funciones de pertenencia con AFCRC de asignación automática de _(a) y GK (b). En combinaciones de datos más sencillas, como el caso de la parábola empleada en las figuras 2 a 5, AFCRC no pierde sus capacidades. Esto queda claramente mostrado en la figura 17 para 2, 3, 4 y 8 clusters. Figura 17. Detección de diferentes números de clusters y sus funciones de pertenencia con AFCRC de asignación automática de _. CONCLUSIONES En el artículo se propone la definición e implementación de un nuevo algoritmo que mejora la interpretabilidad de las reglas borrosas, además de generar en el proceso de clustering los consecuentes afines de las reglas borrosas de tipo Takagi-Sugeno. Figura 14. Detección de 3 clusters y funciones de pertenencia con AFCRC de asignación automática de _(a) y GK (b). Este algoritmo de clustering (especialmente diseñado para identificar modelos borrosos para control) se espera que proporcione modelos que experimenten en su funcionamiento para simulación mejoras importantes, tanto por la facilidad de implementación de los antecedentes del modelo basado en reglas como distancias (ponderadas exponencialmente) al prototipo (gracias a la convexidad de las funciones de pertenencia), 35 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 como por la generación del consecuente en el proceso de clustering teniendo en cuenta el error de modelado en cada paso de la iteración. Igualmente se observa mejoría respecto al efecto del ruido en el proceso de identificación, pues la tendencia a la convexidad de las funciones de pertenencia hace disminuir la importancia de aquellos puntos que se salgan del comportamiento más común, no obligando al modelo a tener un error nulo en los mismos. • • • REFERENCIAS • • • • • 36 Babuska R. Fuzzy Modeling and Identification. PhD dissertation, Delft University of Technology, Delft, The Netherlands, 1996. Bezdek J. C. Pattern recognition with Fuzzy Objective Function Algorithms. Ed. Plenum Press, 1987. Carbonell P., Díez J. L., Navarro J. L. Aplicaciones de técnicas de modelos locales en sistemas complejos. Revista de la Asociación Española para la Inteligencia Artifical, nº 10, pp. 111-118, 2000. Díez J. L., Navarro J. L. Fuzzy Models of Complex Systems by means of Clustering Techniques. Proc. 2 Nd Intelligent Systems in Control and Measurement, pp.147-153,1999. Emami M. R., Türksen I. B., Goldenberg A. A. “Developement of a Systematic Methodology of Fuzzy Logic Modeling”, Transactions on Fuzzy Systems, vol. 6, nº3, pp. 346-36, 1998. • • • • Gustafson E. E., Kessel W. C. “Fuzzy Clustering with a Fuzzy Covariance Matrix”, IEEE CDC, San Diego, California, pp. 761-766. 1979. Hathaway R. J., Bezdek J. C. “Grouped Coordinate Minimization Using Newton's Method for Inexact Minimization in One Vector Coordinate”. Journal of Optimization Theory and Applications, vol. 71, nº 3, p. 503-516. 1991. Hathaway R. J., Bezdek J. C. “Switching Regression Models and Fuzzy Clustering”, Transactions on Fuzzy Systems, vol. 1, nº3, pp. 195-204, 1993. Johansen, T.A., Murray-Smith, R. “The operating regime approach to nonlinear modelling and control”, en Multiple Model Approaches to Modelling and Control. Ed. R. Murray-Smith and T.A. Johansen, London: Taylor & Francis, 1997. Kim E., Park M., Ji S., Park M. “A New Approach to Fuzzy Modeling”. Transactions on Fuzzy Systems, vol. 5, nº3, pp. 328-337, 1997. Ryoke M., Nakamori Y. “Simultaneous Analysis of Classification and Regression by Adaptive Fuzzy Clustering”. Japanese Journal of Fuzzy Theory and Systems, vol. 8, nº1, pp. 99-113, 1996. Sugeno M., Yasukawa T. “A Fuzzy-Logic-Based Approach to Qualitative Modeling”. Transactions on Fuzzy Systems, vol. 1, nº1, pp. 7-31, 1993. Vista Aérea Unidad Académica La Paz - Irpavi REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Detección de patrones caóticos en fenómenos de contaminación GIMMY NARDÓ SANJINÉS TUDELA Departamento Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia [email protected] RESUMEN En el presente trabajo se realiza una aplicación del método para la detección de caos. El trabajo empírico se realiza para la ciudad de Bogotá que según datos del Departamento Técnico Administrativo del Medio Ambiente (DAMA), en la primera década del presente siglo se superaron consecutivamente los niveles estándares de ozono y material particulado. Así, la concentración de partículas suspendidas (PM10) supera en varias estaciones en Bogotá la norma de 170 _g/m3. También las concentraciones máximas cada 8 horas de ozono llegan a superar los límites estándar establecidos, lo cual genera un ambiente de contaminación alto (DAMA, 2010). Es así que viendo la necesidad de estudios, donde se analicen las características dinámicas y de comportamiento no lineal o caótico de los datos, el presente trabajo muestra la aplicación de un método para la detección de caos. Creando de esta manera una herramienta para describir con características propias los fenómenos de contaminación ambiental. KEYWORDS Exponente de Lyapunov, Dimensión Fractal, Análisis Espectral, Teoría del Caos, Dinámica no Lineal, Dinámica de Sistemas Complejos. INTRODUCCIÓN La importancia de conservar el medio ambiente ha crecido considerablemente en la actualidad. Es así que se crearon metodologías y técnicas para poder explotar, asignar y conservar eficientemente los recursos naturales y ambientales. La prevención y mitigación de episodios de alta contaminación, por su parte, debe considerar medidas que sean efectivas, en cuanto a la disminución de concentración de contaminantes en el aire y también en términos de costos. Este tipo de estudios, es decir, sobre pronóstico de contaminación atmosférica, en la ciudad de Santa Fe de Bogotá, toma un papel importante a futuro, puesto que como sucede en países como Chile, este tipo de pronósticos son muy comunes y se aplican para realizar trabajos de prevención en cuadros de alta contaminación. Dada la importancia de conocer los patrones de comportamiento de los niveles de contaminación, la detección de caos muestra si las series de datos poseen características como la sensibilidad a condiciones iniciales, una dimensión fractal y si posee frecuencias complejas, Estos se describen con un cierto grado de confiabilidad, para determinar medios que ayuden determinar la ocurrencia de episodios críticos, con el fin de iniciar acciones que tiendan a prevenir, revertir o mitigar una situación de alta contaminación. El objetivo del presente trabajo es detectar caos en las series temporales de contaminación con la finalidad de permitir mostrar si las series poseen, enterradas en ruido, patrones de dinámica no lineal caótica. El método se muestra en la figura 1. Figura 1. Método para Detectar Caos en S.T. ANÁLISIS DE DATOS En la presente sección se inicia el estudio de las series temporales reales, en tal caso, las series temporales de partículas suspendidas serán del sector Nor-Occidental de la ciudad de Bogotá, en particular de la estación que se encuentra en "Carrefour", pues en dicha estación se superó en varias oportunidades los niveles permitidos. Las series temporales de Ozono serán tomadas de la estación de "SONY" ya que según información del DAMA, en esta estación se tienen los mayores niveles monitoreados de O3 en datos diarios. Así, se muestran las series en estudio de la siguiente manera; Ozono (Figura 3) y Partículas Suspendidas (Figura 4). Se prefieren los datos de estaciones que sobrepasaron los niveles establecidos, para buscar pronosticar los eventos extremos en el comportamiento de la serie, y así predecir niveles altos de contaminación, los cuales 37 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 son los que en realidad tienen efecto a corto plazo en las personas. La serie temporal de Ozono bajo la prueba de Dickey Figura 6, Desintegración logarítmica de PM10 Figura 3, Serie temporal 1000 datos de Ozono Estación “SONY” En la prueba de normalidad ambas series transformadas rechazan la hipótesis nula de normalidad mediante la prueba de Jarque-Bera a un nivel del 5%, esta característica se debe a la existencia de puntos atípicos en el comportamiento (outlier) los cuales responden a puntos de alta contaminación (puntos extremos). DETECCIÓN EMPÍRICA DE DINÁMICA NO LINEAL CAÓTICA Figura 4, Serie temporal 1200 datos de Partículas Suspendidas Estación "Carrefour" Fuller Ampliado (DFA) muestra estacionariedad, lo mismo sucede con la serie temporal de Partículas Suspendidas pues esta presenta la misma característica en los datos. Para buscar que la media sea cero, minimizar el efecto de puntos atípicos y conseguir normalidad en los datos se procede a encontrar la diferencia de logarítmica de los datos como se muestra en la ecuación 7, así esta es una transformación que es un caso particular de la transformación Box-Cox, Cromwell (1994). La noción de caos se puede abordar desde un punto de vista topológico, pero en el presente trabajo tendrá un enfoque distinto, puesto que se trabajaran con series temporales reales y de las cuales no tenemos el modelo caótico que lo genera, por lo tanto se hablará de caos en el contexto de cumplir requisitos que caracterizan la existencia de no linealidad y caos en las series temporales. Por otra parte cuando se analiza una serie temporal experimental no se conoce a priori si la serie es de tipo determinista o estocástica, por eso es fundamental aclarar que la aplicación de técnicas caóticas no implica que la serie sea de origen determinista a pesar que la teoría sea determinista. Así, el primer paso en la detección de caos es el modelado de las series temporales, mediante modelos lineales, como se muestra a continuación. Un modelo ARIMA(p,d,q) se define de la siguiente manera, (Judge & Hill, 1988): Sea entonces se tiene: Figura 5, Desintegración logarítmica de Ozono 38 con "L" el operador retrazo, Para el presente caso se estima el modelo mediante la metodología (Box & Jenkins, 1976), obteniendo para la serie temporal del Ozono el siguiente modelo ARMA(1,1) de la serie transformada con diferencia logarítmica. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 dimensiones. Para cada una de las dimensiones de transformación m, se elige un épsilon , con cuyos datos la correlación integral está definida por: Tabla 1. Modelo Autoregresivo y de medias móviles para el ozono El presente modelo se diagnostica mediante la prueba de Ljung-Box, bajo diferentes cantidades de retrasos y a un nivel de significancia del 5% , con lo que se puede inferir de manera estadística la independencia lineal de los errores y con ello que el modelo a filtrado la componente lineal de la serie temporal. donde: Tm=T-m+1, t y s tienen rango de 1 a T-m+1 en la sumatoria y son restringidos tal que t`s. La función indicada en (11) es: El modelo estimado para partículas suspendidas se muestra en la tabla 2, el cual está conformado por un modelo ARMA(0,3)xSARMA(1,1), con rezago estacional de d = 7, esto significaría que el comportamiento de la contaminación se reproduce en cantidades similares en días iguales de cada semana, así también este tiene base en los datos resultado de diferencia logarítmica. En Cromwell, et al. (1994) se muestra que bajo la hipótesis nula de independencia, la presente prueba estará asintóticamente distribuida normal estándar. Se debe tomar en cuenta que en el estadístico se tienen dos variables no conocidas, la transformación o empotrado de dimensión m y el épsilon . Bajo la prueba de Brock, Dechert y Scheinkman se puede afirmar que la serie temporal correspondiente a los datos de partículas suspendidas y ozono, a un nivel de significancia del 5%, tiene comportamiento no lineal . Tabla 2. Parámetros del modelo para Partículas Suspendidas Bajo la prueba de Ljung-Box, a un nivel de significancia del 5% y diferentes cantidades de retrasos, se puede afirmar que los errores del modelo son linealmente independientes, por lo cual el modelo captura el componente lineal de la serie satisfactoriamente . Lo anteriormente descrito se ve respaldado por la propiedad de invertibilidad, ya que las raíces recíprocas reales son menores que uno, así también las raíces complejas se encuentran dentro del circulo de la unidad. Sin embargo, aunque se logró independencia en los datos, los errores no se comportan de manera normal, esto debido supuestamente a un comportamiento de dinámica no lineal, lo que se pasa a demostrar. Para lograr demostrar dinámica no lineal en la serie se aplica la prueba dada por Brock, Dechert y Scheinkman, el cual por su robustez es utilizado para detectar patrones de comportamientos no lineales y por ultimo caos, (Cromwell, et al. 1994). La dependencia de x(t) es examinada a través del concepto de correlación integral, una medida que examina las distancias entre puntos, estos mediante una transformación en una dimensión m dada, para diferentes Complementando, si bien los resultados de la presente sección muestran la existencia de dinámica no lineal en las series de tiempo en estudio, no se puede afirmar aun si este comportamiento no lineal responde a un proceso determinístico o estocástico. Para determinar si alguno de los procesos - estocástco o caótico - existen en las series temporales se procede a estimar y demostrar la existencia de una dimensión fractal, el exponente de Lyapunov y finamente la existencia de frecuencias dentro de las series. Estimación de la Dimensión Fractal. Una importante propiedad de los sistemas no lineales es que ellos generan procesos aleatorios aunque el sistema sea determinístico. Así aunque ambos procesos deterministicos y estocásticos generan comportamientos similares a los aleatorios, la dimensión de los procesos de estos modelos son diferentes. Los procesos generados por modelos determinísticos tienen dimensión finita mientras que los procesos estocásticos tienen dimensión infinita, esto en el contexto teórico. Este resultado es importante ya que esto forma parte de las bases para identificar si un sistema es determinístico o estocástico, (Creedy & Martin, 1994). Por un lado ya se ha visto que los atractores extraños poseen una dimensión fractal, en general no entera, 39 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 cuando se la define a través de la óptica de Haussdorf. En la presente sección se va hablar de la autosimilaridad como un concepto central cuantitativo de la fractalidad. Intuitivamente, la dimensión fractal de un objeto geométrico es relacionada con un valor entero, pero en este caso la dimensión es más abstracta pues esta es representada por un número real positivo. Luego podemos definir la dimensión de Hausdorff que H denotamos por D como: Donde Estimación del exponente de Lyapunov. Para lograr el fin de estimar el exponente de Lyapunov - que es otra característica a cumplir para diagnosticar caos - en el presente trabajo se utiliza el método dado por Roseintein, que se muestra en (Fernández, et al., 2000). Con base en lo anterior, se tiene un consistente y robusto estimador para estimar el máximo exponente de Lyapunov, el cual está dado por la siguiente expresión: el cuadrado usado sirve para propósitos de remplazar por hipercubos menores a _. Como se muestra en la figura 7 perteneciente a la serie temporal de Ozono, se puede observar que existe una zona entre 0.7 y 1.3 que si se estima una recta esta tiene una pendiente de 0, por lo cual se puede afirmar que la presente serie temporal tiene una dimensión fractal igual a: 2.275 ± 0.391. Cabe aclarar que cada curva graficada responde a una dimensión n de empotramiento. También se puede apreciar en la figura 8, perteneciente a la serie temporal de partículas suspendidas que esta no presenta ninguna "meseta" o lugar donde se pueda lograr una recta a partir del punto 1.3 del eje de las x, esto implica que en la serie analizada no se presenta una dimensión fractal. Si exhibe un incremento lineal con una pendiente constante positiva para todo tamaño de dimensión, m para un m0 adecuado y un razonable rango de _, entonces está pendiente que puede ser estimada por mínimos cuadrados, es el exponente máximo de Lyapunov (Schreiber & Schmitz,1999). En las figuras 9 y 10 se muestran los resultados de la estimación del exponente de Lyapunov. Estas fueron generadas con la aplicación de la metodología antes expuesta. Como se puede observar en la figura 9, se puede deducir la existencia de un exponente positivo el cual confirma la existencia de caos en la serie temporal de ozono. Figura 9. Exponente de Lyapunov, Ozono. Distancia de correlación Figura 7, Dimensión fractal de ozono - Sony Distancia de correlación Figura 8, Dimensión fractal de Partículas Suspendidas Estación "Carrefour" 40 Figura 10. Exponente de Lyapunov, PM10 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Así, en la figura 10, se puede deducir que no existe un exponente positivo o este es muy pequeño para ser considerado una serie caótica, esto porque, no se puede visualizar rectas con pendiente muy diferente a cero con lo que se puede deducir que la serie temporal no tiene características caóticas o estas son muy pequeñas. Las anteriores afirmaciones son corroboradas por el método estadístico por lo que con base en este análisis se puede afirmar que el exponente de Lyapunov para la serie temporal de ozono es, 0.05±0.01, con lo que podemos afirmar que existe caos en esta serie temporal. Para la serie temporal de partículas suspendidas se puede decir que el exponente de Lyapunov es muy pequeño, 0.03±0.02 cuyo valor mínimo es 0.01 que es muy cercano a cero por lo que el caos contenido en la serie puede considerarse muy pequeño. frecuencia, fn Figura 11, Transformada de Fourier Rápida de ozono, Estación "SONY" Análisis Espectral. El objetivo de una transformada de Fourier es el de encontrar frecuencias, expresadas en sus características, denominados armónicos, con lo que se puede re-construir la función original a partir de coeficientes numéricos multiplicados por funciones armónicas puras. En otras palabras, la Transformada de Fourier: es una descomposición del espacio temporal en componentes de frecuencias que la forman. Se trata de una curva en el espacio de frecuencias. En función del método descrito, el cual es aplicado con los datos en estudio, los que fueron muestreados en intervalo diario se puede apreciar que el ruido que distorsiona el patrón de comportamiento en las series temporales es muy grande. Los resultados obtenidos mediante la transformada de Fourier rápida, correspondiente a ozono, muestran que a un nivel de significancia del 95% se puede afirmar que no existen frecuencias en ninguna de las series en estudio, los resultados de este análisis se muestran en las figuras 11 y 12. Por lo que se diagnostica infrecuencia en las series temporales. También se puede decir que las series tienen gran incidencia de ruido, que se muestra en el análisis espectral y que se acompaña de que en estas no exhiben frecuencias significativas, por lo que ambas no cumplen la característica de existencia de frecuencia. Esta afirmación se realiza en el sentido de búsqueda de frecuencias de ciclos pertenecientes a señales senoidales, cosenoidales o cualquier combinación de estas. Pero dada la estructura de los resultados, que se muestran en las figuras anteriores, se presumen frecuencias complejas o caóticas. frecuencia, fn Figura 12, Transformada de Fourier de Partículas Suspendidas Estación "Carrefour" CONCLUSIONES Con base en los análisis realizados se puede afirmar que la serie temporal de ozono exhibe comportamiento de dinámica no lineal caótica. Esto se afirma porque cumple la prueba BDS, posee un exponente de Lyapunov y una dimensión fractal signigicativos. En contraste, en la serie perteneciente a partículas suspendidas se menciona que posee dinámica no lineal, empero, el exponente de Lyapunov y la dimensión fractal no son significativas. Entonces se asevera que la serie temporal de partículas suspendidas pertenece a la dinámica no lineal estocástica. BIBLIOGRAFÍA • Balacco et. al. (1998) Señal de caos en series temporales Financieras. Documento de trabajo. • Bermúdez, Fernández & Souto, (2002) Sistemas de Control suplementario de la Contaminación atmosférica. • Martinic et. al. (1995) Caos y meteorología. Documento de trabajo. • Montealegre, (1993) Afecciones respiratorias y contaminación del aire en Santafé de Bogotá una aplicación de la regresión Lave-Seskin 41 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Las Tics en la educación moderna Carlos Fernando Torrez Belmonte Dirección Nacional de Informática Escuela Militar de Ingeniería RESUMEN La nueva tecnología Wearable promete transformar el proceso de aprendizaje y enseñanza, en el que los estudiantes lidiarán con el conocimiento de una forma activa, auto-dirigida y constructiva. Una herramienta educativa con tecnología “wearable” puede ayudar a los estudiantes a ejercer su creatividad e innovación, para interactuar con su entorno al recibir información de una forma más rápida. ‘ANTECEDENTES La palabra Wearable tiene una raíz inglesa cuya traducción significa "llevable" o "vestible"; en el campo tecnológico hacemos referencia a computadoras corporales o llevables con el usuario. Bajo esta concepción el ordenador o PC deja de ser un dispositivo ajeno al usuario, el cual lo utilizaba en un espacio definido pasando a ser un elemento que se incorpora e interactúa continuamente, además de acompañarlo a todas partes. Por tanto la tecnología Wearable hace referencia a todos los productos que incorporan un microprocesador y que utilizamos diariamente formando parte de nosotros. Los Wearable son dispositivos electrónicos que se han miniaturizado lo suficiente como para poder emplearse como accesorios o complementos, con las comodidades que ello conlleva, ofreciéndonos funciones dignas de productos de un tamaño mucho mayor sin apenas darnos cuenta de que los llevamos encima. Dentro de estos dispositivos, podemos mencionar las gafas inteligentes (Google Glass), su funcionamiento es simple: hacer todo lo que imaginamos con nuestro smartphone sin tener que usar las manos ni sacarlo del bolsillo, todo ello gracias a una pantalla que veremos frente a nosotros. Los relojes inteligentes donde la idea principal reside nuevamente en la posibilidad de conectarnos y utilizar nuestro teléfono móvil sin necesidad de sacarlo del bolsillo, todo desde nuestra muñeca. Las pulseras inteligentes, con este pequeño dispositivo podremos monitorizar una gran cantidad de datos durante nuestras sesiones de ejercicio, que será sincronizada en todo momento en internet, para que podamos consultarla desde la comodidad del ordenador. Cada vez que existe un cambio tecnológico se produce una innovación social y finalmente una reforma representativa. Con Wearable Technologies nos acabaremos adaptando poco a poco hasta estar totalmente sumergidos en la nueva “tecnología puesta”. Aunque en nuestro medio Wearable Technologies no están siendo utilizadas al 100%, se puede observar que en las Universidades bolivianas su uso se está incrementado. Entonces es momento de preguntarnos, ¿Cómo afectará las nuevas TICs en la educación Superior? DESARROLLO Una nueva generación de dispositivos inteligentes: gafas, relojes, pulseras, anillos son ahora etiquetados como inteligentes y las personas pretenden aprovechar estas capacidades tanto en el trabajo como en la educación. Las llamamos “Wearable Technologies”, que en una traducción a nuestro idioma se refiere a las Tecnologías que se llevan puestas, como una prenda o un complemento. 42 Dentro de nuestro sistema educativo boliviano, contamos con una década de múltiples y ricas experiencias en materia de introducción de TICs en los procesos de enseñanza-aprendizaje. Muchas veces, los programas y proyectos vienen empujados por una fuerte presión social y económica para que se incluyan las nuevas tecnologías en la Educación Superior. Sobre todo si nos referimos a la enseñanza a distancia o semipresencial. Lastimosamente estas tecnologías requieren de nuevas competencias en docentes y alumnos, esto para que REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 dichas fórmulas resulten exitosas. Sin embargo, este método exige de los docentes nuevas competencias tanto en la preparación de la información y las guías de aprendizaje, como en el mantenimiento de una relación tutorial a través de la red Internet. Exige de los alumnos junto a la competencia técnica básica para el manejo de los dispositivos técnicos, la capacidad y actitudes para llevar a cabo un proceso de aprendizaje autónomo y para mantener una relación fluida con su tutor. Algunas de las ventajas que podemos apreciar en el uso de las nuevas tecnologías para la formación universitaria son: • • • • • • • • Acceso de los estudiantes a un abanico ilimitado de recursos educativos. Acceso rápido a una gran cantidad de información en tiempo real. Obtención rápida de resultados. Gran flexibilidad en los tiempos y espacios dedicados al aprendizaje. Adopción de métodos pedagógicos más innovadores, más interactivos y adaptados para diferentes tipos de estudiantes. Interactividad entre el docente, el alumno, la tecnología y los contenidos del proceso de enseñanzaaprendizaje. Mayor interacción entre estudiantes y docentes a través de las videoconferencias, el correo electrónico e Internet. Colaboración mayor entre estudiantes, favoreciendo la aparición de grupos de trabajo y de discusión. En cuanto a los inconvenientes, podemos citar los siguientes: • • • • • • Elevado coste de adquisición y mantenimiento de los equipos informáticos. Velocidad vertiginosa con la que avanzan los recursos técnicos, volviendo los equipos obsoletos en un plazo muy corto de tiempo. Dependencia de elementos técnicos para interactuar y poder utilizar los materiales. Se corre el riesgo de la desvinculación del estudiante del resto de agentes participantes (compañeros y docentes) por una falta de personalización en la enseñanza. La preparación de materiales implica necesariamente un esfuerzo y largo período de concepción. Es una forma totalmente distinta de organizar las enseñanzas, lo que puede generar rechazo en algunos docentes que no acepten el cambio. Integrar la tecnología en el aula va más allá del simple uso del laboratorio, la computadora y su software. Para que la integración sea efectiva, se necesita una investigación que muestre profundizar y mejorar el proceso de aprendizaje además apoyar cuatro conceptos claves de la enseñanza: 1. Participación activa por parte del estudiante, 2. Interacción de manera frecuente entre el docente y el estudiante, 3. Participación y colaboración en grupo y 4. Conexión con el mundo real. Es importante hacer notar que la educación a distancia es similar a la autoeducación, la cual depende mucho de la voluntad y la perseverancia de cada persona, la cual en muchos casos necesita un contexto para motivarse a sí misma, ya sea teniendo un horario predeterminado que es controlado por un docente o una actividad donde existe un compromiso con un grupo de trabajo. Una de las metas principales de las políticas educativas es: capacitar a todos los docentes para que puedan usar y aprovechar las TICs en todas las áreas curriculares, de manera cotidiana. En los términos del aprendizaje, creatividad y uso de las tecnologías también se ha planteado una dicotomía entre quienes ponen el énfasis en una formación dura y tradicional en el dominio del hardware y el uso del software, contrapuesto a una formación más “polivalente” que incorpore las disciplinas que trabajan con la afectividad, las emociones y que lleve a los alumnos a desarrollar destrezas expresivas y cognitivas que tienen en su base esta dimensión emocional. CONCLUSIONES Sin duda, todo indica que en un futuro próximo no podremos hablar de la educación sin hablar de la tecnología y de la personalización y flexibilidad que ésta proporcionará, aunque un aspecto preocupante, será el grado de dependencia de estos dispositivos. De momento parecen más un centro de notificaciones que un dispositivo independiente. 43 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Descripcion de los equipos del laboratorio de redes de la Escuela Militar de IngenierÍa Luis Alberto Ruiz Lara. Calle Litoral #1826 - Miraflores - La Paz e-mail: [email protected] Escuela Militar de Ingeniería Irpavi La Paz - Bolivia RESUMEN En el Artículo se presenta una breve descripción de los equipos del laboratorio de redes “Lic. Fernando Yañez Romero” ABSTRACT A brief description of the laboratory computers networks “Lic. Fernando Yañez Romero” is presented in this article. comunicaciones con tecnología 4G, etc. Es bueno recalcar que ninguna Universidad del ámbito Nacional cuenta con equipos de dichas características. El presente artículo tiene como finalidad dar una breve descripción de los equipos de laboratorio. DESARROLLO Routers Un router o encaminador es un dispositivo de red que permite la interconexión de redes al nivel de la capa de Red del Modelo de Referencia OSI. INTRODUCCIÓN En la gestión 2014 la carrera de Ingeniería de sistemas de la Escuela Militar de Ingeniería Campus La Paz, cuenta con un laboratorio Moderno de Redes y telecomunicaciones, un laboratorio que proporcione a los alumnos el “Now How” que demanda el Mercado Laboral, sin duda este logro que potencia nuestra carrera es gracias a las gestiones realizadas por nuestro jefe de carrera el Sr. Tcnl. Julio Cesar Narvaez Tamayo durante las gestiones académicas 2012 y 2013 Inquietud que surgió desde el análisis del mercado laboral y las necesidades de enseñanza aprendizaje que demanda la inclusión de las NTIC´s en el siglo 21, donde el despliegue de las redes y las comunicaciones se convierten en un factor diferenciador para la competitividad y porque no decir la integración. Los laboratorios cuentan con equipamiento del fabricante líder en el rubro como es CISCO, los equipos de laboratorio proporcionaran a nuestros estudiantes habilidades en IPV4, IPV6, Enrutamiento, Voz y Telefonía IP, Seguridad, Wireless, Wireless extendida, 44 Desde el punto de vista funcional, un router puede concebirse como una computadora de propósito específico, en contraposición a una computadora personal a la que suele caracterizarse como de “propósito general”. En efecto, en una computadora personal podemos ejecutar software tan variado como un procesador de texto, programas para el tratamiento de imágenes o de sonido, aplicaciones que accedan a bases de datos, programas de contabilidad e incluso juegos. En un router no es posible ejecutar este tipo de software; en particular, en un router de Cisco solo se ejecuta un software específicamente diseñado para el mismo. Se trata del sistema operativo IOS, Internetwork Operating System, que realiza todas las funciones lógicas del router como ser el encaminamiento de paquetes, registro de tráfico de datagramas, actualización de tablas de encaminamiento a otras redes, etc. Por este motivo, configurar un router significa establecer los valores de una serie de parámetros de funcionamiento de este sistema operativo tales como, por ejemplo, el nombre de host del router o las direcciones IP de sus REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 interfaces de red, habilitar la ejecución de ciertos procesos como, por ejemplo, el encaminamiento de datagramas IP mediante los protocolos de encaminamiento RIP o E IGRP, entre otros. Considerado el router, entonces, como una computadora especial, entre sus componentes de hardware principales se encuentran un procesador, encargado de la ejecución de tareas y procesos, una placa madre y distintos tipos de memorias, así como ranuras o “slots” de expansión y dispositivos para la entrada y salida de datos. Lo que no suele tener un router es monitor y teclado, ni unidades de almacenamiento secundarias de datos como lo son las unidades de disquetes y de discos duros. De los elementos de hardware que sí están presentes, vamos a analizar aquellos con los cuales el usuario responsable de la configuración del router interactúa más habitualmente. Memorias Un router de Cisco normalmente consta de cuatro tipos de memoria, cada uno destinado a almacenar, en forma temporal o permanente, diferentes tipos de información. Estos cuatro tipos de memoria se denominan: • • • • RAM ROM NVRAM FLASH En la memoria RAM se almacena, entre otros elementos, las tablas de encaminamiento del router, la caché del protocolo ARP, los datagramas entrantes y también las colas de datagramas salientes. Es, en esencia, la memoria de trabajo del router. En esta memoria también se encuentra un archivo con los parámetros de ejecución del router; este archivo se denomina RUNNING-CONFIG, el cual se va a tratar mas adelante. En la memoria RAM, por otra parte, es donde se carga el sistema operativo IOS para su ejecución, de modo similar a como ocurre con el sistema operativo de una computadora personal que se carga desde disco a la memoria RAM en el proceso de arranque. La memoria ROM contiene el código de arranque del router, encargado de realizar las tareas de inicialización y carga del sistema operativo IOS. También en esta memoria se encuentra una versión “reducida” del sistema operativo a la cual se accede en caso que se necesite realizar alguna tarea de mantenimiento del router o en caso en que no se encuentre la imagen “normal” del sistema operativo. En el capítulo 10 se tratará mas en detalle este punto. La memoria NVRAM es un tipo especial de memoria que tiene la particularidad de que su contenido no se borra cuando se apaga el router. NV significa Non-Volatile, es decir no volátil. En esta memoria se almacenan dos elementos muy importantes para la operativa del router: el archivo de configuración de arranque, denominado STARTUP-CONFIG y el registro de configuración, denominado CONFIG-REGISTER. Finalmente, en la memoria FLASH, que también es una memoria no volátil, se almacena la imagen del sistema operativo, pudiéndose almacenar más de una imagen si el tamaño de la memoria FLASH instalada resulta suficiente. Los routers de Cisco disponen principalmente de dos tipos de dispositivos para entrada y salida de datos: puertos e interfaces de red. Puertos A través de los puertos es que el Administrador accede al router para ver y modificar su configuración y también para ver sus estadísticas de funcionamiento. Todos los routers de Cisco disponen de un puerto denominado CONSOLA (CONSOLE) y la mayoría de ellos también disponen de un puerto denominado AUXILIAR (AUX). Ambos puertos suelen estar ubicados en el panel posterior del router. El puerto de CONSOLA proporciona una conexión serial asincrónica del tipo EIA/TIA-232 (anteriormente denominada RS-232). El tipo de conector depende del modelo del router; algunos tienen un conector del tipo DB25 y otros tienen un conector del tipo RJ-45. Puesto que un router no tiene ni teclado ni monitor, se debe utilizar una computadora personal para suplir esta ausencia. Mediante un cable especial se conecta la computadora a través de uno de sus puertos seriales (COM1, por ejemplo. El tipo de cable a utilizar depende del tipo de conector de consola que tenga el router. Si el conector es del tipo RJ-45, el cable a utilizar debe ser del tipo “rollover” y si el conector es DB25 se ha de utilizar un cable serial. El cable, cualquiera sea su tipo, es provisto por el fabricante junto con el router. El puerto AUXILIAR también proporciona una conexión serial asincrónica del tipo EIA/TIA-232. Este puerto se 45 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 utiliza principalmente para acceder al router en forma remota a través de un modem y su correspondiente línea telefónica. Esta forma de acceso es útil cuando no se tiene acceso físico directo al router. Este puerto también puede utilizarse como una interfaz de red, por ejemplo, para respaldo discado (“dial backup”) o discado bajo demanda (“dial on-demand”). Interfaces de red Las interfaces de red se utilizan para conectar físicamente el router a las redes que el router va a interconectar. Es a través de estas interfaces que los paquetes de datos entran y salen del router. Habitualmente los routers tienen una interface de tipo LAN y una o más interfaces del tipo WAN. La cantidad y tipos de interfaces de red dependerán del modelo de router de que se trate. Incluso, algunos modelos de Cisco tienen ranuras de expansión que permiten insertar módulos de hardware con interfaces LAN o WAN adicionales. Mediante una interfaz LAN se conecta el router a la red local y las interfaces WAN se utilizan para conectar el router a redes remotas. Este modelo dispone de un puerto de consola RJ-45 y USB, un puerto auxiliar del tipo RJ-45, y tres interfaces de red Ethernet de 10/100/1000 Mbps., también del tipo RJ-45. Asimismo, dispone de cuatro ranuras de expansión en las que pueden insertarse tarjetas de hardware con interfaces WAN (WIC, WAN Interface Card) o con interfaces para voz (VIC, Voice Interface Card). Las interfaces WAN permiten conectar el router a redes de área extensa basadas en las principales tecnologías de uso actual tales como Frame Relay, ISDN, DSL de banda ancha y enlaces dedicados punto a punto. Por su parte, las interfaces de voz permiten digitalizar el tráfico de voz para luego encapsularlo en paquetes de datos y priorizarlos sobre el tráfico de datos normal. En cuanto a las capacidades de memoria, el modelo base 2911 tiene 2 GB de memoria FLASH y 1 GB de memoria RAM. Entre las varias funcionalidades que brinda el modelo 2911 podemos destacar el soporte para VLANs (LANs virtuales) IEEE 802.1Q, soporte para la creación de VPNs (Virtual Private Network) y capacidades de firewall (mediante el paquete de IOS firewall), así como de administración basadas en el protocolo SNMP. Cisco ha definido una forma normalizada para identificar cada interfaz de un router; la forma general es TIPO #RANURA/#INTERFACE. TIPO hace referencia al tipo de interface, tal como Ethernet, FastEthernet, TokenRing, Serial, etc. y #RANURA/#INTERFACE hace referencia al número de identificación de una interface específica (#INTERFACE) del módulo de expansión inserto en la ranura #RANURA. La numeración de las ranuras de expansión y de las interfaces en cada ranura comienza en 0, es decir, la primera interface será la 0, la segunda la 1, etc. Por ejemplo, para hacer referencia a la primera interface LAN de tipo GigabitEthernet de la primera ranura se indica como GigabitEthernet 0/0 y la identificación de la primera interface serial de la segunda ranura es serial 1/0. 46 Los seis routers de laboratorio cuentan con un modulo HWIC, provista con dos interfaces seriales tal y como se ve en la figura: Las interfaces en serie de router permiten conectar varias redes LAN utilizando tecnologías WAN. Los protocolos REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 WAN transmiten datos a través de interfaces asíncronos y síncronos en serie (dentro del router), que están conectadas entre sí mediante líneas contratadas y otras tecnologías de conectividad suministradas por terceros. Las tecnologías WAN en la capa de enlace que más se utilizan en la actualidad son HDLC, X.25, Frame Relay, RDSI y PPP. Todos estos protocolos WAN se configuran en ciertas interfaces del router, como en una interfaz serie o una interfaz RDSI. La conexión física en serie de los routers Cisco es un puerto hembra de 60 pines, y soportan varios estándares de señalización como el V.35, X.21bis, y el EIA-530. Las interfaces en serie instaladas en routers no tienen direcciones MAC. dispositivos CSU/DSU pueden conectarse a un router utilizando un cable serial V.35). Otra posibilidad es que el router esté conectado directamente al equipo de conmutación de la compañía telefónica. Red Digital de Servicios Integrados (RDSI). Se trata de un protocolo WAN asíncrono que requiere que la red esté conectada a la línea telefónica a través de un equipo terminal comúnmente denominado modem RDSI. Sin embargo, también puede utilizarse routers de Cisco que integren una interfaz BRI, o conectar un puerto Serial del router a un modem RDSI. Cables Seriales inteligentes V35 Las comunicaciones síncronas en serie utilizan un dispositivo de sincronización que proporciona una sincronización exacta de los datos cuando éstos se transmiten del emisor al receptor a través de una conexión serie. Las comunicaciones asíncronas se sirven de los bits de inicio y de parada para garantizar que la interfaz de destino ha recibido todos los datos. HDLC. Es un protocolo de la capa de enlace que se encarga de encapsular los datos transferidos a través de enlaces síncronos. En un router, los puertos serie están conectados a un modem u otro tipo de dispositivo CSU/DSU a través de cables especiales. La implementación HDLC de Cisco es propietaria, por lo que no puede comunicarse con implementaciones HDLC de otros fabricantes. Protocolo Punto a Punto (PPP). Es otro protocolo de la capa de enlace que soporta los routers Cisco. No es propietario, por lo que puede utilizarse con dispositivos de otros fabricantes. PPP opera tanto en modo asíncrono como síncrono, y puede utilizarse para conectar redes IP, AppleTalk e IPX a través de conexiones WAN. PPP se configura en el puerto serie del router que proporciona la conexión a una línea dedicada u otro tipo de conexión WAN. X.25. Es un protocolo de conmutación de paquetes que se utiliza en las redes telefónicas públicas conmutadas, utilizando circuitos virtuales. Es muy lento, ya que efectua muchas comprobaciones de error, al estar desarrollado para funcionar sobre líneas antiguas. X.25 normalmente se implementa entre un dispositivo DTE y un dispositivo DCE. El DTE suele ser un router y el DCE el conmutador X.25 perteneciente a la red pública conmutada. Los cables que se utilizan para conectar los puertos serie de router a router, el cable que utilizaremos en los laboratorios son del tipo serial V.35, que es una norma originalmente desarrollada por el CCITT (ahora ITU) que hoy día se considera incluida dentro de la norma V.11. Es una norma de transmisión sincrónica de datos que especifica: • • • tipo de conector pin out niveles de tensión y corriente Las señales usadas en V35 son una combinación de las especificaciones V.11 (para clocks y data) y V.28 (para señales de control), utiliza señales balanceadas (niveles de tensión diferencial) para transportar datos y clock (alta velocidad). En una comunicación hay cuatro unidades básicas involucradas, un DTE y un DCE en un extremo y un DTE y un DCE en el otro. Un DTE genera los datos y los pasa a su DCE que los convierte a un formato apropiado y los introduce en la red. Cuando llega la señal al receptor, se efectúa el proceso inverso. Para entendernos un DTE podría ser un ordenador y un DCE un modem. EQUIPO TERMINAL DE DATOS (DTE): Incluye cualquier unidad que funcione como origen o destino para datos digitales binarios. Frame Relay. Es un protocolo de la capa de enlace de datos para la conmutación de paquetes que reemplaza X.25, y que también utiliza circuitos virtuales. En una conexión frame relay, un DTE como un router, está conectado a un DCE del tipo CSU/DSU (la mayoría de 47 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 EQUIPO TERMINAL DEL CIRCUITO DE DATOS (DCE): En cualquier dispositivo que transmite o recibe datos en forma de señal analógica o digital a través de una red. Telefonia Sin una centralita, el teléfono se conecta directamente al puerto FXS que brinda la empresa telefónica. Si tiene centralita, debe conectar las líneas que suministra la empresa telefónica a la centralita y luego los teléfonos a la centralita. Por lo tanto, la centralita debe tener puertos FXO (para conectarse a los puertos FXS que suministra la empresa telefónica) y puertos FXS (para conectar los dispositivos de teléfono o fax) Dos de los routers de los seis que componen el laboratorio de redes de la Escuela Militar de Ingenieria cuentan con dos modulos de telefonia, es decir con puertos FXS y FXO. Un modulo cuenta con 4 puertos FXO. FXS, FXO y VOIP Cuando decida adquirir equipos que le permitan conectar líneas telefónicas analógicas con una centralita telefónica VOIP, teléfonos analógicos con una centralita telefónica VOIP o las Centralitas tradicionales con un suministrador de servicios VOIP o unos a otros a través de Internet, se cruzará con los términos FXS y FXO. Pasarela FXO FXS y FXO son los nombres de los puertos usados por las líneas telefónicas analógicas (también denominados POTS - Servicio Telefónico Básico y Antiguo) FXS - La interfaz de abonado externo es el puerto que efectivamente envía la línea analógica al abonado. En otras palabras, es el “enchufe de la pared” que envía tono de marcado, corriente para la batería y tensión de llamada Para conectar líneas telefónicas analógicas con una centralita IP, se necesita una pasarela FXO. Ello le permitirá conectar el puerto FXS con el puerto FXO de la pasarela, que luego convierte la línea telefónica analógica en una llamada VOIP. FXO - Interfaz de central externa es el puerto que recibe la línea analógica. Es un enchufe del teléfono o aparato de fax, o el enchufe de su centralita telefónica analógica. Envía una indicación de colgado/descolgado (cierre de bucle). Como el puerto FXO está adjunto a un dispositivo, tal como un fax o teléfono, el dispositivo a menudo se denomina “dispositivo FXO”. Pasarela FXS FXO y FXS son siempre pares, es decir, similar a un enchufe macho/hembra. 48 La pasarela FXS se usa para conectar una o más líneas de una centralita tradicional con una centralita o REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 suministrador telefónico VOIP. Usted necesitará una pasarela FXS ya que usted desea conectar los puertos FXO (que normalmente se conectan a la empresa telefónica) a la Internet o centralita VOIP Licencias Los routers necesitan de un licenciamiento para operar correctamente, Las licencias se se dividen en: Licencias Technology Package que se trata de paquetes de grupos de características y servicios que se activan de forma independiente: • • • IPBASE: imagen por defecto. Añade BGP, OSPF, EIGRP, ISIS SECURITY: añade Firewall IOS, IPS, IPSEC, VPN y 3DES a las características de IPBase. UC: VoIP y Telefonía IP Adaptador FXS, también denominado adaptador ATA El adaptador FXS se usa para conectar un teléfono analógico o aparato de fax a un sistema telefónico VOIP o a un prestador VOIP. Usted lo necesitará para conectar el puerto FXO del teléfono/fax con el adaptador. Cuatro de los seis routers de laboratorio cuentan con los dos primeros paquetes de licencias y dos de los routers tienen licencias ademas de la IPBASE y SECURITY la de Comunicaciones Unificadas (UC), estos routers son los que cuentan con los modulos de voz y telefonia IP. CONCLUSIONES Se puede llegar a la conclusion que le Escuela Militar de Ingenieria, cuenta con un moderno laboraratorio de Redes y Comunicaciones, acorde a las necesidades de formacion de los estudiantes, dotado de caracteristicas tecnicas que posibilitara la enseñanza según las necesidades del mercado laboral, dotando al estudiante de competencias en el ambito de las redes, comunicaciones, telefonia Ip, wireless y seguridad. Unidad Académica La Paz - Irpavi. 49 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Reconocimiento de imágenes basado en redes neuronales para el diagnóstico de enfermedades cutáneo infecciosas FIDEL ALEJANDRO TAPIA QUEZADA Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería [email protected] La Paz-Bolivia RESUMEN El presente artículo expone el desarrollo de un prototipo de reconocimiento de imágenes para el diagnóstico de enfermedades cutáneas de tipo infecciosas utilizando redes neuronales artificiales. El prototipo presentado se encuadra dentro de lo que se conoce comúnmente como reconocimiento de patrones basado en Redes Neuronales. El objetivo de este prototipo es realizar el reconocimiento de imágenes basado en redes neuronales, para proporcionar al médico general información necesaria en la toma de decisiones del diagnóstico de la enfermedad de tipo cutáneo infeccioso. ABSTRACT This article presents the development of images recognition prototype for the diagnosis of infectious diseases skin using artificial neural network. The prototype exposed into this article is known as pattern recognition on neural network. The objective of this prototype is perform the image recognition based on neural network to provide to the general doctor, necessary information, for take the best decision into the diagnosis of a disease infectious skin type. INTRODUCCIÓN Una forma de relacionar la medicina con un computador es a través de las redes neuronales, que es un campo muy amplio y que aun continua en evolución, en el cual se distinguen importantes áreas de aplicación como ser procesadores de lenguaje, reconocimiento de imágenes, reconocimiento de sonidos, y diagnósticos médicos. Con el presente trabajo se pretende contribuir a esta evolución, aplicando las redes neuronales como una herramienta que ayude al proceso de diagnóstico de enfermedades cutáneas infecciosas por medio de imágenes. Las redes neuronales artificiales son modelos matemáticos que pueden ser entrenados para aprender relaciones no lineales entre un conjunto de datos de entrada y un conjunto de datos de salida. En medicina la aplicación más común de estos modelos, es la clasificación de patrones con el propósito de apoyar al médico en el diagnóstico y tratamiento del paciente. los significativos, que en las enfermedades de la piel conlleva a imprecisiones en su diagnóstico. Al realizar el examen visual al paciente se nota la presencia de signos que corresponden a diferentes variantes de las enfermedades cutáneo infecciosas, lo que provoca confusiones al momento de brindar el diagnóstico. Tomando como referencia el anterior problema se inició el proceso de desarrollo reconocimiento de imágenes tomando como base las redes neuronales. RECONOCIMIENTO DE IMÁGENES El punto esencial del reconocimiento de patrones es la clasificación: se quiere clasificar una señal dependiendo de sus características. Un esquema que se muestra a continuación describe el proceso de reconocimiento. • Entrada de Datos (adquisición de la imagen) En esta etapa se realiza la obtención de la imagen por medio de una cámara digital, para posteriormente subirla al computador y cargarla al sistema para obtener el diagnóstico de la enfermedad. • Pre-procesamiento En esta etapa se lleva a cabo algunas operaciones para adaptar la información de una imagen y tener mejor análisis en pasos posteriores. De esta forma es necesario convertir la imagen a escala de grises PROBLEMÁTICA El reconocimiento de enfermedades cutáneo infecciosas que realiza el médico general al paciente, basado en un análisis visual y su experiencia, provoca dificultad en el diagnóstico, lo cual incide en la asignación de un correspondiente tratamiento inicial. También el problema radica en el poder diferenciar los hallazgos normales de los anormales y los triviales de 50 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 previamente ya que los métodos de segmentación son de carácter bidimensional. • • Segmentación La segmentación, es un proceso en el cual una imagen es subdividida en las regiones u objetos que la componen. La segmentación concluye cuando los objetos de interés han sido aislados. En nuestro caso, la segmentación deberá concluir cuando se delimite la región afectada separándola de la piel. Deteccion de objeto y clasificacion En esta etapa se realiza la determinación y clasificación de los objetos contenidos en la imagen. Para tal motivo se debe realizar una bancarización de la imagen. es lógico suponer una imagen en esas condiciones es mucho más fácil encontrar y distinguir características estructurales. • Análisis de la Imagen El análisis de la imagen consiste en obtener información de alto nivel acerca de lo que la imagen muestra. Para tal motivo se realizarán operaciones morfológicas sobre imágenes binarias basadas en formas. Las principales operaciones morfológicas son la dilatación y la erosión. REDES NEURONALES El modelo de red neuronal que se utilizó es la red neuronal Backpropagation, por sus características. La importancia de la red consiste en su capacidad de auto adaptar los pesos de las neuronas de las capas intermedias, para aprender la relación que existe entre un conjunto de patrones dados como ejemplo y sus salidas correspondientes. Después del entrenamiento, puede aplicar esta misma relación a nuevos vectores de entrada con ruido o incompletas, dando una salida activa si la nueva entrada es parecida a las presentadas durante el aprendizaje. Figura 1: Estructura de la Red Neuronal • Una imagen binaria es una imagen en la cual cada píxel puede tener solo uno de dos valores posibles 1 o 0. Como Capa de Entrada En esta etapa se ingresa la información, consistente en imágenes digitales, es decir, imágenes de infecciones cutáneas previamente procesadas. La misma será una matriz definida por 150 x 150, existiendo 22500 pixeles, donde cada pixel representa la intensidad de color, o la asociación de un grupo de binarios de manera que represente el tipo de infección cutánea. De esta matriz se extraerá una matriz de entrada 20 x 20, por lo tanto obtendremos una matriz de entrada de 400 neuronas. 51 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Este proceso de extracción y reducción en carga de neuronas y pixeles reduce la cantidad de información que representa a cada uno de los patrones obtenidos de esta forma. Obteniendo un vector con una dimensión más pequeña a la que se ha dado como entrada a la red neuronal, lo que tiene como beneficios: menor cantidad de pesos que deben hacer aprendidos, y al tener menos pesos, el tiempo de entrenamiento reduce. • Capas Ocultas Se utilizó tres capas ocultas, lo cual permite más conexiones, lo que significa almacenamiento de información. El número de neuronas de la capa oculta, se determinó mediante experimentación, entrenando a la red con imágenes de distintos tipos de infecciones cutáneas, llegando a tener como resultado 150 neuronas. HERRAMIENTAS La aplicación principal para el reconocimiento de imágenes se desarrolla con el software Matlab mientras que el módulo de gestión de usuarios y de pacientes se lo desarrolló en Microsoft Visual Studio C Sharp. Esto se debe a las capacidades de procesamiento que se necesita para el tratamiento de los datos, imágenes y el entrenamiento y simulación de la red neuronal son más efectivos con los programas mencionados previamente. METODOLOGÍA La metodología del presente trabajo de grado que consta de las cuatro fases siguientes: • • Capa de salida Los parámetros de aprendizaje se obtuvieron en función a experiencias basadas en estudio de los distintos casos de infecciones cutáneas, y luego la corrección y obtención del error mínimo, con 13 neuronas en la capa de salida indicando el tipo de infección cutánea que padece el paciente. Análisis de Datos Esta fase empieza con la identificación informal de todos los requisitos que deberían ser parte del sistema, para ello se empieza con la recolección de datos mediante la observación y principalmente utilizando la elaboración de entrevista programando citas con el experto dermatólogo. También en esta sección se realiza un análisis del caso de estudio del presente trabajo de grado en relación a la patología en estudio y el procedimiento que realiza el médico especialista dermatólogo y el médico general en el respectivo diagnóstico de las enfermedades cutáneo infecciosas. Para ello es necesario realizar una descripción de los procesos que son imprescindibles para el diagnóstico de las enfermedades cutáneo infecciosas, las cuales pueden ser tratadas por un médico general o un especialista dermatólogo. • Diseño del Prototipo Seguidamente se podrá realizar un diagrama de clases de alto nivel que muestre los objetos y todas sus relaciones, definido como modelo de dominio. Para seguir con la identificación de los procesos del sistema se procede a realizar los casos de uso expandido, además de la descripción detallada de todos los procesos mostrados en el caso de uso de alto nivel. Figura 2: Diagrama del funcionamiento de la red neuronal 52 Posteriormente se realiza el diagrama de robustez, para poder ilustrar gráficamente las interacciones entre los objetos participantes de un caso de uso. El análisis de robustez ayuda a saber si las especificaciones del sistema son razonables. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Posteriormente se realiza el diagrama de secuencia, que representa la interacción entre objetos internos del sistema y las interacciones entre los mismos, es decir, interfaces graficas de usuario, procesos de control y entidades. Para ello se deben aplicar las siguientes reglas básicas: - • Actores solo pueden comunicarse con objetos interfaz. Los objetos entidad solo pueden comunicarse con controles. Los controles se comunican con interfaces, objetos identidad y con otros controles pero nunca con actores. Construcción de Prototipo A partir del análisis de las características, se determinan las variables que ingresaran al modelo para que la red neuronal pueda aprender. Mediante los diagramas de modelado mencionados anteriormente se puede describir el comportamiento del modelo a partir de la acciones de un usuario. Con respecto a la red neuronal se tendrá que determinar cuántas entradas y salidas tendrá la misma dependiendo de las entradas que se tengan. Además se tendrá que conocer el número de neuronas y como estas están distribuidas en capas e interconectadas entre sí. En esta fase también se determinan las funciones de transferencia que se usarán. • Prueba del Prototipo Una vez que se terminó el prototipo es necesario comprobar que realiza las tareas para las que ha sido diseñado y produce el resultado correcto y esperado. Para comprobar el funcionamiento del prototipo se realizaron pruebas con distintas imágenes que pertenecen al tipo de enfermedad de estudio, las cuales terminaron siendo positivos para los resultados esperados. La validación del software se consiguió mediante una serie de pruebas de caja negra que demuestran la conformidad con los requerimientos por parte del usuario. Este proceso de validación se llevó a cabo con un conjunto de treinta imágenes. El prototipo es validado en base a resultados reales bajo supervisión de médico dermatólogo, que es especialista en lesiones cutáneas. Tabla 1: Comparación Sistema - Experto Comprobación de la Hipótesis El cumplimiento del objetivo principal del proyecto debe ser comprobado a través de la prueba de hipótesis planteada, para lo cual se debe comprobar que el nivel de concordancia entre los resultados del sistema experto y el médico especialista sea de un grado aceptable, en correspondencia de la siguiente tabla de valoración del índice Kappa Tabla 2: Valoración de Índice Kappa Coeficiente kappa 0.00 0,01 - 0,20 0,21 - 0,40 0,41 - 0,60 0,61 - 0,80 0,81 - 1,00 Fuerza de concordancia Pobre Leve Aceptable Moderada Considerable Casi perfecta 53 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Las investigaciones realizadas para obtener datos e información requeridos fueron las siguientes: • • Entrevistas a expertos del área de Salud, específicamente dermatólogos, y observación de muestras de casos de infección. Investigación bibliográfica referente al marco teórico, mediante recopilación de información de libros, artículos, folletos, seminarios, todos los mencionados en el área de dermatología en las infecciones cutáneas. Inicialmente se realizó una recolección de resultados de diagnóstico que determinó el sistema experto y el médico especialista, el cual es representado en la tabla cruzada siguiente: Tabla 3: Frecuencias cruzadas de resultados de diagnóstico próximo del 0,60 - 0,80 y 0,81 - 1,00, logrando aceptar de manera estadística la hipótesis planteada, por lo tanto se deduce que las conclusiones de diagnóstico determinadas por el sistema experto tiene un grado significativo de importancia y confiabilidad que puede considerar el médico proseguir con el protocolo de atención médica a los pacientes. CONCLUSION Este artículo presenta las directrices generales para el desarrollo de un prototipo de reconocimiento de imágenes basado en redes neuronales. Los procedimientos por los cuales pasa el desarrollo son metodologías generales aplicadas a cubrir requerimientos de desarrollo de sistemas expertos. La capacidad de las redes neuronales como clasificadores ha sido demostrada teóricamente y con múltiples aplicaciones. Las redes neuronales introducen las ventajas de un examen cuantitativo en la práctica médica. Los registros médicos contienen información valiosa que puede ser utilizada para entrenar redes neuronales y crear sistemas expertos, estos enriquecen el diagnóstico del médico general y brindan una nueva perspectiva al médico especialista. Con el prototipo concluido y cada paso terminado, se puede concluir que cada objetivo propuesto ha sido cumplido a cabalidad. REFERENCIAS BIBLIOGRAFICAS ‘En relación a los datos de la Tabla 3 los resultados son los siguientes: Los resultados de diagnóstico tienen un grado del 90,00%, sin embargo si bien este valor es una estimación concreta del nivel de concordancia es necesario conocer su variabilidad, reflejado en su intervalo de confianza. Para determinar el intervalo de confianza se utilizó la siguiente ecuación, considerando un nivel de significación (_) del 5%. k=(k ) _± Z_(_/2)* √((Po(1-Po))/(N(1-Pe))) En relación a la valoración de la Tabla 2, el índice Kappa es casi perfecto debido a que se encuentra en un rango 54 • Arun Kumar M. (2012) Implementation of Neural Network Back Propagation Training Algorithm on FPGA • Berkow (1986) El manual Merck de Diagnóstico y Terapeuta 7ma edición en español • Duda (2001) Pattern Clasification 2da Edición • Erik Cuevas y Daniel Zaldivar (2008) Vision por Computador utilizando Matlab y el Toolbox de procesamiento Digital de Imágenes • M Hajek. (2005). Neural Networks • Pressman, R. (2005). Ingeniería del Software. McGraw-Hill. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Implementación de sistema gráfico de cableado estructurado en función a Norma ISO 11801, enfocado a la construcción de edificios GUSTAVO ELÍAS ALCONZ EVIA Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia [email protected] RESUMEN El artículo presenta el desarrollo de un sistema de grafico de cableado estructurado en función a la norma ISO 11801, de tal manera que se pueda realizar el trazado de planos de red y el diseño de nuevas redes dentro de infraestructuras cumpliendo los parámetros necesarios para cumplir los requerimientos mínimos de la norma. ABSTRACT The article presents the development of a system of graphic of structured cabling in function to the ISO 11801, so that they might be able to make the path of planes on network and the design of new networks within infrastructure fulfilling the necessary parameters to meet the minimum requirements of the standard. INTRODUCCIÓN Un Sistema Experto guía a los usuarios a través de los problemas y esto lo hace formulando un conjunto ordenado de preguntas sobre la situación y obteniendo conclusiones a partir de respuestas que ellos dan. La capacidad de solución de problemas se guía por un grupo de reglas programadas según el modelado de procesos de razonamiento de los expertos de la especialidad. Las redes de computadoras se desarrollan como consecuencia de aplicaciones comerciales diseñadas para computadoras ya que no existia otra manera de crecimiento en la calidad y el tamaño de las redes, estas fueron creciendo a medida que se introducían nuevas tecnologías de red. permita garantizar la correcta aplicación de normas internacionales, lo que da lugar a problemas y fallas en las redes al implementar y poner en funcionamiento las mismas. JUSTIFICACION El sistema propuesto se desarrolló en base a las técnicas y herramientas de Tecnologías de Comunicación y Redes, contribuyendo a la realización de las aplicaciones de Ingeniería de Software, así mismo la aplicación de Seguridad de sistemas para la utilización de normar internacionales. Por consiguiente el proposito del presente Trabajo de Grado es el de desarrollar una herramienta para apoyar a los expertos y/o tecnicos que deseen realizar el diseño fisico de una red LAN. Usando esta herramienta se podrá contar con un diseño fisico de una red que esté apoyado sobre las normas que se deseen aplicar con lo que se conseguira una red muy bien instalada y diseñada. Así mismo en la actualidad existen una serie de programas que pueden realizar el diseño de cableado estructurado, pero estas además de ser costosas no utilizan la norma ISO 11801 para el desarrollo de estas, entre la cuales podemos citar a la aplicación Fiber Runner de Panduit y Fiber Routing Layout Tool v1.0, que además de ser de un valor económico bastante elevado, requieren ejecutarse con Microsoft Visio 2002 en adelante lo que significa un costo adicional, y así mismo están son exclusivas para uso de fabricantes. PROBLEMÁTICA NORMA ISO 11801 En la actualidad el desarrollo de nuevas redes LAN es realizado de manera empírica y carece de procedimientos que apliquen normativas que garanticen el planteo de Redes en la construcción de nuevas infraestructuras, así mismo denota ausencia de una interfaz gráfica que ISO (Organización Internacional para la Normalización) es la organización internacional que tiene a su cargo una amplia gama de estándares, incluyendo aquellos referidos al networking. ISO desarrolló el modelo de referencia OSI, un modelo popular de referencia de networking. 55 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 La IS0/IEC estableció en julio de 1994 la norma ISO 11801 que define una instalación completa (componente y conexiones) y valida la utilización de los cable de 100 o mega o 120 o mega. También especifica cableado para uso comercial, el que puede abarcar uno o un conjunto de edificios dentro de un espacio físico limitado llamado campus. Figura 1: Longitud de los Latiguillos La ISO 11801 actualmente trabaja en conjunto para unificar criterios. La ventaja de la ISO es fundamental ya que facilita la detección de las fallas, para que al momento de producirse afecten solamente a la estación que depende de esta conexión, permite una mayor flexibilidad para la expansión, eliminación y cambio de usuario del sistema. Fuente: Estándares del Cableado Estructurado Los costos de instalación de UTP son superiores a los de coaxial, pero se evitan la pérdida económica producida por la caída del sistema por cuanto se afecte solamente un dispositivo. La ISO 11801 reitera la categoría EIA/TIA (Asociación de industria eléctricas y telecomunicaciones). Este define las clases de aplicación y es denominado estándar de cableado de telecomunicaciones para edificio comerciales. Distribuidor Debe existir un distribuidor por planta por cada 1.024 m2 de espacio o por cada planta. Debe haber como mínimo 2x4 pares por cada puesto de trabajo y al menos uno debe ser de categoría 5. Figura 2: Ubicación del Distribuidor La ISO 11801 en base a EIA/TIA toma con unos valores de impedancia, depurando la diafonía y de atenuación que son diferentes según el tipo de cables y a su vez define también las clases de aplicación. Las normas EIA/TIA fueron creadas como norma de industria en un país, pero se ha empleado como norma internacional por ser de las primeras en crearse. ISO/IEC 11801, es otra norma internacional. La norma ISO 11801 toma en cuenta los siguientes puntos: Máxima Longitud de los Latiguillos Los latiguillos son los cables que permiten conectar el panel de parcheo y los concentradores. También se les llama latiguillos a los cables que van a servir para conectar cada uno de los PCs de la red a sus correspondientes rosetas de conexión. Esta distancia debe considerar la longitud del cable de equipamiento, la distancia de un latiguillo A que una los puntos de correspondencia dentro de la consola y por último la distancia de un latiguillo B que vaya desde el punto de conexión al puesto de trabajo; en total la distancia no debe ser mayor a los 100 metros. Para comprender mejor lo anteriormente mencionado lo plasmaremos en la figura 1. 56 Fuente: Estándares del Cableado Estructurado Administración Etiquetado: Cada cable, distribuidor y punto de terminación debe tener un identificador único. Documentación Esquema del cableado desde el armario hasta los puestos de trabajo. APLICACIÓN DE LA NORMA ISO 11801 Para la aplicación de la Norma ISO 11801 se tomó en cuenta aspectos requeridos por la ECE, y así mismo aspectos que puedan ser aplicados dentro de nuestro país, para entender mejor la norma se muestra a continuación parte de esta norma: Dentro de las instalaciones que el cliente realiza en una infraestructura, la importancia del cableado de red es similar a los otros servicios de construcción REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 ser implementado con material de fuentes simples y múltiples, y se relaciona con: fundamentales como la calefacción, el alumbrado y la red eléctrica, y al igual que con los otros servicios, las interrupciones en una red pueden tener un grave impacto y esto se debe a la mala calidad del debido a la falta de previsión en el diseño, el uso de componentes inapropiados, instalación incorrecta, mala administración o soporte inadecuado que puede poner en peligro la eficacia de la organización. Históricamente, el cableado dentro de las instalaciones comprende tanto la aplicación específica y multipropósito redes. La edición original de esta norma permitió una migración controlada de datos genéricos y la reducción en el uso de cableado específico de la aplicación. • • • • El crecimiento posterior de cableado genérico diseñado de acuerdo con ISO / IEC 11801 tiene: Contribución a la economía y el crecimiento de la Tecnología de Información y Comunicaciones (TIC). El apoyo al desarrollo de aplicaciones de alta velocidad de datos basado en un cableado definido modelo. Inició el desarrollo del cableado con un rendimiento alto superando las clases de potencia especificados en la norma ISO / IEC 11801:1995 e ISO / IEC 11801 Ed1.2: 2000. La Norma ISO / IEC 11801, edición 1.2 consiste en la mejora de la edición 1.0 (1995) y sus enmiendas 1 (1999) y 2 (1999). Esta segunda edición de la norma ISO / IEC 11801 ha sido desarrollada para reflejar este aumento de demandas y oportunidades. • - - - - Esta Norma Internacional proporciona: Usuarios con un sistema de cableado genérico independiente de la aplicación son capaces de soportar una amplia gama de aplicaciones. Usuarios con un sistema de cableado flexible, de manera que las modificaciones son a la vez fácil y económica. Profesionales de la construcción (por ejemplo, los arquitectos) con orientación permitirán el alojamiento de cableado antes de que se conocen los requisitos específicos, es decir, en la planificación inicial, ya sea para construcción o rehabilitación. La industria y aplicaciones de los organismos de normalización con un sistema de cableado que soporta productos actuales y proporciona una base para el desarrollo de futuros productos. - - - - Requisitos de la capa física para las aplicaciones enumeradas en la norma y se han analizado para determinar su compatibilidad con el cableado de las clases especificadas en esta norma. Estas aplicaciones requisitos, junto con estadísticas sobre la topología de los locales y el modelo se describen en la norma y se han utilizado para desarrollar los requisitos para las clases A a D y los sistemas de cableado de clase ópticos. Nuevas clases E y F se han desarrollado en previsión de futuras tecnologías de red. • Como resultado, cableado genérico define dentro de esta Norma Internacional específica una estructura de cableado de apoyo a una amplia variedad de aplicaciones. - Especifica las clases de canal y enlace A, B, C, D y E de reuniones con los requisitos de aplicaciones estandarizadas. Especifica canal y enlace de las clases E y F basado en componentes de mayor rendimiento a apoyar el desarrollo e implementación de aplicaciones futuras. Especifica las clases de canal óptico y el enlace OF-300, DE-500, y la Reunión de 2000-el requisitos de las aplicaciones estandarizadas y capacidades de componentes para facilitar la explotación de la ejecución de aplicaciones desarrolladas en el futuro. Invoca requisitos de los componentes y especifica las cableadas implementaciones que garanticen rendimiento de los vínculos permanentes y de - - • Esta Norma Internacional especifica un sistema de múltiples proveedores de cableado que puede Las normas internacionales de cableado componentes desarrollados por los comités de la IEC, por ejemplo cables de cobre y conectores, así como cables de fibra óptica y los conectores. Las normas para la instalación y el funcionamiento de tecnología de la información de cableado, así como para los la prueba de cableado instalado. Las aplicaciones desarrolladas por los comités técnicos de la IEC, por subcomités ISO / IEC JTC 1 y de las Comisiones de Estudio del UITT, por ejemplo, para redes LAN y RDSI. La planificación y las guías de instalación que tengan en cuenta las necesidades de aplicaciones específicas para la configuración y el uso de sistemas de cableado en las instalaciones del cliente (ISO / IEC 14709 series). 57 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 - canales que cumplen o superan los requisitos de cableado de las clases. Se dirige a, pero no limitado a, el medio ambiente de oficina en general. Esta Norma Internacional especifica un sistema de cableado genérico que se prevé que tenga una vida útil de más de 10 años. CONCLUSIONES Este articulo presenta las directrices generales para el desarrollo de un sistema gráfico de cableado estructurado en función a la Norma ISO 11801. Las metodologías de desarrollo son generales, aplicadas a cubrir requerimientos de la aplicabilidad de la Norma; sin embargo, para que estos requerimientos sean tomados en cuenta, no deben basarse en opiniones propias sino en estándares analizados previamente. 58 Es por eso que el presente trabajo está enfocado sobre la norma ISO 11801 y estándares EIA/TIA 570, ANSI/TIA/EIA-568-A, ANSI/TIA/EIA-569-AANSI/TIA/EIA606, ElA/TIA 607 que se usaron como directrices para el desarrollo del proyecto REFERENCIAS BIBLIOGRAFICAS • La Norma ISO / IEC 11801, edición 1.2 • LOZA, Sistema experto de apoyo al diseño de redes de área local LAN en base a la norma ISO 11801, TESIS de licenciatura en Ing. de Sistemas. • HARMON, KING. Sistemas Expertos Aplicaciones de la Inteligencia Artificial en la actividad empresarial. Ediciones Díaz de Santos S.A., Madrid 1988. • TANENBAUM. Redes de Computadoras, 4ª Edición, Pearson Prentice Hall, México 2003. Unidad Académica La Paz - Alto Irpavi REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Sistema basado en Tecnología Web Móvil y Datamart para la administración del Historial Clínico Caso: Clínica del Deporte CHRISTIAN GABRIEL CUEVAS CARRILLO Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia e-mail: [email protected] RESUMEN En el presente artículo se presenta el desarrollo de un sistema para la clínica del Deporte, basado en tecnología web móvil para mejorar la disponibilidad y acceso a la información médica de los pacientes, y un Datamart para la administración de historias clínicas y elaboración de informes, de esta manera se evitarán pérdidas de historiales médicos así como su deterioro. La clínica del deporte actualmente realiza todo este proceso de forma manual, las búsquedas de estos archivos tienen a demorar varios minutos y a ralentizar la atención a los pacientes. ABSTRACT In the present article presents the development of a system for the medical clinic of the sport, based on mobile web technology to improve the availability and access to medical information for patients, and a Datamart for the administration of medical histories and the preparation of reports, this will prevent loss of medical records as well as their deterioration. The clinic of the sport currently does all this process manually, searches for these files have to take several minutes to slow down and the attention to the patients. INTRODUCCIÓN Actualmente los sistemas basados en tecnologías de la información representan una herramienta de apoyo muy importante en grandes áreas de las actividades humanas, proporcionando grandes ventajas sobre los métodos antiguos de almacenamiento y manejo de información. Así también las bases de datos, Datamart's y Data Warehouse son herramientas que permiten generar reportes e informes que permiten a las gerencias y directivos tomar decisiones, buscar patrones de datos de salud y realizar actividades en pro de los mismos. El presente trabajo muestra la forma de implementar un sistema para la administración del historial clínico, mismo que estará basado en tecnología web móvil para aumentar la disponibilidad de la información; y Datamart para la generación de informes para controlar la actividad de la Clínica Deporte. a 20 minutos, en algunos casos estos archivos son extraviados o se encuentran incompletos. Tomando como referencia el anterior problema se inicio el proceso de desarrollo del sistema web y datamart tomando como base los archivos usados en la clínica, además del proceso que lleva adquirir la ficha médica deportiva. DESARROLLO DEL SISTEMA PROPUESTO La metodología empleada para el diseño y desarrollo del sistema fue la metodología XP, esta metodología se caracteriza por enfocarse en la programación ágil, siendo ideal para el desarrollo de sistemas grandes que llevan tiempo. Para la elaboración del DataMart se aplicó la metodología "Rapid Warehousing Methodology" es una metodología ágil y se adecua a la XP, se tomaron los puntos más importantes de cada una de estas metodologías para un correcto desarrollo del sistema propuesto. PROBLEMÁTICA • Actualmente la Clínica del Deporte trabaja con formularios que corresponden a tres tipos de exámenes: examen físico, examen odontológico y el examen de laboratorio. Estos se llenan de forma manual y luego archivados en el file del paciente, cada año los pacientes deben realizarse este examen para obtener la ficha médica, para ello se debe buscar el historial clínico del anterior año; y este proceso de búsqueda demora aproximadamente de 15 Análisis de requerimientos Antes de iniciar con el desarrollo del sistema, se identificaron los requerimientos que se tienen para el sistema, estos fueron identificados en 3 categorías: - Requerimientos funcionales Requerimientos no funcionales Requerimientos del sistema 59 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Una vez definidos estos se procedió con la etapa de análisis. • • Una vez diseñada la base de datos se procedió a su construcción en el SGBD, en este caso MySQL para finalmente obtener las tablas: Análisis Dentro esta etapa es necesario identificar el funcionamiento los actores q tendrá el sistema, sus funciones, en esta etapa se realizaron las historias de los usuarios además de realizar el modelado del negocio. Diseño En la etapa de diseño se elaboran los diagramas formales para que el programador pueda identificar los roles de los usuarios, para ello se hizo uso de algunos diagramas UML, dentro del diseño se realizaron los diagramas de casos de uso. Nombre Tablas Consulta_medica Doctor Ficha_labo Ficha_medica Ficha_nedicina Ficha_odonto Paciente Recepcionista Nro. Columnas 6 10 19 5 32 27 9 7 Tabla 1. Base de datos transaccional Una vez creada la base de datos es posible crear el OLAP (On-line analytical processing). Las bases de datos OLAP se suelen alimentar de información procedente de los sistemas operacionales existentes, mediante un proceso de extracción, transformación y carga (ETL). En este caso nuestro OLAP se alimenta de la información procedente de la Base de datos Transaccional, para este procedimiento se hizo uso de la herramienta Pentaho. También se realizaron los diagramas de secuencias, diagrama de clases y de despliegue. Primero se realizo la conexión con la herramienta Pentaho, una vez importado la base de datos se eligen las tabas y se seleccionan los campos de datos que se desean copiar al OLAP, de esta manera se van armando los cubos de información y finalmente se crea la base de datos OLAP desde la cual se extrae información para la creación de informes. • • Imagen 1. Caso de uso de alto nivel Diseño y modelización del Datamart A partir del análisis de la clínica, se realizo la identificación de los datos que pasaran a formar parte de la base de datos transaccional para ello también se realizo el diagrama Entidad - Relación donde se muestra la realicen de las tablas. Implementación del sistema Una vez creado el Datamart, se procedió a la construcción de la interfaz de usuario, mismo que debe ser desarrollado para una plataforma web móvil, además de cumplir con los requisitos definidos por el usuario al inicio de la construcción del sistema. Las pantallas de los usuarios fueron construidos a partir de la herramienta Dreamweaver, además se hizo uso de código PHP y Java Script. Hecha la conexión con el datamart se hizo su implementación en un servidor local para que pueda ser finalmente revisado por el usuario y realizar las respectivas pruebas del sistema. Cada pantalla tiene una interfaz amigable e intuitiva, las principales pantallas para el registro de historias clínicas conservan el formato utilizado por la clínica del deporte, de esta manera no confundir al usuario con su trabajo. Imagen 2. Diagrama entidad-relacion 60 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 • Pruebas del sistema En esta etapa se realizaron las respectivas pruebas al sistema, con el fin de identificar errores o requerimientos no cumplidos. • Pruebas de validación Se realizaron las pruebas de validación para verificar que el sistema se ajusta a los requerimientos de usuario final ya definidos. • Pruebas de validación de requerimientos funcionales Se desea verificar el cumplimiento satisfactorio de los requerimientos funcionales. Como se mostró en la etapa de diseño y elaboración del DataMart se puede verificar todo el proceso de construcción del DataMart para la clínica del deporte así como el proceso ETL que permite presentar datos que son de importancia para la clínica del deporte. Se realizó la consulta al sistema para poder visualizar el historial clínico de un paciente en una fecha cualquiera, el sistema mostro primero la pantalla del examen físico general. Los datos que alimentan todo el DataMart son consecuencia de un proceso de estandarización de información proveniente de los formularios antiguamente usados en la clínica del deporte. • Pruebas de seguridad Se desea verificar la existencia de un nivel de seguridad apropiado en el sistema, lo cual incluye que solo usuarios autorizados puedan acceder al mismo y que estos estén restringidos solo a funciones específicas. CONCLUSIONES Imagen 3. Historial clinico, examen fisico A partir de esta pantalla es posible visualizar los otros dos exámenes que corresponden al examen odontológico y el examen de laboratorio. Además en la interfaz del usuario "Director general" es posible visualizar algunos informes introduciendo las fechas de las cuales se desea consultar. El presente artículo presenta las directrices del desarrollo de un sistema web móvil y datamart como herramienta para ayudar en la organización registro y búsqueda de las historias clínicas para la clínica del deporte. Los procedimientos por los cuales pasa el desarrollo son metodologías generales aplicadas al desarrollo de sistemas complejos y la correcta elaboración del datamart REFERENCIAS BIBLIOGRAFICAS • Miguel Rodríguez Sanz “Análisis Y Diseño De Un Datamart Para El Seguimiento Académico De Alumnos En Unentorno Universitario”, 22 Julio, 2010 • William H. Inmon: "Building the Data Warehouse" Technical Publishing Group, 1992 • SAS Institute, Inc. SAS Rapid Warehousing Methodology, SAS Institute White Paper, 2001 • José Joskowicz, "Reglas y Prácticas en eXtreme Programming", 2008 Imagen 4. Informe de consultas medicas Se puede apreciar que el sistema permite visualizar los datos y ordenados según la especialidad y deporte. 61 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Sistema experto para el diagnóstico de problemas de aprendizaje en niños de 6 a 8 años en el área de matemática Caso: U.E.P. Boliviano Holandes de la Ciudad de El Alto CLAUDIA INES GUTIERREZ VILLEGAS Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia e-mail: [email protected] RESUMEN En el presente artículo se expone el desarrollo de un sistema experto basado en lógica difusa para diagnosticar problemas de aprendizaje en el área de matemática en niños de 6 a 8 años de la U.E.P. Boliviano Holandés de la ciudad de El Alto. ABSTRACT In this paper the development of an expert system based on fuzzy logic to diagnose learning disabilities in the area of mathematics in children 6-8 years of UEP exposed Dutch Bolivian city of El Alto. INTRODUCCIÓN JUSTIFICACION Desde el punto de vista educativo, es importante conocer cuáles son las habilidades matemáticas básicas que los niños deben aprender para poder así determinar donde se sitúan las dificultades y planificar su enseñanza y desde el punto de vista psicológico. Cuanto más temprana sea la detección, se traducirá en mayores posibilidades de acción. El desarrollo de un Sistema Experto para el diagnóstico de problemas de aprendizaje se justifica de acuerdo a los criterios siguientes: • Entre las dificultades que se presentan con frecuencia en matemática se tiene la discalculia o dificultades en el aprendizaje de las matemáticas es una dificultad de aprendizaje específica en matemática. La discalculia puede ser causada por un déficit de percepción visual o problemas en cuanto a la orientación secuencial. El término discalculia se refiere específicamente a la incapacidad de realizar operaciones de matemática o aritméticas. Es una discapacidad relativamente poco conocida. De hecho, se considera una variación de la dislexia. Quien padece discalculia por lo general tiene un cociente intelectual normal o superior, pero manifiesta problemas con la matemática, señas o direcciones, etc. De forma técnica, ya que proporciona una herramienta que apoya a un diagnóstico efectivo dentro de los problemas que puede presentar un niño en el aprendizaje en Matemática. El manejo de Sistemas Expertos tendrá la capacidad de diagnosticar la discalculia, utilizando como herramienta la computadora y las reglas que permiten representar el conocimiento humano de manera formal y precisa. • Socialmente, en el sentido que es de gran importancia para los padres de familia contar con un instrumento que apoye con un diagnóstico acertado de la discalculia. Ya que la discalculia escolar termina frustrando no solo al estudiante, sino también al maestro si no está pedagógicamente apto para tratar con el problema. PROBLEMÁTICA • Económicamente por que ayudará al Psicopedagogo y al estudiante a recibir un diagnóstico oportuno lo que a su vez influirá en una reducción de costos para los padres ya que el diagnóstico a destiempo, es decir, en la adolescencia es más costoso y difícil de llevar a cabo. Los procedimientos empleados por el profesor y/o psicólogo no permiten detectar oportunamente las dificultades de aprendizaje de matemáticas en estudiantes de 6 a 8 años lo cual incide significativamente en el rendimiento escolar, la vida diaria, desarrollo cognitivo y formación académica de los mismos. 62 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 DESARROLLO DEL SISTEMA EXPERTO Las etapas para el diseño e implementación del Sistema Experto (SE) son: Planteamiento del Problema, Encontrar expertos humanos, Diseño del SE, Elegir herramienta de desarrollo, Construir el Prototipo que al conjuncionarse con la metodología ICONIX se identifican 4 etapas: Análisis del Sistema, Diseño del Sistema, Construcción del Sistema, Validación y Prueba del prototipo. Análisis del Sistema Es aquí donde se realizó el análisis del Sistema Experto y de igual manera del Producto Software. Pero antes se pretende definir la problemática que se busca resolver además de su análisis de la situación actual, Para luego obtener y conceptualizar el conocimiento con el fin de obtener los datos necesarios para la construcción del SE. entonces existen posibles deficiencias de discalculia. • Elección de Variables Lingüísticas Difusas y Conjuntos Difusos De acuerdo con la opinión de los expertos se tomaron en cuenta 3 conjuntos difusos para las variables de entrada al primero de estos se le asignó la etiqueta lingüística LEVE, al segundo MODERADO, y al tercero SEVERO, ya que las variables de entrada (Antecedentes, síntomas, etc.) que se tomaran en cuenta pueden presentarse en estas tres formas. • Conjunto difuso LEVE Se estableció como función de pertenencia de la función L, que tiene que tiene a forma que se muestra en la FIGURA: • Conjunto difuso MODERADO Se seleccionó la función de pertenencia trapezoidal, como se muestra en la FIGURA: • Conjunto difuso SEVERO Se determinó como función de pertenencia a la función Gamma cuya forma se muestra en la FIGURA: Diseño del Sistema El desarrollo del Sistema Experto comprende al diseño y construcción del mismo, para esta fase se realizaron los siguientes pasos: • Diseño del Sistema Experto difuso que comprende la formalización del conocimiento, elección de variables lingüísticas difusas y conjuntos difusos, construcción de las reglas de producción. Formalización del Conocimiento La formalización del conocimiento es el diseño de las estructuras para organizar el conocimiento: Una forma correcta para representar el conocimiento es utilizando reglas y premisas lógicas, análogamente al análisis del Sistema Experto, se propone una relación: Síntomas-Diagnóstico: IF <Hechos. Premisas> THEN <decisión - conclusión> Donde: IF Premisas Hechos observados en la realización del test, captura de síntomas. <Datos provistos a través de cada pregunta> THEN CONCLUSIONES • Posibles problemas de Discalculia En cada pregunta se debe tener en cuenta la formalización siguiente: IF X THEN Y Si la pregunta X se respondió con una notoria deficiencia demostrando síntomas específicos, 63 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Variables de Entrada Se identifican 10 variables de entrada para cada una de ellas se definen las funciones de pertenencia, la representación gráfica de cada variable de entrada es de la siguiente manera: La Función de Pertenecía de los conjuntos difuso se expresa: La Función de Pertenecía de los conjuntos difusos se expresa Variables de Salida El diagnóstico es la variable de salida del proyecto y se toman en cuenta 6 conjuntos difusos con funciones de pertenencia TRIANGULAR, éstos fueron construidos como variables lingüísticas correspondientes: 64 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Construcción de las reglas de producción Para la construcción de reglas se utilizo la herramienta FIS de MatLab • • Variable Dependiente: Diagnóstico oportuno y confiable de dificultades en el aprendizaje en el área de matemática. Variable Moderante: Niños de 6 a 8 años de la U.E.P. Boliviano Holandés de la ciudad de El Alto. Como se puede observar, la hipótesis planteada pretende demostrar que el sistema experto brinda información confiable sobre el diagnóstico del estudiante; por lo tanto la confiabilidad del sistema experto será comprobada con técnicas estadísticas como se demuestra a continuación. Para la construcción de la Base de Conocimiento se establecen las reglas de producción La confiabilidad del sistema experto es evaluada de acuerdo a las afirmaciones de diagnóstico que determina el mismo y la relación con las afirmaciones de la psicopedagoga, debido a que debe comprobarse la relación coherente entre ambos diagnósticos. Para comprobar la confiabilidad del sistema experto se utiliza el coeficiente de concordancia de Cohen, es decir el Índice Kappa, debido a que esta prueba estadística relaciona la concordancia de resultados entre dos observadores en relación a “n” categorías de los posibles resultados. De acuerdo a la hipótesis planteada, la hipótesis nula y alterna son las siguientes: Prueba de la Hipótesis El cumplimiento del objetivo principal del proyecto debe ser comprobado a través de la prueba de hipótesis planteada, que para el presente trabajo de grado es el siguiente: • Hipótesis Nula (H0): No existe concordancia entre los resultados del sistema experto difuso y los resultados de la Psicopedagoga. • Hipótesis Alterna (H1): Existe concordancia entre los resultados del sistema experto difuso y los resultados de la Psicopedagoga. Para demostrar la Hipótesis Alterna (H1) se debe comprobar que el nivel de concordancia entre los resultados del sistema experto y la psicopedagoga sea de un grado aceptable, en correspondencia de la siguiente tabla de valoración del índice Kappa: La ecuación del índice de Kappa (k) es el siguiente: “El Sistema Experto propuesto permitirá el diagnóstico oportuno y confiable de las dificultades en el aprendizaje de la matemática en niños de 6 a 8 años, estudiantes de la U.E.P. Boliviano Holandés de la ciudad de El Alto” De acuerdo a la hipótesis planteada, se pueden identificar las siguientes variables: • Variable Independiente: El Sistema Experto Propuesto. Dónde: P0= Proporción de concordancia observada Pe= Proporción de concordancia esperada por puro azar 65 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 La ecuación para calcular P0 es el siguiente: El valor en tablas de distribución normal estándar (z) a un nivel de confianza del 95% y significancia de 0.05 el valor de Z para ±/2 es de 1.96 por lo tanto el intervalo de confianza es: Dónde: aii= Frecuencia cruzada para cada diagnostico N= Muestra de diagnósticos realizados La ecuación para calcular Pe es la siguiente: Para el inicio del cálculo del índice Kappa, se tiene el cuadro cruzado de resultados del análisis del diagnóstico del sistema experto vs el médico especialista, el cual podemos ver en la TABLA: En relación a los datos de la TABLA los valores del índice Kappa son los siguientes: Por lo tanto el intervalo de confianza del índice Kappa al 95% es k(0.767, 0.915), de acuerdo a la Tabla 4.46, el índice Kappa es casi perfecta debido a que se encuentra en el rango de 0.80 - 1.00 logrando aceptar de manera estadística la hipótesis alterna (H1) planteada con anterioridad por lo cual se determina que el diagnostico determinado por el sistema experto tiene un grado de significativo de confiabilidad que puede considerar la psicopedagoga al momento de la utilización del sistema experto en diagnóstico de la discalculia. Para demostrar la oportunidad planteada en la hipótesis del sistema experto se demuestra la oportunidad ya que el sistema tarda en dar un diagnostico una hora como máximo, a diferencia cuando se realiza un diagnostico en base a la forma manual que realiza la psicopedagoga el tiempo utilizado es de 2 días aproximadamente. REFERENCIAS BIBLIOGRAFICAS • • Finalmente el índice Kappa (k) para la prueba de hipótesis es el siguiente: • • Se determina que el valor de la concordancia entre los resultados de diagnósticos tiene un grado de 84.1%, ahora la variabilidad de este valor en su intervalo de confianza se determinara con un nivel de significancia (±) de 0.05 en la siguiente ecuación: • • Dónde: = Índice Kappa estimado (k) Z= Abscisa de la curva normal tipificada ±= Nivel de significancia 66 • Working memory and children's mental addition John W. Adams y Graham J. Hitch 1997 Persistent arithmetic, reading or arithmetic and reading disability. Annals of Dyslexia, Badian, N. (1999). Pág. 49, 45-69 VII Congresso Iberoamericano de Informática Educativa 2007 Lcdo. Alex Espinoza Cárdenas Ing. Viera Elistratova de Barriga Escuela Superior Politécnica del Litoral - ESPOL Forns I Santacana, M. “Evaluación psicológica infantil”. Ed.Barcanova S.A. 2003. GÁMEZ José; PUERTA José. Sistemas Expertos Probabilísticos 1ra. Edición. Ediciones de la Universidad de Castilla - La Mancha, 1998, España. La mente no escolarizada cómo piensan los niños y cómo deberían enseñar las escuelas 2000 Howard Gardner. Discalculia escolar: Dificultades en el aprendizaje de las matemáticas. Luis Héctor Giordano Ediciones I.A.R, 2000 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Algoritmo de Encriptación basado en escalas musicales ISRAEL QUISBERT ANTI Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia e-mail: [email protected] RESUMEN En éste artículo se presenta el desarrollo de un algoritmo de encriptación basado en escalas musicales, de tal manera que pueda asegurarse la seguridad de este en términos de confidencialidad e integridad donde vaya a aplicarse. ABSTRACT This article presents the development of an encryption algorithm based on musical scales, in such a way as to ensure the safety of this in terms of confidentiality and integrity where is going to be applied. INTRODUCCIÓN El presente trabajo tiene por motivación diseñar un algoritmo de encriptación basado en escalas musicales, de tal manera que pueda asegurarse los términos de integridad de determinados archivos debido a que los hurtos del contenido intelectual musical son bastante común en estos tiempos. Impulsando esta investigación se tienen ciertas referencias que apuntan a que existe una gran relación entre la música y las matemáticas por las cuales será posible realizar el algoritmo de encriptación de manera satisfactoria. PROBLEMÁTICA El envío y recepción actual de mensajes por el Correo Electrónico Institucional dentro del Ejército de Bolivia presenta vulnerabilidades de seguridad tanto en confidencialidad e integridad en la transrecepción de mensajes privados ocasionando que existan ataques de seguridad sobre el sistema gestor de correo actual. Tomando como referencia el anterior problema se inicio el proceso de desarrollo del algoritmo tomando como base las matemáticas discretas; y más específicamente la aritmética modular. • Económicamente por el ahorro de tiempo y optimización de procesos actuales que brinda la solución relativo al problema. DESARROLLO DEL ALGORITMO La metodología la cual dirige el proyecto es la de desarrollo de algoritmos, debido a que el proyecto se enfoca a la realizacion de un algoritmo de encriptación, sin embargo cada uno de los pasos de esta metodología necesita o trabaja en conjunción con otras metodologías, las cuales en este caso son el Análisis de Riesgos y desarrollo de Software. Por lo tanto, las 4 fases desarrolladas de la solución empiezan con la comprensión del problema para finalizar con la Evaluación de la solución. Comprensión del Problema El enfoque del cual se partió para el avance responde al sistémico, debido a que el modo de abordar los elementos del presente trabajo no puede ser aislado, sino que tienen que verse como parte de un todo. No es la suma de elementos, sino un conjunto de éstos que se encuentran en interacción, de forma integral, que produce nuevas cualidades con características diferentes, cuyo resultado es superior al de los componentes que lo forman y provocan un salto de calidad. JUSTIFICACION • Si bien existen muchos modelos de encriptación actuales (RSA, AES, etc.) las razones para elegir un algoritmo nuevo se justifican de acuerdo a los criterios siguientes: • Tecnológicamente, porque una herramienta nueva de cifrado brinda un nivel de seguridad más adecuado a la institución debido a que inicialmente solo el encargado de la institución conoce el funcionamiento del algoritmo. Primera Fase: La primera fase del proyecto es la implementación de la Metodología de Diseño de Algoritmos Paralelos, la cual sigue los pasos de: Analizar los Algoritmos Actuales que para el presente proyecto llegaría a ser Análisis de Algoritmos de Encriptación Actuales, Descomposición en Tareas que para el presente proyecto llegaría a ser la Descomposición de los Procesos del Algoritmo, para finalmente llegar a la conjunción de los procesos del algoritmo. 67 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 • entrar a la tercera fase que es el desarrollo del módulo a través de la metodología XP. Tercera Fase: La última fase comprende el desarrollo del módulo ya mencionado, pasando por los pasos de la metodología XP: Planificación, Diseño del Módulo, la Codificación con el Algoritmo y finalmente las pruebas; el objetivo de esta fase es coadyuvar en los últimos productos de la metodología de desarrollo de algoritmos para completar el presente trabajo. Planteamiento de la Lógica Para esta fase se realizaron los siguientes pasos:’ • • Se eligió al Diagrama de Flujo como representación del algoritmo en su totalidad. Para la representación matemática se tomaron en cuenta la aritmética Proceso de Generación de Claves En la primera parte del presente algoritmo se observa la declaración de variables las cuales tienen el siguiente significado: - nd = número a descomponer f[100] = vector donde se almacenaran los números primos de nd Una vez declaradas las variables se procede a la descomposición del 'nd', pasada la descomposición se obtiene el ultimo numero primo generado y se lo almacena en 'p' y al penúltimo numero primo se lo almacena en 'q' para realizar una operación y de esa forma obtener 'z', una vez obtenida 'z' se calcula el valor de n, se halla la prima relativa de 'z' almacenándola en 'k', y realizando la última operación se obtienen la llave publica compuesta por 'k' y 'n', y la llave privada compuesta por 'j' y 'n' Proceso de Cifrado de Información • 68 Segunda Fase: La segunda fase del proyecto comprende la realización del algoritmo como tal la cual está dirigida por la metodología de desarrollo de algoritmos, comprendiendo 4 pasos: el primero recolecta los procesos obtenidos en la primera fase para posteriormente realizar la abstracción del algoritmo en base a la matemática relacionada y finalmente pasando a la codificación y evaluación del algoritmo; para estos dos últimos se necesita REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Al principio del Algoritmo de Encriptación se tiene la declaración de variables, donde: K es el número generado por las escalas musicales N es la constante de afinación musical T es el texto a ser encriptado E es el resultado de la encriptación • • • Fase 1 - Planeación: Donde se obtuvieron las especificaciones generales del Módulo: Historias de usuario y el contexto de desarrollo. Fase 2 - Diseño: Desarrollo de los prototipos de las interfaces usando como referencia a las historias de usuario. Fase 3 - Codificación: Aquí se unieron las metodologías para generar el código en C# del algoritmo e introducirlo en las interfaces. Evaluación y ejecución de la Solución Para comprobar que el algoritmo realiza las tareas para las que ha sido diseñado y produce el resultado correcto y esperado se realizaron pruebas con archivos de diferente índole generados por herramientas que se encargan de evaluar la consistencia del algoritmo, los cuales fueron positivos para los resultados esperados. CONCLUSIONES Este articulo presenta las directrices generales para el desarrollo de un algoritmo de encriptación basado en un modelo asimétrico que sea capaz de responder a las necesidades de la institución donde se aplica. Proceso de descifrado de Información Al principio del Algoritmo se tiene la declaración de variables donde: Los procedimientos por los cuales pasa el desarrollo son metodologías generales aplicadas a cubrir requerimientos de Seguridad de la Información. REFERENCIAS BIBLIOGRAFICAS J es el número relativa a K generado por las escalas musicales N es la constante de afinación musical E es el texto a ser desencriptado D es el resultado de la desencriptación Codificación del Problema En esta etapa se procedió al paso de la lógica representada en el Diagrama de Flujo a un lenguaje máquina, en este caso a C#. Esta etapa trabaja con la metodología de desarrollo de Software XP, dividido en las siguientes fases: • • • • • Gallardo Mario, “Modelos Criptográficos”, Maestría en TICs, Universidad Politécnica de Pachuca, 2000. Pheby J.,” Methodology and Economics”, Ed. MacMillan Press LTD, Londres., 1988. Andrews, George, “Number Theory”, Dover, 1994 Massachusetts Institute of Technology “La Criptografía: Escritura Oculta”, Articulo del 24 de Octubre del 2010. Galende, Juan Carlos, “Historia de la escritura Cifrada”, Ed. Complutense, 1ª Edición, Madrid, España, 1995. 69 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Sistema experto basado en lógica difusa para la detección temprana de Enfermedades Hepaticas SAÚL MEYER TERRAZAS ROLLANO Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia e-mail: [email protected] RESUMEN Este artículo presenta el desarrollo de un Sistema Experto para la detección de enfermedades hepáticas a través de la utilización de la lógica difusa, de tal manera que este pueda ayudar en la toma de decisiones a los médicos especialistas de la institución donde vaya a aplicarse, ya que la detección y el diagnóstico de este tipo de enfermedades debe ser confiable y oportuno para que el paciente de la institución de salud no sufra complicaciones. ABSTRACT This article presents the development of an expert system for the detection of liver disease through the use of fuzzy logic, so it can help in the decision-making to medical specialists of the institution where you go to apply, as the detection and diagnosis of diseases of this kind must be reliable and timely for the patient in the institution of health does not suffer complications. INTRODUCCIÓN rápido y eficiente, que permitirá optimizar la detección temprana de enfermedades hepáticas. Los Sistemas Expertos son una técnica de la inteligencia artificial que tiene aplicación en las diversas áreas de la ciencia y tecnología. Estos sistemas se encargan de capturar la experiencia y conocimiento de una persona experta en una respectiva área del saber, donde la persona no experta llamado usuario pueda hacer uso de este sistema aprovechando así la información contenida. El sistema propuesto aplicará en el diseño, modelado y construcción de herramientas teóricas y científicas, como ser el estudio y la investigación mediante el método científico y el desarrollo mediantes teorías de sistemas expertos. La Lógica Difusa se aplica a los procesos en los que existe incertidumbre, esta lógica es aplicada en la toma de valores que van desde la existencia de veracidad absoluta hasta la existencia de la falsedad total. Los sistemas basados en lógica difusa a diferencia de los basados en lógica clásica, tienen capacidad de reproducir de forma aceptable modos usuales de razonamiento, aplicando sus características más relevantes de la lógica difusa como ser su flexibilidad y tolerancia de impresión. Tecnológicamente el sistema propuesto aportará una herramienta de consulta e información, y podrá ser utilizada por los médicos especialistas para reforzar su conocimiento, para así obtener mejores resultados y con respaldo tecnológico. La herramienta también podrá servir de apoyo a la toma de decisiones a especialistas con poca experiencia de las enfermedades hepáticas dentro el establecimiento. Por otra parte, traerá beneficios a los pacientes, debido a que el diagnostico será rápido, preciso y con menor probabilidad de inicializar un tratamiento deficiente. El trabajo de grado tuvo como objetivo desarrollar un Sistema Experto basado en lógica difusa que contribuya a la toma de decisiones para la detección temprana y confiable de enfermedades hepáticas del paciente de COSSMIL. PROBLEMÁTICA La información incompleta que emplea el médico especialista da lugar a la detección no oportuna de enfermedades hepáticas del paciente de COSSMIL. JUSTIFICACION El presente trabajo, servirá como instrumento alternativo, 70 Económicamente, porque el sistema experto ayudará al especialista a reducir el tiempo de atención al paciente realizando un diagnóstico confiable, evitando en algunos casos la realización de exámenes complementarios innecesarios; influyendo en una reducción de costos en la atención al paciente. DISEÑO DEL SISTEMA EXPERTO La metodología empleada es la de desarrollo de Buchanan y la de diseño para Sistemas expertos basados en lógica difusa, sin embargo cada uno de los pasos trabaja en conjunción con la metodología Iconix. Por lo tanto, las REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 fases desarrolladas de la solución empiezan con la Identificación para finalizar con la Validación. que cada característica del paciente se le asocia un valor mínimo no pudiendo representar con 0 % al conjunto difuso. Identificación Aquí se hizo el análisis de la situación actual para comprender el desenvolvimiento del proceso actual, además que se obtuvo información de los diagnósticos realizados por el especialista en hepatologías del hígado. Conceptualización Para esta fase se siguieron los siguientes pasos: • • Se realizó la elección de las variables de relevancia obtenidas de las fuentes de conocimiento y mostrando la formalización de algunas de ellas Se realizó la conversión de variables a variables lingüísticas, expresando de manera formal la asignación de valores de una variable a palabras tomadas del lenguaje natural. Se puede definir la variable lingüística como: - Para el conjunto difuso Normal/Probable se estableció la función de pertenencia Trapezoidal puesto que como se indicó anteriormente presentar valores mínimos y máximos. - Para el conjunto difuso Alto/Muy Probable se estableció la función L ya que cada característica del paciente si se presenta no podría pertenecer con 0 % al conjunto difuso Alto/Muy probable y este se incrementará en cuanto más se aleje. • Una vez transformadas las variables a variables lingüísticas y asignado su valor de pertenecía, se representa el conocimiento adquirido en una red semántica para luego comenzar con la construcción de la base de conocimientos estableciendo las reglas e producción con la sintaxis de Mandami: Variable Lingüística =(A, T(A), U, G, M) Donde: A Nombre de variable T(A) Conjuntos de términos que nombran los valores x que pueden tomar A, valores que son conjuntos difusos. U Universo del discurso de la variable x G Sintáctica para la generación de los nombres de los valores x M Regla semántica para asociar un significado a cada valor de los componentes Por otra parte, cuando se trabaja con conjuntos difusos es necesario constituir funciones de pertenencia de los elementos a los diferentes conjuntos, lo cual permite determinar, a partir del valor de un elemento su grado de pertenencia al conjunto, siendo este un valor real normalizado entre 0 (no pertenece en absoluto) y 1 (pertenece al 100%), este se denota como µ(x), siendo x el valor del elemento. Para el proyecto se tomaron en cuenta 3 conjuntos difusos con sus respectivas etiquetas lingüísticas como ser el primero Bajo, el segundo Normal y el tercero Alto para los exámenes complementarios se eligieron a partir del conocimiento del experto, además de las variables de entrada que se representar bajo la función de pertenencia trapezoidal puesto que cada característica del paciente puede presentar valores mínimos y máximos. También se tomaron las etiquetas lingüísticas Poco probable, Probable y Muy probable para los antecedentes presentados por el paciente. - Para el conjunto difuso Bajo/Poco Probable se estableció la función de pertenencia Gamma ya R. IF [Premisa1][AND][OR][Premisa2]…..then Conclusion Formalización Aquí se realizó la determinación de las interfaces de Fuzzificacion y Defuzzificacion, donde la interfaz de Fuzzificacion recibe como entrada los valores numéricos 71 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 y lingüísticos procedentes del módulo de recepción de datos. La salida del módulo son las variables fuzzyficadas, en un intervalo que engloba un número reducido de valores lingüísticos por ejemplo. {Bajo, Normal, Alto}, la interfaz de Defuzzificacion traduce el resultado lingüístico en valor real que represente el valor actual corriente de la variable de control. Existen varios métodos de defuzzificacion, el método empleado en el presente proyecto es el del Centroide, en el cual este método combina cada una de las reglas inferidas. Ya que el sistema debe devolver una salida precisa, la interfaz de defuzzificación debe agregar la información aportada por cada uno de los conjuntos individuales y transformarla en un valor preciso. Implementación En este punto se realizó el diseño del software a través del modelado de casos de uso, prototipos de interfaz gráfica, como el modelamiento del comportamiento del sistema. Todo esto basado en la Metodología de desarrollo Iconix. Una vez que se terminó el diseño es necesario comprobar que realiza las tareas para las que ha sido diseñado y produce el resultado correcto y esperado. CONCLUSIONES Este artículo presenta las directrices generales para el desarrollo de un Sistema experto basado en lógica difusa para la detección temprana de enfermedades hepáticas que sea un apoyo a la toma de decisiones por parte del médico especialista. Los procedimientos por los cuales pasa el desarrollo son metodologías aplicadas a cubrir requerimientos del médico especialista. Así mismo, para el desarrollo de futuras herramientas para el apoyo en la toma de decisión, se pueden tomar como referencia éste, ya que las directrices vertidas en el desarrollo de este sistema experto pueden ser aplicadas a otros tipos de enfermedad no considerados por el sistema. REFERENCIAS BIBLIOGRAFICAS • • • • Para comprobar el funcionamiento se realizaron pruebas con historiales médicos para determinar la confiabilidad del diagnóstico brindado por el sistema experto en relación con el brindado por médico especialista, las cuales terminaron siendo positivos para los resultados esperados. 72 Menchen A.J. La lógica y los conjuntos borrosos. Aplicaciones en Inteligencia Artificial, control de procesos e ingeniería, 2001. Pedrycz W. Fuzzy equalization in the construction of fuzzy sets and Systems, 2001. MARK H. BEERS, M.D., y ROBERT BERKOW, M.D., D., Manual Merck de diagnóstico y tratamiento, Harcourt edición Española, 1999 Pressman, Roger, Ingeniería de Software un enfoque práctico, Sexta Edición, España, Editorial McGraw-Hill, 2008 Unidad Académica Riberalta REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Auditoría de sistemas de tecnologías de la información basados en el estándar internacional cobit Caso: Dirección Nacional de Informática sistema de calificaciones JHONNY GABRIEL LOZA QUENTA Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz-Bolivia [email protected] RESUMEN El presente artículo expone el desarrollo de una auditoria de sistemas basada en el estándar internacional COBIT, la cual se encarga de verificar las amenazas y vulnerabilidades que existen en el sistema de calificaciones de la Escuela Militar de Ingeniería y dar una solución a las mismas mediante un plan de acción. El objetivo principal es Realizar una auditoría de sistemas basada en el estándar internacional COBIT para sugerir la implantación de gestión de tecnologías de la información que reduzcan las vulnerabilidades identificadas en el sistema de calificaciones de la Dirección Nacional de Informática. ABSTRACT This paper presents the development of a systems audit based on international standard COBIT, which is responsible for verifying the threats and vulnerabilities that exist in the grading system of the Military Engineering School and provide a solution to them by a action plan. The main objective is to Conduct an audit of systems based on international standard COBIT to suggest the implementation of management information technologies that reduce the vulnerabilities identified in the grading system of the National Informatics Directorate. INTRODUCCIÓN La información es el activo más importante dentro de cualquier empresa o institución, por lo cual la pérdida, robo, intromisión de la misma, resultaría un perjuicio y también un alto costo por la amenaza de que dicha información sea revelada. Para proteger tal información se hace uso de la seguridad de sistemas, la cual toma en cuenta tres aspectos fundamentales: la Integridad de la información, que nos garantiza que la información es verídica; la Confidencialidad de la información, que nos garantiza que solo personas autorizadas tengan acceso a la información y la Disponibilidad de la Información, que se refiere a que la información debe estar disponible en el momento en que sea requerida. De la misma forma la Auditoría constituye una herramienta de control y supervisión que contribuye a la creación de una cultura de la disciplina de la institución y permite descubrir fallas en las estructuras o vulnerabilidades existentes. COBIT es precisamente un modelo para auditar la gestión y control de los sistemas de tecnologías de la información, orientado a todos los sectores de una institución, es decir administradores de Tecnologías de la Información, usuarios y los auditores involucrados en el proceso. La estructura del modelo COBIT propone un marco de acción donde se evalúan los criterios de información, como la seguridad y calidad, se auditan los recursos que comprenden la tecnología de información, por ejemplo el recurso humano, instalaciones, sistemas entre otros y finalmente se realiza una evaluación sobre los procesos involucrados en la institución. La misión de COBIT es "investigar, desarrollar, publicar y promocionar un conjunto de objetivos de control generalmente aceptados para las tecnologías de la información que sean autorizados (dados por alguien con autoridad), actualizados, e internacionales para el uso del día a día de los gestores de negocios (también directivos) y auditores". Gestores, auditores, y usuarios se benefician del desarrollo de COBIT porque les ayuda a entender sus Sistemas de Información (o tecnologías de la información) y decidir el nivel de seguridad y control que es necesario para proteger los activos de sus compañías mediante el desarrollo de un modelo de administración de las tecnologías de la información. 73 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 PROBLEMÁTICA La carencia de auditoria de sistemas y objetivos de control documentados en la Dirección Nacional de Informática en el Sistema Académico de Calificaciones provoca vulnerabilidades en el proceso de gestión de tecnologías de la información. • • • Se evidencia la falta de procedimientos de control normalizados bajo gestión de tecnologías de información en el control del sistema académico de calificaciones. Los procesos de tecnologías de la información de la Dirección Nacional de Informática son insuficientes en métodos y procedimientos especializados para el sistema académico de calificaciones. El sistema académico de calificaciones no posee registros de auditoría actualmente dada la discontinuidad y la falta de aplicación de herramientas que apoyan el o los criterios del auditor y usuarios. AUDITORIA DE SISTEMAS La auditoría de sistemas es el conjunto de técnicas, actividades y procedimientos, destinados a analizar, evaluar, verificar y recomendar en asuntos relativos a la planificación, control, eficacia, seguridad y adecuación de los sistemas de información de la empresa. Figura 1. Dominios de COBIT Para satisfacer los objetivos del negocio, la información necesita adaptarse a ciertos criterios de control, los cuales son referidos en COBIT como requerimientos de información del negocio. Con base en los requerimientos más amplios de calidad, fiduciarios y de seguridad, se definieron los siguientes siete principios: • • • • COBIT 4.1 COBIT, es un marco de Gobierno de las Tecnologías de la información que permite a la dirección de una organización conectar los requerimientos de negocio y de control con los aspectos técnicos, controlando los riesgos y optimizando los recursos. Está basado en procesos y se enfoca fuertemente en el control y menos en la ejecución, es decir, indica qué se debe conseguir sin focalizarse en el cómo. La primera impresión es que ISACA ha orientado definitivamente COBIT hacia el Gobierno de las TI. La misión de COBIT es: “Investigar, desarrollar, hacer público y promover un marco de control de TI autorizado, actualizado, aceptado internacionalmente para la adopción por parte de las empresas y el uso diario por parte de gerentes de negocio, profesionales de TI y profesionales de aseguramiento””. COBIT define las actividades de TI en un modelo de 34 procesos genéricos agrupados en 4 dominios como se muestra en la Figura. 74 • • • La efectividad, tiene que ver con que la información sea relevante y pertinente a los procesos del negocio, y se proporcione de una manera oportuna, correcta, consistente y utilizable. La eficiencia, consiste en que la información sea generada con el óptimo (Más productivo y económico) uso de los recursos. La confidencialidad, se refiere a la protección de información sensitiva contra revelación no autorizada. La integridad, está relacionada con la precisión y completitud de la información, así como con su validez de acuerdo a los valores y expectativas del negocio. La disponibilidad, se refiere a que la información esté disponible cuando sea requerida por los procesos del negocio en cualquier momento. También concierne a la protección de los recursos y las capacidades necesarias asociadas. El cumplimiento, tiene que ver con acatar aquellas leyes, reglamentos y acuerdos contractuales a los cuales está sujeto el proceso de negocios, es decir, criterios de negocios impuestos externamente, así como políticas internas. La confiabilidad, se refiere a proporcionar la información apropiada para que la gerencia administre la entidad y ejerza sus responsabilidades fiduciarias y de gobierno. ANALISIS DE RIESGOS El análisis de riesgos es una herramienta que permite identificar, clasificar y valorar los eventos que pueden amenazar la consecución de los objetivos de la Organización y establecer las medidas oportunas para reducir el impacto esperable hasta un nivel tolerable. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Planear y Organizar Adquirir e Implementar Entregar y Dar Soporte Monitorear y Evaluar 20% NO CUMPLE 80% BUENA 60% REGULAR 40% MINIMO 100% EXCELENTE SRM es un proceso que ayuda en la evaluación del contexto operativo de las organizaciones no gubernamentales y evalúa el nivel de riesgo de reacciones adversas que puedan afectar al personal, los activos y operaciones. Proporciona orientación sobre la aplicación de soluciones en forma de medidas de mitigación específica, dirigida a la reducción de los niveles de riesgo mediante la reducción del impacto y la probabilidad de un suceso indeseable. Auditoria de Sistemas bajo el estándar internacional COBIT Se procede a realizar la Auditoria de Sistemas bajo la verificación de COBIT en la cual se pudieron obtener los siguientes resultados: DOMINIO DEL ESTANDAR INTERNACIONAL COBIT La metodología SRM es usada para el Diseño e Implementación de un Modelo de Gestión y Análisis de Riesgos en todo lo que tenga que ver con tecnologías de información. X X X X Tabla 1. Cumplimiento del Estándar COBIT Cumplimiento del Estándar Internacional COBIT en el Sistema Académico de Calificaciones El cumplimiento promedio esta dado, sumando todos los cumplimientos parciales y dividiéndolos entre la cantidad de dominios evaluados: =(60%+57,14%+69,23%+50%) 4 Cumplimiento Promedio=59,09% Lo que nos indica que el cumplimiento es REGULAR, inferior a lo requerido y deseado. Figura 2. Metodología SRM. Cumplimiento de los Criterios de Calificación del Estándar Internacional COBIT en el Sistema Académico de Calificaciones HERRAMIENTAS La aplicación se desarrolla con el software PHP levantando el servidor Apache y Mysql. Esto se debe a que el software de auditoria de sistemas basado en COBIT tiene una base de datos madre en la cual debe basarse la auditoria. Además de que cumple con las condiciones de un modelo cliente servidor. El cliente es el usuario que manda la información que genera la auditoria al servidor que se encuentra en la institución con la cual se intercambiará información confidencial. El cumplimiento promedio esta dado, sumando todos los cumplimientos parciales y dividiéndolos entre la cantidad de dominios evaluados: = (0%+0%+7.69%+0%) 4 Cumplimiento Promedio=1.92% Lo que nos indica que NO CUMPLE con los criterios de información según COBIT, muy inferior a lo requerido y deseado. METODOLOGÍA Análisis de Riesgos A continuación se presenta la metodología del presente trabajo de grado, que consta de tres fases: Auditoria de Sistemas bajo el estándar internacional COBIT, Análisis de Riesgos, Tratamiento de Procesos y Objetivos de Control. Se procede a identificar las amenazas y vulnerabilidades para luego someterlos a un análisis de probabilidad en el cual podemos determinar el nivel de riesgo de cada amenaza. 75 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Agrupando los riesgos de un nivel más alto se obtiene la siguiente Figura. Para concluir con el tratamiento de los procesos y objetivos de control se procede a plantear el Plan de Acción de gestión de tecnologías de la información con sugerencias, para los objetivos de control identificados en un nivel medio y alto en el análisis. COMPROBACIÓN DE LA HIPOTESIS Hipótesis “Las implantación de la gestión de tecnologías de la información basados en el estándar internacional COBIT permitirá la realización de la auditoria de sistemas mejorando la seguridad de la información en el sistema de calificaciones.” Confiabilidad Cumplimiento Disponibilidad Situación Inicial 2.7 2.7 2.7 2.7 2.7 2.7 2.7 Situación Actual 2.95 2.95 2.95 2.95 2.95 2.95 2.95 Situación Posterior 4 4 4 4 4 4 4 Tabla 3. Resultados de COBIT Y KOSOVO Para la demostración estadística, nos basamos en las situaciones propuestas anteriormente, para cada criterio de información, se deberá realizar la respectiva comprobación estadística y como se trata de la hipótesis nula, esta afirma que con la implantación de gestión de tecnologías de la información basados en el estándar internacional COBIT es totalmente igual al panorama actual. Por otro lado la hipótesis alterna significa que existe un cambio del antes y después de la implantación de gestión de tecnologías de la información basados en el estándar internacional COBIT. Tabla 2. Priorizar Riesgos 76 Integridad Objetivos de Alto + Control Evaluados Medio PO1. Definir un Plan Estratégico de TI. 1 1 PO2. Definir la Arquitectura de la Información. 3 2 PO4. Definir los Procesos, Organización y Relaciones de TI. 7 1 PO5. Administrar la Inversión en TI. 2 0 PO6. Comunicar las Aspiraciones y la Dirección de la Gerencia. 2 0 PO7. Administrar los Recursos Humanos de TI. 2 1 PO8. Administrar la Calidad. 1 1 PO9. Evaluar y Administrar los Riesgos de TI. 4 2 AI1. Identificar Soluciones Automatizadas 1 0 AI2. Adquirir y Mantener Software Aplicativo 6 0 AI3. Adquirir y Mantener Infraestructura Tecnológica 2 0 AI5. Adquirir Recursos de TI 1 0 DS2. Administrar los Servicios de Terceros 1 0 DS3. Administrar el Desempeño y la Capacidad 1 0 DS5. Garantizar la Seguridad de los Sistemas 11 11 DS7. Educar y Entrenar a los Usuarios 1 1 DS10. Administración de Problemas 1 1 DS11. Administración de Datos 2 2 TOTAL 49 23 Posteriormente se obtiene la situación actual mediante métricas evaluadas a la auditoria de sistemas ya realizada. Finalmente obtenemos una situación posterior mediante los modelos de madurez obtenidos en la auditoria, todo lo mencionado puede observarse en la siguiente Tabla. Confidencialidad Procesos Prueba de Hipótesis Se puede realizar una demostración lógica mediante la obtención de datos basados en entrevistas con la cual obtenemos una situación inicial del sistema. Eficiencia Tratamiento de Procesos y Objetivos de Control Una vez identificados los riegos se procede a discriminarlos mediante una evaluación de riesgos identificados. Realizada esta evaluación, se obtiene la siguiente Tabla con los riesgos medios y altos a ser tratados por el Plan de Acción. Efectividad Figura 3. Agrupación del Nivel de Riesgo REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Efectividad Eficiencia Confidencialidad Integridad Disponibilidad Cumplimiento Confiabilidad tp > 1.796 se rechaza Ho 5.99 6.21 4.79 5.36 5.48 5.65 4.79 Tabla 4. Comprobación Estadística REFERENCIAS BIBLIOGRAFICAS • • • • CONCLUSIONES Se pudo proponer un dictamen con objetivos de control basados en el estandar COBIT, coadyuvando asi a la correcta gestion de tecnologias de la infromacion. • Gómez Vieites, Álvaro (2007). ENCICLOPEDIA DE LA SEGURIDAD INFORMÁTICA. PIATTINI, 1998, Auditoria Informática: Un enfoque práctico. PIATTINI, Mario. Editorial Alfa omega 1998 España. ISACA, 2012, COBIT 4.1 Disponible e n http://www.isaca.org COSO, 2004, COSO (Committee of Sponsoring Organization of the Treadway commission). Enterprise Risk Management - Integrates Framework, 2004. CANSLER, 2003, Auditoria en contextos computarizados CANSLER Leopoldo, Editoriales Cooperativas Se aplicaron metodos y procedimientos especializados a fin de evaluar el estado de los procesos del sistema academico de calificaciones plasmados en un Plan de Accion, el cual nos brindará informacion relevante de mitigacion de riesgos y utilizacion de procesos y objetivos de control mediante COBIT para mejorar las deficiencias. Estudiantes en el Laboratorio de Informática 77 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Implementación de un Data Mart para apoyar la toma de decisiones operativas y administrativas JOSÉ IGNACIO MAMANI MURGA Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia e-mail: [email protected] RESUMEN Este artículo se presenta la Implementación de un Data Mart para apoyar la toma de decisiones operativas y administrativas en la Dirección General de Asuntos Administrativos del Ministerio de Justicia a través de la centralización de las bases de datos de los sistemas transaccionales existentes, con el incremento en la capacidad de generar sus propios reportes detallados e históricos y los niveles de seguridad que respeten la normativa legal e integral de la información amparada por la Constitución Política del Estado para así evitar vulneraciones, ataques y contingencias a la seguridad de la información del personal que desempeñan sus funciones en las distintas áreas de la institución. ABSTRACT This article presents the implementation of a Data Mart to support operational decision-making and administrative in the Directorate General of Administrative Affairs at the Ministry of Justice, through the centralization of the databases of the existing transactional systems, with the increase in the capacity to generate their own reports and detailed historical and levels of security to respect the legal regulations and integral of the information covered by the Constitution of the State so as to avoid violations, attacks and contingencies to the safety of the personnel information which they perform their functions in the different areas of the institution. INTRODUCCION A nivel mundial la empresa líder de tecnología de comunicación japonesa Fujitsu que ofrece una gama completa de productos de tecnología, soluciones y servicios. El personal de Fujitsu da soporte a los clientes en más de 100 países de todo el mundo. En los últimos años la empresa Fujitsu ha logrado un nuevo resultado record en el benchmark de aplicaciones estándares de Business Intelligence - Data Mart utilizado por las empresas para analizar de forma eficaz y optimizar el rendimiento del sistema en entornos de Data Warehouse. Este test proporciona indicaciones reales del rendimiento de la base de datos corporativa a través de la medición del rendimiento del sistema para manejar grandes volúmenes de peticiones a la base de datos del sistema de almacenamiento de negocio. A nivel regional considerando todo lo que es el continente sudamericano la empresa Chilena Data Mart Web actualmente entrega servicios de inteligencia de negocios y visualización multidimensional de información para la toma de decisiones de una empresa. Los profesionales de Data Mart Web han sido consultores para diversos organismos internacionales. También se desarrolló la implementación de esta tecnología en Aguas Andinas, en base a la necesidad de realizar gestión sobre la información que rutinariamente se enviaba a organismos reguladores, para validarla y así cumplir con los estándares 78 de calidad exigidos por la Compañía, hecho que llevo a buscar una herramienta que permitiese de forma amigable visualizar la información y mejorar su calidad para enviar a los organismos externos. A nivel local aproximadamente siete años atrás se comenzó con la implementación de tecnología de Business Intelligence las empresas Entel La Paz en el año 2006, implementó la Inteligencia de Negocios destinado a la identificación de áreas que no perciben los recursos económicos que deberían percibir según objetivos planteados, logrando actualmente distribuir sus recursos humanos y económicos a las áreas potencialmente menos explotadas, Banco Los Andes de Santa Cruz en el año 2007, implemento BI en las áreas de servicios y seguimiento a oficiales de crédito, mejorando el tiempo en la toma de decisiones y brindando una mejor atención a sus clientes al reducir los tiempos de respuesta en el análisis de casos individuales de créditos y Nuevatel en el año 2008, implementó BI en las áreas de marketing, minería de datos para servicios en general, todavía no se han percibido los cambios internos en el área de marketing, sin embargo es notable exteriormente en las promociones de esta empresa de telecomunicaciones. En nuestro país un número muy reducido de empresas, cuentan con tecnología para el manejo y administración de la información centralizada, algunas de estas empresas son Nuevatel, Entel, Tigo, la Superintendencia de Bancos, ATC (Administradora de Tarjetas de Crédito) entre otras. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 El trabajo desarrollado tuvo como objetivo Implementar un Data Mart que brinde información oportuna y confiable almacenada en una base de datos centralizada, que apoye la toma de decisiones operativas y administrativas en la Dirección General de Asuntos Administrativos del Ministerio de Justicia para reducir el tiempo de los procesos operativos y administrativos dentro de las distintas áreas a cargo del personal que desempeña sus funciones en la institución. Mart. Se realizó un análisis de la situación actual en la Dirección General de Asuntos Administrativos del Ministerio de Justicia y se establecieron los recursos necesarios para el Trabajo de Grado. Estructura del Sistema Actual PROBLEMÁTICA La información que fluye en la Dirección General de Asuntos Administrativos es inoportuna, está dispersa y contenida en base de datos descentralizados, lo que impide realizar la toma de decisiones operativas y administrativas, provocando demora en los procesos operativos y administrativos dentro de las distintas áreas a cargo del personal de la institución. JUSTIFICACION Asignación de Recursos de Hardware, Software, Recursos Humanos y de Información Para el desarrollo del Data Mart se empleó la Metodología de Kimball o Data Marting: - - - Requiere documentación, está enfocado en procesos, genera resultados más rápidos, el cliente interviene constantemente, el tiempo de desarrollo es relativamente corto y el tamaño del equipo es reducido. Proporciona un enfoque de menor a mayor, es muy versátil, y tiene una serie de herramientas prácticas que ayudan a la implementación del Data Mart. Está asociado con esfuerzos departamentales en este caso la Dirección General de Asuntos Administrativos y no así corporativos. Para el desarrollo de la Aplicación de Usuario Final se empleara la Metodología de Prototipado Rápido MPR: - - - Requiere documentación, está más enfocado en personas, se genera resultados rápidos, el cliente interviene constantemente. El tiempo de desarrollo es relativamente corto, permite desarrollar prototipos ante una alta complejidad de un problema y el tamaño del equipo es reducido. Está orientado al desarrollo de prototipos y fuertemente apoyada en tecnología de Bases de Datos que es el Data Mart construido, se concentra en la involucración del usuario. DESARROLLO DEL DATAMART Planificación En la Etapa de Planificación, se llevaron a cabo de varias actividades primordiales para un óptimo diseño del Data ANALISIS En esta etapa a través de las fases del Diseño de la Arquitectura Técnica y el Modelo Dimensional de los datos, se definió la estructura que soporta la integración de todas las tecnologías empleadas y la información que se almacena en el Data Mart. Diseño de la Arquitectura Técnica Se determinó la organización y comunicación de todos los elementos que componen la estructura que soporta al Data Mart. El sistema se implementa bajo una arquitectura cliente/servidor de dos capas, en la cual las herramientas de usuario final, es decir las aplicaciones de consulta y reporte se ejecutan en la capa cliente y el Data Mart reside en la capa servidor. 79 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 el Data Mart se tuvo como objetivo la información deseada en los reportes. Se construyó la matriz bus del Data Mart, en base a la definición de requerimientos. Esta herramienta permitió especificar los procesos de la institución, que en nuestro caso corresponden a las actividades de la Dirección General de Asuntos Administrativos, así como las distintas facetas de análisis (dimensiones) para cada uno. Estructura Grafica de los elementos que componen la estructura que soporta el Data Mart Estructura Grafica de los cuatro módulos que componen la Arquitectura Técnica del Data Mart. En esta estructura se disponen a su vez de cuatro modulos bien diferenciados: Las fuentes de datos, los Procesos ETL, El Data Mart y las herramientas de acceso, los tres primeros forman el back-end del sistema, y el último corresponde al front-end. Arquitectura del Data Mart Propuesto Modelamiento Dimensional Para iniciar el modelamiento dimensional, se tomó en cuenta que el principal objetivo de un almacén de datos o Data Mart es el análisis de la información, el cual es realizado por medio de reportes, por lo tanto al modelar 80 Matriz bus del Data Mart DISEÑO En el diseño del Data Mart se procedió a convertir los modelos lógicos desarrollados en la etapa anterior a modelos físicos, los cuales permitieron determinar los aspectos técnicos necesarios para la posterior construcción del Data Mart. Diseño de los Procesos de Extracción, Transformación y Carga del Data Mart CONSTRUCCIÓN En la etapa de construcción se procedió a implementar REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 los diseños físicos de la etapa anterior, haciendo uso de las herramientas que se especificaron también en dicha etapa. La Construcción física del Data Mart es similar a la creación de una base de datos relacional común, salvando las diferencias en cuanto a orientación o aplicabilidad. Creación de los Paquetes de Extracción, Transformación y Carga para la implementación de la estrategia ETL definida para el Data Mart, se utiliza el componente Business Intelligence Development Studio de SQL Server 2008 Enterprise Edition, para la creación de un proyecto de Microsoft Integration Services. Ejecución del Paquete ETL para las Dimensiones de un Sistema Transaccional Desarrollo de la Aplicación de Usuario Final Como último paso para la construcción del sistema, se procedió con la implementación de las aplicaciones de usuario final, en base a las especificaciones realizadas en la etapa de diseño. Para esto se creó un proyecto en Visual Studio 2010 Asp.Net C#. Reporte de un Proceso del Data Mart Ejecución del Paquete ETL para las Tablas de Hechos de un Sistema Transaccional CONCLUSIONES oEn base a la exploración y evaluación de los sistemas origen, se logró realizar una selección minuciosa de datos útiles para el análisis en el proceso de toma de decisiones, descartando a la vez una gran cantidad de información irrelevante. Posteriormente se efectuó un análisis profundo de las fuentes de datos que alimentarían al Data Mart logrando el diseño de los procesos ETL, seguido del diseño mismo del repositorio en base al modelamiento dimensional de los datos acorde a la definición de requerimientos, continuando con su descripción física y posterior construcción e implementación en el motor de bases de datos de SQL Server, en Integration Services, BI-Lite Cube it Zero Professional 6.1.1.9 y Microsoft Visual Studio 2010, consiguiendo de esta manera la reducción notable de los tiempos de obtención de datos. 81 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 oEn función a la determinación de requerimientos se pudo definir, diseñar y construir en Microsoft Visual Studio 2010 los reportes al detalle correspondientes a las consultas hechas con mayor frecuencia, logrando así una implementación de una aplicación web en ASP.Net con sus diferentes complementos como ser el Dev Express Universal, la cual ofrece una forma sencilla y rápida de generar y visualizar una innumerable cantidad de combinaciones de los datos permitiendo así explotar al máximo el modelo creado y se logró también establecer un acceso directo e inmediato a la información de la Dirección General de Asuntos Administrativos de la institución, sin solicitudes a terceros ni la manipulación de los datos por parte del personal de otras áreas para la elaboración de reportes. cantidad de combinaciones de los datos permitiendo así explotar al máximo el modelo creado y se logró también establecer un acceso directo e inmediato a la información de la Dirección General de Asuntos Administrativos de la institución, sin solicitudes a terceros ni la manipulación de los datos por parte del personal de otras áreas para la elaboración de reportes. REFERENCIAS BIBLIOGRÁFICAS • • • oEn función a la determinación de requerimientos se pudo definir, diseñar y construir en Microsoft Visual Studio 2010 los reportes históricos correspondientes a las consultas hechas con mayor frecuencia, logrando así una implementación de una aplicación web en ASP.Net con sus diferentes complementos como ser el Dev Express ASP Subscription 2012 vol 2.6, la cual ofrece una forma sencilla y rápida de generar y visualizar una innumerable 82 • • • [BOZA, 2004] "Data Warehouse para la gestión por procesos en el sistema productivo", Boza García Andrés Cancún, México, 2004 pág. 9. [CANO, 2008] Business Intelligence: Competir con Información, Fundación Banesto 2008. [DAN PRATTE, 2001] Inteligencia de Negocios Dan Pratte 2001. [INMON, 2003] Inmon Bill. Building the Data Warehouse. 2003. [INMON, 2005] Building the Data Warehouse - W. H. Inmon 2005 [KIMBAL, 2004] The DataWarehouse ETL Toolkit - Ralph Kimball 2004. Parte en la iza de la bandera Unidad Académica La Paz - Irpavi REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Sistema web de planeación de recursos empresariales con soporte para dispositivos móviles que apoye en la toma de decisiones MIGUEL ANGEL LOZA MAMANI Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia e-mail: [email protected] RESUMEN En el presente artículo se expone el desarrollo de un sistema ERP (Planeación de Recursos empresariales) de manera que el mismo al brindar información centralizada y oportuna apoye a la toma de decisiones mediante la presentación principalmente de reportes con la información más relevante además que se pueda visualizar dicha información a través de dispositivos móviles. ABSTRACT In the present article describes the development of an ERP system (Enterprise Resource Planning) so that the same by providing centralized information and timely support to the decision-making through the presentation of reports mainly with the most relevant information in addition that you can view this information through mobile device. INTRODUCCIÓN En los últimos tiempos, la mayoría de las empresas es soportada, automatizada y gestionada por sistemas informáticos, así como los sistemas de información apoyan la actividad gerencial y la toma de decisiones, incluso muchas veces, es la propia información y el acceso a la misma, el producto / servicio que se intercambia como el resultado de una medida defensiva para preservar los activos del negocio, ya que muchas veces, es un activo en sí mismo, una condición para operar y/o competir en el sector. El Sistema de Planeación de Recursos Empresariales (ERP) es un sistema de la empresa multifuncional impulsado por un conjunto integrado de módulos de software que soporta los procesos de negocio internos básicos de una empresa y con ayuda de el mismo se puede realizar la toma de decisiones de acuerdo a los datos obtenidos. algunos procesos y en la elaboración de reportes debido a que se debe recopilar información de distintos archivos Excel, además cuando se necesita información esta no se obtiene de manera inmediata, por lo tanto el flujo de la información es deficiente. Así, problema principal es que la información disponible en la empresa “Tick Tech BOLIVIA” se encuentra dispersa y no está disponible para el personal, lo que dificulta el procesamiento y obtención inmediata de la información que apoye a la toma de decisiones. OBJETIVO En base a la anterior problemática se tiene que como objetivo principal para dar solución a este problema es desarrollar un sistema web de Planeación de Recursos Empresariales con soporte para dispositivos móviles que apoye a la toma de decisiones en la empresa “Tick TECH BOLIVIA” para obtener información requerida en tiempo real. INGENIERÍA DE SOFTWARE El presente trabajo de grado tuvo como objetivo el desarrollo de un sistema de planeación de recursos empresariales con soporte para dispositivos móviles confidencialidad e integridad en el envío y recepción de mensajes privados. PROBLEMÁTICA El sistema actual que posee la empresa apoya tanto al funcionamiento como a la toma de decisiones de manera regular, ya que existe demora en la realización de Esta ingeniería trata con áreas muy diversas de la informática y de las ciencias de la computación, tales como construcción de compiladores, sistemas operativos, o desarrollos Intranet/Internet, abordando todas las fases del ciclo de vida del desarrollo de cualquier tipo de sistemas de información y aplicables a afinidad de áreas: negocios, investigación científica, medicina, producción, logística, banca, control de tráfico, meteorología, derecho, Internet, intranet, etc. 83 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 COMPUTACIÓN MÓVIL Los sistemas de computación móvil son sistemas de computación que deben trasladarse físicamente con facilidad y cuyas capacidades de cómputo deben emplearse mientras éste se mueve. Algunos ejemplos son: laptops, PDAs, tablets y teléfonos móviles. A partir de la distinción de los sistemas de computación móvil de cualquier otro tipo de sistema de computación es posible identificar las diferencias en las tareas que estos deben desempeñar, la forma en que deben diseñarse y la manera en que son operados. Los requerimientos a especificar tienen que ser tanto para el sistema ERP como para la aplicación móvil, en el caso del ERP se tiene un documento externo denominado FRD o Documento de Requisitos Funcionales. ANÁLISIS DEL SISTEMA PROPUESTO En esta etapa lo que se hace es definir en primer lugar de que módulos contara el Sistema ERP y aclarando que se hará en cada uno de ellos, en la Figura 1 podemos observar el diagrama de contexto del Sistema ERP. PLANEACIÓN DE RECURSOS EMPRESARIALES Un sistema ERP es un paquete de software comercial que integra toda la información que fluye a través de la compañía: información financiera y contable, información de recursos humanos, información de la cadena de abastecimiento e información de clientes. Un ERP automatiza las actividades corporativas nucleares, tales como: manufactura, recursos humanos, finanzas y gestión de la cadena de abastecimiento, incorporando las mejores prácticas para facilitar la toma de decisiones rápida, la reducción de costes y el mayor control directivo. DESARROLLO DEL SISTEMA ERP Para desarrollar el proyecto se hizo uso de la metodología XP combinada con la metodología SureStep de Microsoft Systems y Mobile-D para el desarrollo de la aplicación móvil, tomando en cuenta las siguientes etapas: ANÁLISIS DE LA SITUACION ACTUAL En esta etapa se identificó que problemas presenta la empresa, un análisis FODA, la identificación de los actores y finalmente un análisis de los procesos actuales que realiza la empresa. Además como primer documento para sustentar el ERP se tiene el PAD que es el documento de Pre-Análisis. ANÁLISIS DE REQUERIMIENTOS En esta etapa lo que se busca es especificar los requerimientos que tiene la empresa de manera que satisfaga sus necesidades y en base a los mismos realizar el diseño y desarrollo del sistema, en base a los requerimientos se puede realizar los casos de uso correspondientes. 84 Figura 1. Diagrama de Contexto Luego de eso se procede a realizar el modelado de procesos con ayuda de diagramas de secuencias DISEÑO Y DESARROLLO DEL SISTEMA En esta etapa, primero se realiza los diagramas de actividades, para representar los flujos de trabajo. Un punto importante a considerar es el diseño de la base de datos ya que este debe realizarse de manera que toda la base de datos sea centralizada y no distribuida y para ello se diseña el diagrama E/R y de clases de la base de datos. También se debe realizar el diseño de la interfaces tanto del Sistema ERP, la aplicación móvil y de los reportes u otros documentos necesarios de manera que se estandarice su elaboración o generación, además que los reportes son la principal fuente que dará apoyo a la toma de decisiones en la empresa. Realizado el diseño en general se procede a la construcción o desarrollo del sistema en donde comenzamos por la base de datos y se realiza el modelo relacional que se puede observar en la Figura 2, así como el diccionario de datos de cada una de las tablas que comprende la base de datos. Lógicamente lo siguiente es la construcción de las interfaces tanto del sistema principal como de la aplicación móvil. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 CONCLUSIONES Este artículo presenta las directrices generales para el desarrollo de un Sistema ERP el mismo que responde a las necesidades de la empresa en la que se aplica. El Sistema Web ERP permite reducir el tiempo requerido en la recolección de información relevante que ayuda a la toma de decisiones oportunas y confiables en la empresa. Con la implementación del Sistema Web ERP se logró centralizar información de varias bases de datos de considerables dimensiones lo que facilito la identificación acceso y manejo de los datos que son presentados en dispositivos móviles. El procesamiento de la información por medios automáticos facilita la obtención de esta, su manipulación, preparación y presentación de informes, obviando la participación de recursos humanos que en muchos casos se convertían en cuellos de botella y en fuentes de retraso. Figura 2. Modelo Relacional HERRAMIENTAS Las herramientas utilizadas para el desarrollo del presente proyecto son: Los procesos de presentación de la Información se la realiza en tiempo real lo que facilita la implementación de sistemas para la toma de decisiones con datos en línea y acordes a la realidad del momento. REFERENCIAS BIBLIOGRÁFICAS • • • • • • PHP y HTML5 para el desarrollo del sistema ERP ya que HTML5 es un lenguaje que permite publicar hipertexto en la gran red y PHP Es un lenguaje multiplataforma para el desarrollo de aplicaciones de tipo web que se ejecuta desde el servidor. Javascript que es un lenguaje basado en objetos, que se interpreta en el lado del cliente. Se incluye en los documentos HTML para ejecutar operaciones, sin acceso a las funciones del servidor. jQueryMobile para la parte de la aplicación móvil ya que este facilita el desarrollo de los mismos al estar desarrollado en base a HTML5 es una librería que se puede utilizar sin complicaciones. MySQL para la parte de base de ya que MySQL es un sistema de gestión de bases de datos relacional y con ayuda del lenguaje SQL se pueden realizar consultas a la base de datos. FusionCHART que es una librería hecha en PHP que permite realizar gráficos de varios tipos para poder mostrar la información de la base de datos de una manera gráfica que permita tener un mejor entendimiento y con ayuda de un gráfico y reportes se apoye a la toma de decisiones. • • • • PRESSMAN, Roger S., “Ingeniería de Software: Un Enfoque Práctico”, Sexta Edición, México, McGraw Hill, 2005. VALENZUELA Adriana, RODRIGUEZ Nelson. Computación móvil, experiencia en el desarrollo y dictado de cursos. San Juan - Argentina. 2012. A Critical Success Factors Model For ERP Implementation. IEEE Softw. 1999. MICROSOFT DYNAMICS, Methodology Sure Step, 2012. ROSSI Gustavo, Pastor Oscar, Schwabe Daniel y Olsina Luis. Ingeniería Web. Modelado e implementación de aplicaciones web. 2008. 85 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Algoritmo de encriptación simétrico basado en seguridad wireless aplicando XOR y serie FIBONACCI DIEGO CARLOS FERAUDY PINTO Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia [email protected] RESUMEN En el presente artículo se expone una nueva operación para poder cifrar claves tipo wep de 64 y 128 bits de 10 a 26 dígitos, tomando en cuenta que la seguridad de la configuración de puntos de acceso y routers es muy importante, evidentemente se van generando nuevos diccionarios de des encriptación y nuevas herramientas para encontrar claves de acceso a redes wi fi. ABSTRACT In this paper a new operation to encrypt wep key type 64 and 128 bits 10 to 26 digits is exposed, taking into consideration the security settings of access points and routers is very important, obviously are generating new dictionaries des encryption and key tools to find new network access wi fi. INTRODUCCIÓN WEP acrónimo de Wired Equivalent Privacy o Privacidad Equivalente a Cableado, es el sistema de cifrado incluido en el estándar IEEE 802.11 como protocolo para redes Wireless que permite cifrar la información que se transmite. Proporciona un cifrado a nivel 2, basado en el algoritmo de cifrado RC4 que utiliza claves de 64 bits (40 bits más 24 bits del vector de iniciación IV) o de 128 bits (104 bits más 24 bits del IV). Los mensajes de difusión de las redes inalámbricas se transmiten por ondas de radio, lo que los hace más susceptibles, frente a las redes cableadas, de ser captados con relativa facilidad. Presentado en 1999, el sistema WEP fue pensado para proporcionar una confidencialidad comparable a la de una red tradicional cableada. Podemos definir de forma muy rápida y creíble, que el tipo ASCII corresponde a los botones de un teclado. Y el tipo hexadecimal como un nivel de agrupación de bits (0/1) entendida por todos los componentes electrónicos. Cuando se invento la seguridad wireless con encriptación WEP en las redes inalámbricas, en principio pensaron es usar una clave estática con una longitud de 64 bits, esta clave se genera de forma pseudoaleatoria, pero el acabado final corresponde teóricamente a 10 dígitos hexadecimales (0-1-2-3-4-5-6-7-8-9-A-B-C-D-E-F), luego pensaros que era mejor subir el nivel a una de 128 bits, y se aumento el valor de 10 dígitos a 26 dígitos hexadecimales. DESCRIBIENDO LA OPERACIÓN La operación consiste en realizar una simple operación XOR a los números a cual corresponden los caracteres 86 de la clave, es decir el valor a cual corresponde al valor hexadecimal de cada uno de los caracteres y el que corresponda a la posición en la serie Fibonacci, el valor obtenido generara un resultado que corresponda a el valor cifrado en código ASCII. REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 DIAGRAMA DE FLUJO DEL ALGORITMO EJEMPLO DE LOS RESULTADOS DE UN CIFRADO Cifrar la palabra “seguridad”: s e g u r i d a d 73 65 67 75 72 69 64 61 64 R = [RS » U Z › DC3 EOT ‰ 6] => cadena de resultados con operación XOR entre cadenas C y F Y SE calcula el mod 255 si sobre pasa el valor de 255. Resultado del cifrado: RS»UZ›DC3EOT‰6 CONCLUSIONES Se toma en cuenta que todos los caracteres difieres si están escritos en minúsculas y en mayúsculas. C = [73 65 67 75 72 69 64 61 64] => cadena de valores hexadecimales, Valores equivalentes a decimal ASCII => D = [115 101 103 117 114 105 100 97 100] => cadena de valores decimales Valores en serie Fibonacci => 115 = 483162952612010163284885 mod 255 = 200 101 = 573147844013817084101 mod 255 = 251 103 = 1500520536206896083277 mod 255 = 22 117 = 1264937032042997393488322 mod 255 = 17 114 = 298611126818977066918552 mod 255 = 127 105 = 3928413764606871165730 mod 255 = 70 100 = 354224848179261915075 mod 255 = 30 97 = 83621143489848422977 mod 255 = 157 100 = 354224848179261915075 mod 255 = 30 F = [200 251 22 17 127 70 30 157 30] => cadena de valores Fibonacci. Unidad Académica Cochabamba Existe una gran variedad de dificultades en la conbinacion de estos números ASCII ya que se tomara en cuenta los caracteres menores de 33 es decir los primero 33 caracteres tomaran como valor las siglas cual correspondan el valor equivalente a la simbología y los caracteres en mayúsculas. REFERENCIAS BIBLIOGRAFICAS • • • • • http://www.hsc.fr/ressources/articles/hakin9_wifi/ hakin9_wifi_ES.pdf https://support.google.com/dfp_premium/answer /165721?hl=es http://bibliotecadigital.ilce.edu.mx/sites/ciencia/ volumen3/ciencia3/150/htm/sec_14.htm http://www.maths.surrey.ac.uk/hostedsites/R.Knott/Fibonacci/fibtable.html http://www.seguridadwireless.net/php/conversoruniversal-wireless.php 87 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Actividades de la Carrera ING. FREDDY MEDINA MIRANDA Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería La Paz - Bolivia [email protected] RESUMEN A continuación se presentan las actividades más destacadas de la Carrera en el semestre I/2014, complementarias al proceso de enseñanza aprendizaje, las cuales son la Competencia de Programación ACM-ICPC-EMI 2014, la implementación del diseño curricular por competencias y la conferencia Internet of things. VIII Competencia de Programación ACM - ICPC - EMI 2014 Departamento de Ingeniería de Sistemas - Escuela Militar de Ingeniería RESUMEN En este artículo se presentan los antecedentes y el desarrollo de la VIII competencia de Programación ACM ICPC organizada por la Carrera de Ingeniería de Sistemas de la EMI UALP, correspondiente a la gestión 2014 ANTECEDENTES La Primera Competencia Internacional de Programación de la ACM - ICPC (International Collegiate Programming Contest) fue realizada en Texas A&M en 1970, organizada por el Capítulo Alfa de la Sociedad de Honor en Ciencias de la Computación UPE. ACM - ICPC Bolivia realiza la competencia nacional, clasificatoria a la sudamericana. La carrera de Ingeniería de Sistemas de la EMI UALP organiza anualmente, desde el año 2008, la competencia para seleccionar tres equipos, habiendo tenido destacada participación en los eventos nacionales. MODALIDAD DE LA COMPETENCIA Actualmente, sobre todo desde que IBM se convirtió en el auspiciador oficial en 1997, la competencia se ha expandido a una red global de universidades que organizan competencias regionales para clasificar equipos a la Competencia Final, participando más de diez mil de los mejores estudiantes en diferentes áreas de las ciencias de la computación de más de 1800 universidades de más de 80 países de los 6 continentes. Esta es la mayor y más prestigiosa competencia de programación del mundo. El evento anual comprende tres niveles de competencias: • • • 88 Competencias Locales. Las Universidades seleccionan hasta tres equipos como representantes en el siguiente nivel de la competencia. Competencias Regionales. Los equipos inscritos de las diferentes universidades participan en la Competencia Regional de Programación ACMICPC. Final Mundial. Participan los 88 clasificados de las competencias regionales en una sede, compitiendo por premios monetarios, becas y otros beneficios. Estos equipos representan lo mejor de las mejores universidades en los seis continentes. Se evalúa a equipos de 3 estudiantes de la EMI UALP o egresados del 2013, con 8 o más problemas de programación en un tiempo máximo de 5 horas, equipados con una computadora. Los integrantes de cada equipo trabajan colaborativamente determinando requerimientos, diseñando casos de prueba y construyendo el software que resuelve el problema. La prueba es controlada por jueces presenciales y virtuales. Los estudiantes solo acceden al enunciado del problema y un ejemplo de datos de prueba. Cada solución incorrecta es sancionada con 5 minutos de penalidad El equipo que resuelve más problemas en el menor tiempo acumulado es declarado ganador. Una solución es incorrecta si: • • • • • El programa no compila correctamente. El tiempo de ejecución excede el máximo. Ocurre un error en tiempo de ejecución. El programa proporciona una respuesta incorrecta. El formato de salida es diferente al establecido en la hoja de problemas. El tiempo de resolución de los problemas es considerado REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 desde que inicia la competencia hasta la aceptación del último problema resuelto. Los lenguajes de programación habilitados son C, C++ y JAVA. réplica de esta en la EMI para identificar estudiantes con buen perfil académico. Los participantes pueden usar recursos impresos como libros, manuales y listas de programas. Es prohibido emplear información almacenada magnéticamente o cualquier tipo de software. OBJETIVOS DE LA COMPETENCIA • • • • Clasificar tres equipos a la competencia Nacional. Incentivar e impulsar las actividades de programación en la Escuela Militar de Ingeniería. Generar proyectos de interacción social con la participación de docentes y estudiantes de la EMI. Generar proyectos de investigación sobre las Líneas de Investigación de la Carrera. Figura 1. Participantes en el programa de Capacitación PROGRAMA DE CAPACITACIÓN La capacitación en la elaboración de estrategias para la resolución de problemas de competencias internacionales la realizó el grupo ACM ICPC EMI, a partir del 19 de abril los días sábados, de 9:00 a 12:00. Los miembros del grupo ICPC ACM EMI se están cursando en la empresa auspiciadora Code Road para convertirse en instructores del nivel inicial de la Olimpiada Boliviana de Informática OBI. El objetivo es generar una ORGANIZACIÓN Se designaron comisiones de organización, de jurados y de auspicio y premios. Los integrantes del comité responsable de la capacitación y del Juez Virtual ICPC son: Est. Ana Castillo, Tte. Charlie Seoane, Est. Ximena Cangri, Est. Eyvind Tiñini e Ing. Christian Conde Copa REALIZACION DE LA COMPETENCIA Figura 2- Inauguración del evento, a cargo del Tcnl. DIM. Julio César Narváez Tamayo, Jefe de Carrera 89 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Figura 3. Participantes resolviendo problemas Figura 4. Refrigerio, bajo la supervisión del Ing. Alejandro Zambrana responsable de la comisión de organización. EQUIPOS GANADORES Figura 5. Primer lugar: Eyvind Emilio Tiñini Coaquira, Ted Carrasco Carrasco y Ximena Cangri Toro Figura 6. Segundo lugar: Carlos Jesús Gutiérrez, José Ignacio Calvo Llanos y Diego Jauregui Salvatierra Figura 7. Tercer lugar: José Junior Paricagua Siñani, Lizeth Dayana Dávila Tapia y Yuri Iver Ortuño Calvo CONCLUSIONES Se alcanzaron los objetivos propuestos, seleccionando tres equipos calificados para representar a la EMI en la competencia nacional. 90 REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 Internet de las cosas RESUMEN El presente artículo destaca la importancia de la Conferencia “Internet de las cosas” organizada por la Carrera de Ingeniería de Sistemas de la EMI UALP, en el mes de abril de 2014. ANTECEDENTES La Red ha pasado del concepto de Internet de las Personas (que permitía el acceso a portales, servicios y aplicaciones) al de Internet de las Cosas (donde todo tipo de objeto o cosa está conectado a Internet: electrodomésticos, etc. y puede enviar información a un smartphone, tableta o computadora). • fue que la última de las 4.000 millones de direcciones IP se asignó en 2011. Por eso, en 2012 el mundo online comenzó la migración a un nuevo protocolo de Internet, IPv6, con 340 trillones de trillones de direcciones IP. En 2013 se crearon chips eficientes y baratos, que permiten que cualquier cosa pueda conectarse a Internet vía Wi-Fi o a un celular mediante el estándar Bluetooth Low Energy. CONFERENCIA Figura 1. Lic. Gabriel Rivera, disertante El Internet de las Cosas se basa en sensores, en redes de comunicaciones y en una inteligencia que maneja todo el proceso y los datos que se generan. Sus campos de aplicación son: salud, sectores de energía, transporte, telecomunicaciones, servicios de información y financieros, fábricas inteligentes, marketing, educación, vehículos y entretenimiento. Como parte de los eventos programados a nivel nacional para celebrar 2014 como el año del Internet de las cosas, la Carrera de Ingeniería de Sistemas de la EMI UALP, realizó la Conferencia “Internet of the things”, a cargo del Lic. Gabriel Rivera, de CodeRoad, empresa de desarrollo de software. 2014 AÑO DE INTERNET DE LAS COSAS Según un estudio de General Electric en 2012, en los siguientes 20 años, el Internet de las cosas añadiría US$ 15 billones al PIB global, estimándose que 25.000 millones de dispositivos estarán conectados a Internet para fines de 2014. 2014 es el año del Internet de las cosas debido a dos cambios tecnológicos: • Para que cualquier objeto pueda conectarse a internet, necesita una dirección IP. El problema Figura 2- Participantes en la conferencia 91 3ER. SEMESTRE ARNOL FRANCISCO ROBLES TINTAYA, JORGE LUIS KAMA COPA, EDDY ALVARO MONTECINOS AGUILERA, FABRICIO GABRIEL TORRICO BARAHONA, JHOSELYN CRUZ MAMANI, WILSON CHARLIE SEOANE SANCHEZ, DEYSI MARIBEL CHURA COYO, PAOLA MARCIA TARQUI ATAHUICHI, JESUS KEVIN CHAMBI MAMANI, MARCOS MAURICIO LANDIVAR FERNANDEZ REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 92 4TO. SEMESTRE BRANDON FELIPE MERLO LOZA, BEHIMAR MOISES ALVARADO ARANDA, SANTOS MANOLO ALARCON ALARCON, YVORY SAAVEDRA DAZA, IRIS NARELLA LUNA MAIDANA, LIA ALEXI MARIN QUISPE, FRANCIS ANGEL ROJAS LOPEZ, WILLIAM CASTRO AYAVIRI, WILSON REAS ALANOCA, HENRY IVAN QUISPE ACARAPI REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 93 5TO. SEMESTRE JOSÉ JUNIOR PARICAGUA SIÑANI, DANY MILTON LIMACHI HERRERA, JUDY ADRIANA QUISPE GERÓNIMO, YURY YVER ORTUÑO CALVO, LIZETH DAYANA DÁVILA TAPIA, WALTER FERNANDO MAMANI QUISPE, ERICK ROLANDO PALENQUE RÍOS, JOSELINE GABRIELA ABENDAÑO, JOSÉ IGNACIO CALVO LLANOS, KATHERINE GEOVANA VILLCA NINA, FREDDY BERNARDO MAMANI GUTIÉRREZ, DIEGO YESSID JÁUREGUI SALVATIERRA REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 94 6TO. SEMESTRE ERIK ABRAHAM BLANCO PAUCARA, EYVIND EMILIO TIÑINI COAQUIRA, MAYA ISABEL SÁNCHEZ GAMBOA, GRECIA JORGELINDA MACHACA YAPURA, ALEJANDRA STEFANY ÁLVAREZ CHURA, WILLIAM CESAR MENDOZA ALARCÓN, CARLOS JESÚS GUTIÉRREZ GUARACHI REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 95 7MO. SEMESTRE GIOVANA EDITH YUJRA NINA, AIDA VANESSA MAMANI CASTAÑETA, RITA CANAVIRI CAMA, ROLANDO SÁNCHEZ MONTALVO, DIEGO LUIS MARIÑO PERALTA, MAURICIO JOSE FELIPE SOTO TALAVERA REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 96 8VO. SEMESTRE DAYSI PATTY RAMIREZ, SERGIO ALEJANDRO MORALES ZUBIETA, MISCHELL SONIA HUCHANI HUCHANI, RUDY ALANOCA SOLOZANO, JESSICA REINA TANCARA ZABALA, ERLAND DANIEL CHURQUI MORALES, ROSARIO CRISTAL CANAVIRI CALLISAYA, CESAR ANTONIO NARVAEZ GUTIERREZ, GABRIELA MARISOL ESPINOZA MONTES, YERI ANTONIO REVOLLO ENDARA, DANITZA HELEN VALLEJOS QUIÑONES, DIEGO CARLOS FERAUDY PINTO, SOLEDAD SILVIA GUTIERREZ PARRA, RAUL MARCO ANTONIO COLQUE GARCIA REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 97 9NO. SEMESTRE MARIO RUBÉN ONTIVEROS DAZA, CARLOS ALEXANDRO POMARES NINA, PEDRO DAMIÁN VÁSQUEZ CALLE, OBRAYAN KEVIN HUANCA MARQUEZ, BRIAN ERLAND DEREK MARISCAL RODRÍGUEZ, XIMENA LISETT CANGRI TORO, ARIEL SANJINÉS CASTRO, ANA LAURA CASTILLO ALFARO, PEDRO ARIEL CASTILLO MOLLINEDO, MELISA TICONA MUJICA, VLADIMIR VARGAS ÁLVAREZ, WARA VANESA SIÑANI LOPEZ, RICARDO ALEJANDRO TRUJILLO CASTAÑETA, ADEMIR FERNANDO NINA MIRANDA, JORGE HERNANDO CANDIA MENACHO, RAÚL GILMAR CORTEZ LAURA REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 98 10 MO. SEMESTRE DOUGLAS LEONARD DEL VILLAR VASQUEZ, SAÚL MEYER TERRAZAS ROLLANO, JUAN JESÚS YAMPASI ESPEJO, JORGE CRISTÓBAL CORTEZ CALLE, JAVIER RONALD ESCOBAR CRUZ, FIDEL ALEJANDRO TAPIA QUEZADA, CLAUDIA INES GUTIERREZ VILLEGAS, GUSTAVO ELÍAS ALCONZ EVIA, DHEMELZA PAOLA ALIAGA NISTTAHUZ, ROMER YUJRA TUCUPA, JOSÉ IGNACIO MAMANI MURGA, MARCELO RILMAR HUALLARTE HUALLARTE, ISRAEL QUISBERT ANTI, DIEGO BRUNO FLORES SALAZAR, RAUL RUBEN PACHECO SANDOVAL, JHONNY GABRIEL LOZA QUENTA, RENE ANDRÉS RIVERO RUIZ, MIGUEL ÁNGEL LOZA MAMANI, EDWIN SANTOS TINTA GÓMEZ REVISTA INGENIERIA DE SISTEMAS PARADIGMA GESTION 2014 99 Ingenieria de Sistemas Competencia General Competencia por Área El Ingeniero de Sistemas graduado de la EMI: “Determina el diseño, desarrollo, implementación, evaluación, mantenimiento, soporte y retiro de sistemas con enfoque sistémico y visión emprendedora, aplicando nuevas tecnología de información y comunicación realizando el modelado y automatización de sistemas, desarrollando sistemas de gestión empresarial y de producción orientados a la toma de decisiones que optimicen los procesos, con creatividad, liderazgo y pensamiento crítico en un entorno complejo conflictivo multidisciplinario”. √ √ √ √ Sistemas de Información y Conocimiento. Tecnologías de la Comunicación y Redes. Modelación y Automatización de Sistemas. Sistemas de Gestión Empresarial. Programa Académico Ingeniería de Sistemas PRIMER SEMESTRE Algebra Algoritmos Calculo I Dibujo Para Ingeniería Física I SEGUNDO SEMESTRE Algebra Lineal y Teoría Matricial Cálculo II Estadística y Probabilidades Física II Química General TERCER SEMESTRE Diseño y Programación de Sistemas Basados en Microprocesadores I Ecuaciones Diferenciales Electrónica Aplicada Estadística y Probabilidades Ii Programación Orientada a Objetos Sistemas Administrativos y Contables CUARTO SEMESTRE Diseño y Programación de Sistemas Basados en Microprocesadores II Estructura de Datos Investigación Operativa I Metodología de la Investigación Métodos Numéricos Sistemas Económicos Teoría General de Sistemas QUINTO SEMESTRE Análisis y Diseño de Sistemas I Gestión de Bases de Datos I Investigación Operativa Ii Planeación y Procesos de Sistemas Sistemas de Control y Automatización Tecnología de Comunicaciones y Redes I SEXTO SEMESTRE Administración de Sistemas Operativos y Servidores Análisis Y Diseño de Sistemas II Gestión de Bases de Datos II Investigación Operativa III Modelación de Sistemas Tecnología de Comunicaciones y Redes II SÉPTIMO SEMESTRE Ingeniería de Software Inteligencia Artificial I Programación Avanzada Robótica Simulación de Sistemas Tecnología de Comunicaciones y Redes III OCTAVO SEMESTRE Auditoria de Sistemas Ingeniería Web Inteligencia Artificial II Preparación y Evaluación de Proyectos Seguridad de Sistemas Sistemas Distribuidos Sistemas De Mercadeo NOVENO SEMESTRE Gestión de Proyectos Sistémicos Ingeniería Legal y Derecho Informático Trabajo de Grado I Tópicos Avanzados de Modelación y Automatización De Sistemas DÉCIMO SEMESTRE Trabajo de Grado II Tópicos Avanzados de Sistemas de Información y de Conocimiento Tópicos Avanzados de Tecnologías de Comunicación y Redes