1 Directivos Consejo Superior Monseñor Rigoberto Corredor Bermúdez Pbro. Diego Augusto Arcila Vélez Pbro. Behitman Céspedes de los Ríos Pbro. Rubén Darío Jaramillo Montoya Pbro. John Fredy Franco Delgado Dr. Bernardo Gil Jaramillo Dr. Javier Morales López Dr. Jaime Montoya Ferrer Dra. María Clara Buitrago Arango Estudiante Camilo Bedoya Restrepo Rector Pbro. Diego Augusto Arcila Vélez Vicerrector Académico Willmar de Jesús Acevedo Gómez Decano de la Facultad de Ciencias Básicas e Ingeniería Juan Luis Arias Vargas Director Programa de Ingeniería Industrial Paula Milena Ríos González Director Programa Ingeniería de Sistemas y Telecomunicaciones Alonso Toro Lazo Director Programa de Tecnología en Sistemas Lina María Suárez Vásquez Director Depto de Ciencias Básicas James Andrés Barrera Moncada Universidad Católica de Pereira 2 ENTRE CIENCIA E INGENIERÍA ISSN 1909-8367 Es una revista de la Facultad de Ciencias Básicas e Ingeniería, que tiene por objeto aportar al desarrollo en ciencia básica e ingeniería mediante la difusión de artículos que den cuenta del avance y estado del conocimiento, de la técnica y de la tecnología y de la formación en estas áreas. La revista Entre Ciencia e Ingeniería esta admitida en: Indices: • Índice de Publicaciones Seriadas Científicas y Tecnológicas (PUBLIDEX Categoría B) • Índice Latinoamericano de Revistas Científicas y Tecnológicas (LATINDEX) • Índice Actualidad Iberoamericana (Instituto Iberoamericano de Información en Ciencia) Bases de Datos: • Base de Datos SciELO Colombia • Base de Datos Informe Académico Plus Publications (EBSCOhost) • Base de Datos Informe Académico (GALE) En su publicación periódica hace un aporte para la continua renovación de teorías y un acercamiento a la verdad difundiendo el quehacer científico y su posibilidad de inserción en los contextos industriales, económicos, sociales y culturales. Se autoriza la reproducción total o parcial de su contenido siempre y cuando se cite la fuente. Los conceptos expresados en los artículos son responsabilidad exclusiva de sus autores. Reconocimiento — Debe reconocer adecuadamente la autoría, proporcionar un enlace a la licencia e indicar si se han realizado cambios<. Puede hacerlo de cualquier manera razonable, pero no de una manera que sugiera que tiene el apoyo del licenciador o lo recibe por el uso que hace. NoComercial — No puede utilizar el material para una finalidad comercial. Universidad Católica de Pereira Av de las Américas Carrera 21 No 49-95 Pereira, Colombia Teléfono 3124000 ext 1019 y 1029 Http://biblioteca.ucp.edu.co/OJS/index.php/entrecei [email protected] Periodicidad semestral Diagramación e Impresión ARPI Artes Gráficas Impreso en Colombia - Printed in Colombia ARPI Artes Gráficas Calle 19 No 12-69 Centro Comercial Fiducentro Local B-001,Tel 334 4258 Pereira - Colombia © Reservados todos los derechos de autor ISSN 1909 - 8367 Pereira, Colombia Entre Ciencia e Ingeniería 3 Director PhD. (C) Line Yasmin Becerra Sánchez Universidad Católica de Pereira Editor Universidad Católica de Pereira Corrección de estilo Esp. Jair del Carmen Rodríguez Velásquez Comité Editorial / Científico PhD. (C) Line Yasmin Becerra Sánchez Universidad Católica de Pereira Msc. Juan Luis Arias Vargas Universidad Católica de Pereira PhD. Jhon Jairo Padilla Aguilar Universidad Pontificia Bolivariana (Bga.) PhD. John Makario Londoño Bonilla Universidad de Caldas PhD. Liliana López Kleine Universidad Nacional de Colombia PhD. Diego Muraca Universidad Estatal de Campinas (Brasil) Arbitros para este número PhD (c). Elvis Eduardo Gaona García Universidad Distrital Francisco José de Caldas PhD (c). Elmer Alexis Gamboa Peñaloza Universidad de Sao Paulo PhD (c). Luis Eduardo Pelaéz Valencia Universidad Católica de Pereira PhD. Carlos Julio Vidal Holguín Universidad del Valle PhD. Laura Mariela Pramparo Universidad Militar Nueva Granada MsC. Eduin Dionisio Contreras Castañeda Universidad de Boyacá Wilson Bolívar Buriticá Universidad de Antioquia MsC. Wilson Vargas Vargas Universidad Distrital Francisco José de Caldas PhD. Victor Leiva Universidad Adolfo Ibáñez (Chile) PhD. José Angel Colina Márquez Universidad de Cartagena PhD. Christian Alexis Lazo Ramírez Universidad Austral de Chile PhD. Javier Roldán Mckinley Universidad del Atlántico PhD. Daniel Linares Universidad de San Luis (Argentina) PhD. Luis Rodríguez Baena Universidad Internacional de la Rioja PhD. Antonio Sanhueza Universidad de La Frontera, Temuco, (Chile) PhD. Diofanor Acevedo Correa Universidad de Cartagena PhD. Sergio Neftalí Torres Inostroza Universidad de Concepción (Chile) PhD. Oscar Fabián Higuera Cobos Universidad del Atlántico PhD. Ramon García - Martínez Universidad de Lanús (Argentina) Est. PhD. Héctor Fabio Bermúdez Orozco Universidad del Quíndio PhD. Daniel J. Power University of Northern Iowa PhD. Carlos Enrique Herrera López Universidad de Concepción (Chile) Universidad Católica de Pereira 4 Entre Ciencia e Ingeniería 5 CONTENIDO Editorial 7 Desarrollo e interacción de un laboratorio virtual asistido y controlado por PLC Development and interaction of a virtual laboratory assisted and controlled by PLC Desenvolvimento e interação de um laboratório virtual assistido e controlado por PLC C. A. Cáceres y D. Amaya 9 - 15 Control óptimo conmutado de un convertidor CC-CC Switched optimal control of a DC-DC converter Controle ótimo comutado de um conversor CC-CC D. E. Méndez, J. Sánchez y R. Álzate 16 - 21 Determinación de la concentración de cadmio en un chocolate colombiano con 65% de cacao y chocolates extranjeros con diferentes porcentajes de cacao Determination of the concentration of cadmium in a Colombian chocolate with 65% of cocoa, and foreign chocolates with different cocoa percentages Determinação da concentração de cádmio num chocolate colombiano com 65% de cacau e chocolates estrangeiros com diferentes porcentagens de cacau A. Echeverry y H. Reyes 22- 32 Construcción de modelos 3D para la enseñanza de la Ley de Gauss en forma diferencial Building 3D models in order to teach the Gauss’ Law in a differential form Construção de modelos 3D para o ensino da lei de Gauss em forma diferencial A.A. Rojas, G.A. Atehortúa, R.G. Márquez, D. Osorio, S. López y C.E. Mora 33 - 39 Análisis y clasificación de atributos de mantenibilidad del software: una revisión comparativa desde el estado del arte Analysis and classification of software maintainability attributes: a comparative review from the state of the art Análise e classificação de atributos de manutenção do software: uma revisão comparativa desde o estado da arte J.D. Erazo, A. S. Florez y F.J. Pino 40 - 49 Poligonación topográfica de alta precisión en el campus de la Universidad del Quindío Topographic traversing of high accuracy inside the campus of Universidad del Quindío Poligonacao topográfica de alta precisão no campus da Universidad del Quindío J. Garzón, G. Jiménez y X. Cifuentes 50- 60 Prototipo de potenciostato con aplicaciones en procesos electroquímicos Potentiostat prototype with applications in electrochemical processes Protótipo de potenciostato com aplicações em processos electroquímicos B. Segura, F. N. Jiménez y L. R. Giraldo 61 - 69 Métodos para determinar el factor de intensidad de esfuerzos Methods to determine the stress intensity factor Métodos para determinar o fator de intensidade de esforços J. A. Grajales y L. V. Vanegas 70 - 80 Universidad Católica de Pereira 6 Índice para medir la situación digital rural: caso de jóvenes escolarizados Index to measure the rural digital situation: case of young students ndice para medir a situação digital rural: caso de jovens escolarizados O. A Vega 81 - 88 Tecnología de membranas: desarrollo histórico Membrane technology: historical development Tecnologia de membranas: desenvolvimento histórico C.A. Solís, C.A. Vélez y J.S. Ramírez 89 - 98 Cálculo del factor de concentrador de esfuerzos en placas planas utilizando diferentes elementos de discretización por medio del método de elementos finitos Calculation of stress concentrator factor in flat plates using different elements of discretization by the finite element method Cálculo do fator de concentrador de esforços em placas planas utilizando diferentes elementos de discretização através do método de elementos finitos J.S. Clavijo, C.D. Montoya y L.C. Flórez 99 - 107 Especificación de requisitos de software: una mirada desde la revisión teórica de antecedentes Software requirements specification: an overview from the theoretical background checking Especificação de requisitos de software: um olhar a partir da revisão teórica de antecedentes A. Toro y J. G. Gálvez 108 - 113 Software educativo para el buen uso de las TIC Educational software for the proper use of ICT Software educativo para um bom uso das TIC E. Murcia, J.L. Arias y S. M. Osorio 114 - 125 Políticas de la Revista “Entre Ciencia e Ingeniería” Magazine Policies 126 - 137 Entre Ciencia e Ingeniería 7 Editorial EL PROGRAMA DE INGENIERÍA DE SISTEMAS Y TELECOMUNICACIONES DE LA UNIVERSIDAD CATÓLICA DE PEREIRA HA LOGRADO LA ACREDITACIÓN DE ALTA CALIDAD El concepto de calidad se debe leer en contexto. Existen disciplinas, profesiones y quizás, personas, que consideran la calidad como un tema de concepción precisa y absoluta. Es decir, la calidad tratada de manera booleana, existe o no; y esto, sumado a una mirada ortodoxa que implica evaluar con el mismo concepto de calidad a la generalidad. Escrito de otra forma, todas las organizaciones y todos los procesos, manejando un mismo concepto de calidad. En Educación Superior, el concepto es más flexible, pero la forma de llegar a él es rigurosa. El Consejo Nacional de Acreditación-CNA considera que la calidad aplicada a las Instituciones de Educación Superior está relacionada con la forma como se presta el servicio de educación. De manera general, la calidad como un atributo del servicio público. Para la Universidad Católica de Pereira es un valor institucional; un principio que orienta la labor de quienes la integran. Se considera la calidad como una práctica de mejoramiento continuo. Cómo hacer las cosas bien, hacer las cosas bien y de la mejor manera posible. Desde sus orígenes, en el año 2003, la Facultad de Ciencias Básicas e Ingeniería ha interpretado este principio como la necesidad de actuar bien, con coherencia y rigurosidad, siempre buscando la excelencia. Esto, para que la facultad pueda ser señalada por parte de la sociedad, como una que tiene excelentes grupos de investigación, excelentes revistas científicas, excelentes programas académicos de pregrado y posgrado, etc. Lo anterior, soportado en un excelente equipo humano, preocupado permanentemente por su desarrollo personal y profesional y, por defecto, del desarrollo institucional. Hoy, 13 años después, en el 2016, la facultad cree que estos esfuerzos, estas buenas prácticas, han surtido efecto: se cuenta con una revista de ingeniería reconocida por la calidad de su contenido, clasificada en índices y bases de datos nacionales e internacionales (Categoría B de PUBLINDEX, LATINDEX, Base de datos Fuente Académica Plus – EBSCO, Base de datos Informe Académico – Académica Onefile, Índice Actualidad Iberoamericana); se cuenta también con dos grupos de investigación, GEMA Y GIII, con producción científica y académica importante y que los ha llevado a la clasificación por COLCIENCIAS en las categorías B y C respectivamente; y finalmente, se cuenta con la acreditación en alta calidad del programa Ingeniería de Sistemas y Telecomunicaciones. Precisamente, ésta última ocupa el propósito de la editorial. Haber recibido esta acreditación por parte del CNA, es recibir buenas noticias para toda la comunidad universitaria. Se acredita la existencia de excelentes profesores y el trabajo llevado a cabo por éstos en las dimensiones sustantivas: docencia formación, investigación y proyección social; se acredita el trabajo de los estudiantes y se acredita el trabajo del personal directivo y administrativo que trabaja permanentemente para soportar de la mejor forma el desarrollo normal de las actividades académicas. Dado que Ingeniería de Sistemas y Telecomunicaciones surge como respuesta a los problemas que la región presenta en el contexto genérico de las Tecnologías de la Información y la Comunicación, obtener la acreditación permite reconocer también la conexión que existe entre lo que hace la universidad y la pertinencia con los problemas locales y regionales. Es decir, Universidad Católica de Pereira 8 tratamiento de los problemas regionales con calidad y mediante una institución inteligente, tal como se presenta en su Proyecto Educativo Institucional - PEI. Entonces, aunque algunos expertos presenten el concepto de calidad como elusivo, para la Universidad Católica de Pereira ha resultado fácil encontrar una definición directa: el mejoramiento continuo como una forma de hacer las cosas, como un estilo de vida personal e institucional. Sin embargo, y aún con la claridad del valor institucional y el principio orientador, llegar a la acreditación en alta calidad, ha sido una tarea ardua para la Facultad de Ciencias Básicas e Ingeniería y en particular para el mismo programa de Ingeniería de Sistemas y Telecomunicaciones. Un elemento fue clave para lograrlo, la filosofía de Proyecto de Vida. Los directivos, administrativos y profesores, al leer y comprender adecuadamente la Institución, aceptan claramente que su forma de hacer las cosas es al estilo proyecto de vida. Hacer las cosas buscando siempre el bien del otro, y mejorarlas para mejorar la vida del otro y de quienes integran la comunidad universitaria. Así, el concepto de calidad se va configurando y con el tiempo, acreditando. Los procesos de aseguramiento de la calidad en educación superior siguen un patrón común: Entre Ciencia e Ingeniería un conjunto de opciones y de acciones que deben ser tomadas y tenidas en cuenta para atender una necesidad con pertinencia, con coherencia, con contexto y con personal idóneo. La universidad, por orientación de las facultades y con el apoyo del departamento de planeación, vigilan constantemente, mediante procesos de autoevaluación, que este patrón común no se descuide, y por el contrario siempre se potencia. De esta forma, en un cambio, en una transformación, siempre se parte de un proceso de autoevaluación en el que interviene un colectivo. Así, se garantiza sostener la calidad por la fortaleza de los colectivos y las decisiones colegiadas, y no por el capricho particular. Somos conscientes del reto que significa haber logrado esta acreditación y de la responsabilidad que se tiene de trazar la ruta para los demás programas académicos de pregrado y posgrado adscritos a la facultad. Por esto, confirmamos que el Señor ha estado grande con nosotros, y estamos alegres. Felicitaciones a la región, felicitaciones a la Universidad Católica de Pereira, a la Facultad de Ciencias Básicas e Ingeniería y al Programa de Ingeniería de Sistemas y Telecomunicaciones. PhD (c) Luis Eduardo Peláez Valencia 9 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 9-15 Desarrollo e interacción de un laboratorio virtual asistido y controlado por PLC1 Development and interaction of a virtual laboratory assisted and controlled by PLC Desenvolvimento e interação de um laboratório virtual assistido e controlado por PLC C. A. Cáceres y D. Amaya Recibido Junio 18 de 2015 – Aceptado Febrero 19 de 2016 Resumen - Hoy en día el elemento básico en la industria es el PLC, cuya función principal es controlar los sistemas y procesos presentes en la industria. El uso de laboratorios virtuales en fases preliminares al completo montaje de las líneas de producción resulta muy útil para ahorrar dinero y tiempo. Se presenta la ventaja de poder tener los controladores y la lógica secuencial ya funcionando en su gran mayoría, antes de tener el sistema completamente listo. Éste artículo presenta un desarrollo e implementación de un ambiente virtual de una banda trasportadora en una cervecería. A través del protocolo OSC, el laboratorio virtual y el PLC, puede comunicarse y lograr una emulación del sistema real en un ambiente virtual, donde el PLC ha sido programado como se haría para una industria. Palabras clave --- laboratorio virtual, modelo matemático, modelo virtual, PLC. Abstract - Nowadays, the basic element to be used in the industry is the PLC, whose main function is to control the systems and processes in the industry. The use of virtual labs in preliminary stages in the complete assembly of the production lines helps to save money and time. It gives the advantage of having controllers and sequential logic mostly working, before 1 Producto derivado del proyecto de investigación INO 1638 “Laboratorio virtual aplicado al control de procesos industriales”. Presentado por el Grupo de Investigación Grupo de Aplicaciones Virtuales GAV, de la Universidad Militar Nueva Granada. C. A. Cáceres Asistente de Investigación en el Grupo de Aplicaciones Virtuales GAV de la Facultad de Ingeniería, Departamento de Ingeniería en Mecatrónica, de la Universidad Militar Nueva Granada, Bogotá D-C. (Colombia); email: [email protected]. D. Amaya Docente de tiempo completo e investigador principal del Grupo de Aplicaciones Virtuales GAV de la Facultad de Ingeniería, Departamento de Ingeniería en Mecatrónica, de la Universidad Militar Nueva Granada, Bogotá D-C. (Colombia); email: dario.amaya@unimilitar. edu.co. having the system completely ready. This paper presents the development and implementation of a virtual environment of a conveyor belt in a brewery. Through the OSC protocol, the virtual laboratory and the PLC can communicate and achieve emulation of the real system in a virtual environment, where the PLC has been programmed as it would be done for an industry. Key words--- virtual laboratory, mathematical model, Virtual model, PLC. Resumo – Hoje em dia o elemento básico da indústria é o PLC, cuja função principal é controlar os sistemas e processos presentes na indústria. A utilização de laboratórios virtuais em montagem completa de estágios preliminares das linhas de produção é muito útil para economizar tempo e dinheiro. Apresenta-se a vantagem de poder ter os controladores e a lógica sequencial já funcionando em maior parte, antes de ter o sistema completamente pronto. Este artigo apresenta um desenvolvimento e implementação de um ambiente virtual de um conjunto de transportadores de cervejaria. Através do protocolo OSC, o laboratório virtual e o PLC, podem comunicar-se e alcançar uma emulação do sistema real em um ambiente virtual, onde o PLC foi programado como seria feito para uma indústria. Palavras chave: laboratório virtual, modelo matemático, modelo virtual, PLC. I. Introducción L OS sistemas automáticos modernos usan en su gran mayoría PLCs, los cuales se encargan de coordinarlos. Claramente, la industria actual requiere ingenieros con grandes capacidades y conocimientos en automatización. Uno de los mayores retos es encontrar la manera de enseñar la programación de los PLCs a los estudiantes [1]. Universidad Católica de Pereira 10 La programación del PLC es usualmente enseñada en cursos de automatización de pregrado, donde muchos centros educativos no tienen los recursos para que sus estudiantes sean usuarios competentes de los PLCs [2]. Las desventajas de los laboratorios tradicionales y los sistemas físicos son principalmente que requieren mantenimiento constante, inversión y adecuación de un gran espacio para su uso, la mayoría de estos factores no pueden ser resueltos fácilmente por instituciones educativas [1] [3] [4]. Afortunadamente casi todos estos problemas pueden ser resueltos por medio del uso de laboratorios virtuales, que además de presentar facilidades de espacio y uso, algunos estudios han demostrado que la enseñanza virtual del uso de los PLCs es muy útil en el entorno académico enfocado a la capacitación profesional [5]. En [6] se desarrolló un laboratorio virtual con la facilidad de ser accesible para los estudiantes a experimentos en el área de la electrónica y la automatización por medio de internet comunicándose a un software de simulación como lo es Simulink de Matlab, donde se accede a diferentes modelos con opción de controlarlos y editar ciertas características. En [7] se proponen dos laboratorios virtuales con un enfoque a la enseñanza de diferentes estrategias de control digital de una planta, el primero ofrece una herramienta para asistencia por ordenador y experimentos prácticos estructurados. El segundo ofrece un ambiente Matlab, que permite a los usuarios crear y diseñar experimentos de control bajo el lenguaje Matlab. En [8] se propone una alternativa al problema de la alta demanda de equipos de automatización y control por parte de las universidades, que son modelos de máquina implementados en un ambiente virtual, con el propósito de sustituir todos estos componentes. Ya en [9] se presenta una aplicación real de un proceso industrial, inmerso en un laboratorio virtual, que se enfoca en el diseño técnico, el desarrollo y operación del laboratorio en tiempo real, demostrando los principios de la automatización industrial. Existen diferentes tipos de laboratorios virtuales, por ejemplo el planteado por [10] propone un laboratorio virtual y remoto con acceso desde un teléfono celular, pero con elementos únicamente discretos y presentados en 2D. En [11] se plantea un modelo virtual y remoto para ser controlado con un PLC mostrando el sistema controlado con gráficos similares a los sistemas SCADA. En [12] se realiza un laboratorio remoto con trasmisión de video de la planta real y con el uso de un PLC físico. Por otro lado en [13] [14] [15] [16] se proponen laboratorios virtuales que simulan diferentes entornos para el aprendizaje de distintos tópicos. Desde el punto de vista industrial, el uso de laboratorios virtuales nace con la necesidad de optimizar el tiempo de desarrollo de los proyectos. En las plantas industriales, el montaje de cualquier sistema o proceso, toma un gran tiempo, al cual se le suma el periodo de programación y verificación de los algoritmos diseñados para el PLC. Con el uso de un Entre Ciencia e Ingeniería laboratorio virtual, se pueden realizar el montaje del sistema o proceso, y paralelamente programar el PLC correspondiente al proceso que se está ensamblando y verificarlo por medio del laboratorio virtual, dicho método optimiza el tiempo de desarrollo del proyecto, lo cual implica un ahorro de dinero. Los software de simulación de los PLC pueden ser clasificados en PLC Virtual y Entorno Virtual [1]. Un Entorno virtual, lleva al mundo virtual el controlador y el proceso, por otro lado el PLC virtual, tiene un proceso real y un PLC virtual [1] [17]. En este trabajo se presenta un proceso virtual y un PLC real, lo cual puede clasificarse en un sistema “Híbrido Real-Virtual” en un sistema de manufactura automática. La principal ventaja es que la programación del PLC real puede ser probada y verificada antes de terminar el proceso real, desde los eventos discretos, diseñados por GRAFCET hasta los temporizadores, controladores PID y demás. El presente artículo se divide en cinco secciones. Primero se muestra un breve estado del arte, objetivos y justificación del trabajo. Posteriormente se muestra el método en que se desarrolló el trabajo y los materiales utilizados. Seguidamente los resultados que mostró en el desarrollo del trabajo. Por último las conclusiones obtenidas del trabajo y las referencias. II. Materiales y métodos El desarrollo del laboratorio virtual propuesto está conformado por el control de una banda transportadora, cuya principal función es movilizar contenedores con botellas dentro de una cervecería. Al final de la banda, se encuentra un manipulador encargado de retirar las botellas y ubicarlas en otra sección de la línea de producción. El procedimiento utilizado para llevar a cabo este trabajo está compuesto por tres etapas, la primera es la definición del proceso y sus componentes, posteriormente se encuentran los modelos matemáticos en tiempo continuo del proceso a controlar, así como del controlador, y por último se establece el protocolo de comunicación, la integración del ambiente virtual y el desarrollo del software, para elaborar la integración de variables, hardware y software. En la Fig. 1 se presenta un esquema general que explica lo dicho anteriormente. Para el desarrollo fue utilizado un PLC Siemens S7-1200 conectado a un ordenador a través de un protocolo OPC, con el propósito de enviar comandos al ambiente virtual y efectuar las acciones de control pertinentes al proceso simulado. 11 Tabla II Definición de la Máquina de Estados y el Estado de los Actuadores Una vez se ha realizado la definición de las variables y sus estados, se elaboró el esquema mostrado en la Fig. 2, que ilustra de mejor manera el comportamiento de la máquina en cada una de las etapas del proceso. Fig. 1. Esquema general del sistema desarrollado. Definición del proceso y sus componentes El proceso seleccionado para la elaboración del laboratorio virtual es una banda transportadora para movimiento de botellas en una fábrica de cerveza, debido a que este proceso cuenta con todos los elementos que pueden encontrarse en cualquier área de la industria, como manipuladores, controladores, bandas de transporte, sensores, entre otros. Se presenta el proceso de la banda trasportadora como una máquina de estados con sus correspondientes variables y estados, en las tablas 1 y 2 respectivamente. Fig. 2. Diagrama de estados del proceso. La ubicación de los sensores dentro del proceso modelado es como se muestra en la Fig. 3, la mayoría de estos están relacionados directamente con el movimiento del manipulador, debido a la cantidad de movimiento que debe realizar. Tabla I Definición de Variables del Sistema Fig. 3. Representación de la planta y sus sensores. Modelo matemático y discretización Tras definir el proceso como una máquina de estados es importante conocer qué va a controlar el PID1 de la Tabla 1. El proceso análogo a controlar es la velocidad de la banda trasportadora. El cual se basa en un motor DC controlado por armadura [14]. Primero se desarrolla el modelo del motor, el cual se pone en términos de la velocidad angular que posteriormente Universidad Católica de Pereira 12 (4) se relaciona con la velocidad de la banda. Posteriormente se discretiza el modelo matemático, todo con el objetivo de tener una mejor aproximación a la dinámica real del sistema. Por otro lado el modelo del motor se toma según [14] como una aproximación del mismo, donde: w(s) es la velocidad angular del motor, Va(s) el voltaje de entrada del motor, K1 y K2 constantes del sistema, donde Va es el voltaje de armadura, Ra la resistencia de armadura, Kma es una constante dada dependiente del motor que relaciona la corriente de entrada de armadura (la) con el torque resultante del motor (Tm) representa el campo electromagnético inducido por la rotación de la bobina en un campo magnético que es proporcional a la velocidad angular w Vb(s) = Kb + w(s), J es la carga inercial del eje del motor, La la bobina de la armadura del motor y c el coeficiente de viscosidad [14]. (1) Si se asume que el tiempo constante del circuito eléctrico es mucho más pequeño que el tiempo constante de la dinámica de carga, la función de transferencia anterior queda como la siguiente ecuación [14]. (2) Que en términos de K1 y K2 (3) Aplicando la transformada inversa de Laplace Fig. 4. Diagrama de uso del sisteme híbrido Entre Ciencia e Ingeniería (5) El método de discretización se basa en la definición de la derivada, donde: f es una función cualquiera, f 1 la derivada de f , T el tiempo de muestreo. (6) Y discretizándola por la definición de la derivada, se obtiene la velocidad angular del motor. (7) (8) Sabiendo que la velocidad V de la banda transportadora, es igual a V(K) = w(K)r, donde r es el radio del rodillo donde está conectado el motor. Se obtiene la ecuación 1, la cual corresponde a la velocidad de la banda trasportadora. Dicha ecuación en diferencias fue programada en el laboratorio virtual para lograr que la banda transportadora funcione con una gran similitud al modelo real. (9) Protocolo de comunicación Para la comunicación entre el PLC real y el laboratorio virtual se empleó el protocolo TCP/ IP, el cual fue utilizado junto a el protocolo OPC de cliente y servidor. El cliente es el computador con el proceso virtual desarrollado en Java (Processing), y el servidor OPC fue desarrollado en C#. Dicho servidor puede ser usado en el mismo PC o en 13 uno remoto. El cliente OPC actualiza la información del laboratorio virtual escribiendo y leyendo variables. El último paso es seleccionar las marcas, las entradas y las salidas del PLC, para que correspondan a las entradas o salidas del laboratorio virtual. actualiza sus variables en cada nuevo cuadro de pantalla (frame). Se puede apreciar un diagrama del funcionamiento del software en la Fig. 7. El diagrama de uso del software corresponde a la Fig. 4 y el diagrama de clases a la Fig. 5, donde se puede apreciar el diseño y estructura del programa desarrollado. Fig. 7. Funcionamiento del Software. Integración de variables La integración de las variables entre el PLC y el laboratorio virtual son ubicadas en la memoria del PLC. Donde cada registro de memoria de una variable del PLC corresponde a una entrada o salida del laboratorio virtual. Los registros de memoria del PLC están dados por bytes, por lo tanto, al interpretarse la memoria del PLC se logra el trabajo conjunto entre el laboratorio virtual y el PLC. Fig. 5. Diagrama de clase del ambiente virtual. Integración del ambiente virtual y desarrollo de software El proceso de ensamble es requerido para organizar el entorno virtual y todos los modelos 3D realizados en el software CAD. Es importante definir las limitaciones del entorno, las funciones, las dinámicas, entradas, salidas, definición de variables, verificación y validación del sistema. En este proceso se utilizó el lenguaje de programación Java, en Processing. El entorno virtual se muestra en la Fig. 6. La tabla 3 muestra la asignación de variables del PLC, que posteriormente indicará si son una variable de lectura o escritura del laboratorio virtual. De acuerdo a la nomenclatura de las variables del PLC si tienen la letra M, son marcas internas del PLC; las que tienen la letra I son entradas y la letra Q son salidas. Tabla iii Variables del plc Integración de hardware y software Fig. 6. Integración del laboratorio virtual. Por otro lado el software trabaja con dos hilos asíncronos, cada uno con una función específica en el laboratorio virtual. El primero se encarga del proceso gráfico del laboratorio, y el segundo se encarga de calcular constantemente las respuestas discretas o dinámicas del sistema. Cada hilo La conexión entre el PLC y el laboratorio virtual, el protocolo OPC y las variables del laboratorio virtual trabajaron según lo esperado con el programa del PLC desarrollado. Se logró ver la interacción entre el laboratorio virtual y el PLC real, controlando salidas reales del PLC (Q 0.0, Q 0.1 y Q 0.2 – correspondientes a los actuadores 1,2 y 3) según los requerimientos del laboratorio virtual. En la Fig. 8, se puede ver el laboratorio virtual en funcionamiento. Universidad Católica de Pereira 14 Fig. 10. Respuesta de velocidad de la banda trasportadora. Fig. 8. Laboratorio virtual en funcionamiento. La respuesta del sistema, en su parte análoga fue obtenida desde el laboratorio virtual. Se puede verificar en la figura 11 que la velocidad de la banda trasportadora sistema es estable y sigue a la referencia. III. Resultados Del desarrollo del laboratorio virtual se realizó un sistema SCADA, para el completo desarrollo y visualización de un sistema de producción real. El sistema SCADA tuvo como fin monitorear las variables del laboratorio virtual de manera remota. La interfaz gráfica del sistema SCADA, se puede ver en la Fig. 9. Fig. 11. Respuesta de velocidad de la banda trasportadora. IV. Conclusiones Fig. 9. SCADA del Laboratorio virtual desarrollado. El sistema SCADA se integró al sistema híbrido y se comportó como funcionaría con un sistema SCADA de supervisión de una planta real, lo cual indica que el acceso a la memoria del PLC de una manera adecuada, puede permitir al PLC funcionar normalmente y sin contratiempos. Por otro lado el sistema se controló en su parte discreta por los diagramas “ladder” o de escalera, basados en el lenguaje GRAFCET. La solución fue implementada por medio del software TIA Portal 12, basada en la máquina de estados de la figura 2. El control del sistema se realizó por medio del método de auto-sintonía que posee el PLC siemens s7-1200, se utilizó una estructura PID convencional basada en la Fig. 10. la cual se sintonizó de manera automática utilizando el laboratorio virtual. Entre Ciencia e Ingeniería A través de la interfaz SCADA y el protocolo OPC fue posible integrar una planta virtual a la PLC para replicar el comportamiento real de un proceso automatizado, logrando una aplicación que trae consigo beneficios económicos y de tiempo en el sector de educación o industrial. Por otro lado, el uso del laboratorio virtual para el manejo de plantas en sistemas híbridos da idea de exploración y desarrollo práctico en la educación actual, utilizando la tecnología no sólo como fuente de información sino como entorno experimental, mejorando de esta manera el proceso de aprendizaje y abriendo más oportunidades a diferentes formas de aprender. Es importante tener en cuenta la gran similitud que presenta este laboratorio con el entorno real, desde el punto de vista de funcionamiento y dinámicas de los sistemas. Permitiendo al usuario familiarizarse con los procesos de automatización antes de interactuar con sistemas físicos. Agradecimientos A la vicerrectoría de investigaciones de la Universidad Militar Nueva Granada, por la financiación del proyecto INO 1638 del año 2014. 15 Referencias [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] Y. Zheng, “Research on Virtual Experiment System on PLC,” in Advances in Computer Science, Environment, Ecoinformatics, and Education, IEEE, Ed., Berlin, Springer Berlin Heidelberg, 2011, pp. 552 - 556. S. Hsieh, Hsieh, P.Y. y Zhang, D, «Web-based simulations and intelligent tutoring system for programmable logic controller,» Frontiers in Education, vol. 33, pp. 1-23, 2003. A. Zafer y Omur, A, «A Web-Based Remote Access Laboratory,» IEEE Transactions on Education, vol. 52, nº 1, p. 52.126, 2009. Ferrero, A., Salicone, S., Bonora, C. y Parmigiani, M., « ReMLab: a Java-based remote, didactic measurement laboratory,» IEEE Transactions on Instrumentation, vol. 52, pp. 710-715, 2003. T. J. McConnell, J. M. Parker, J. Eberhardt, M. J. Koehler y M. A. Lundeberg, «Virtual Professional Learning Communities: Teachers’ Perceptions of Virtual Versus Face-to-Face Professional Development,» Journal of Science Education and Technology , vol. 22, nº 3, pp. 267-277, 2013. L. Lingyun y W. Haijun , «A New Method for Building Web-based Virtual Laboratory,» de ISITAE ‘07. First IEEE International Symposium on Information Technologies and Applications in Education, Kunming, 2007. U. Suzana y K. Jezernik, «Virtual Laboratory for Creative Control Design Experiments,» IEEE, vol. 51, nº 1, pp. 69-75, 2008. E. Salazar y M. Macias, «Virtual 3D controllable machine models for implementation of automations laboratories,» de FIE ‘09. 39th IEEE Frontiers in Education Conference, 2009, San Antonio, TX, 2009. P. Skocik, P. Neumann y Fac. of Appl. Inf., Tomas Bata Univ. in Zlin, Zlí, «Industrial process in laboratory environment,» de 2013 International Conference on Process Control (PC), Strbske Pleso, 2013. A. Safavi, A. A. Safavi y P. Veisi, «A Remote and Virtual PLC Laboratory Via Smartphones,» The 4th International Conference on e-Learning and e-Teaching ICELET, vol. 4, pp. 63 - 68, 2013. Y. Zheng, «Research on Virtual Experiment System on PLC Education Based on Teaching Materials,» de Advances in Computer Science, Environment, Ecoinformatics, and Education, Springer Berlin Heidelberg, 2011, pp. 552-556. E. Besada-Portas y J. A. Lopez-Orozco, «Remote Control Laboratory Using EJS Applets and TwinCAT Programmable Logic Controllers,» IEEE TRANSACTIONS ON EDUCATION, vol. 56, nº 2, pp. 156 164 , 2013. Z. zeng, M. Hu, D. Li y Y. Liu, «Distributed Virtual Laboratory System Based on Java/Corba,» Circuits, Communications and System (PACCS), 2011 Third Pacific-Asia Conference on, pp. 1-4, 2011. W. Guo, Y. Gao y Y. Wang, «Design and Realization of the Interactive Virtual Laboratory Based on VRML,» Consumer Electronics, Communications and Networks (CECNet), 2012 2nd International Conference on, vol. 2, pp. 2510-2513, 2012. A. Villar-Zafral, S. Zarza-Sanchezl, J. A. Lazaro-Villal y R. Fernandez-Cantil, «Multiplatform Virtual Laboratory for Engineering Education,» Remote Engineering and Virtual Instrumentation (REV), 2012 9th International Conference on, vol. 9, pp. 1-6, 2012. D. Demeter y J. Banský, «Virtual Laboratory for the e–Learning Education in the Electronics Technologies,» Electronics Technology (ISSE), 2012 35th International Spring Seminar on, vol. 35, pp. 476 - 480, 2012. M. Hincapié, M. d. J. Ramírez, A. Valenzuela y J. A. Valdez, «Mixing real and virtual components in automated manufacturing,» International Journal on Interactive Design and Manufacturing (IJIDeM), vol. 8, 2014. R. C. Dorf y R. H. Bishop, Modern Control Systems, Pentice Hall, 2011. Camilo Andrés Cáceres Flórez se graduó como ingeniero en mecatrónica en la Universidad Militar Nueva Granada en Bogotá D.C., Colombia en el 2013. Trabajando principalmente en las áreas de electrónica, control, inteligencia artificial y realidad virtual. Ha trabajado como asistente de investigación en la Universidad Militar Nueva Granada desde Enero hasta Junio del 2014. Ha obtenido como resultado de sus investigaciones la publicación bibliográfica en ponencias internacionales como; “Multitank fuzzy level controller system using Kinect” en el 2012 y para el 2013 publico “Design and construction of a prototype rehabilitation machine to hand and wrist”. Actualmente se ha dedico en la investigación sobre las TIC en Colombia para elaboración de plataformas virtuales para educación a distancia. Darío Amaya Hurtado. Se graduó como Ingeniero Electrónico en la universidad Antonio Nariño en Bogotá D.C., Colombia en 1995, luego se especializo en Automatización Industrial en la Universidad de los Andes en el año 2000, se graduó como magister en Teleinformática en la Universidad distrital “Francisco José de Caldas” en el 2007 y finalizo sus estudio con el doctorado en Ingeniería Mecánica en la Universidad Estadual de Campinas de Brasil para el 2011. Trabajando principalmente en las áreas de automatización industrial, inteligencia artificial, electrónica y sistemas embebidos. Ha trabajado como docente para el CIM del SENA, Universidad de San Buenaventura y Universidad Militar Nueva Granada. En el campo de la investigación ha logrado obtener como resultado la publicación del libro “Protección Catódica aplicada a Morteros Alternativos” en el 2013 y artículos como “Sistema de control de una planta embebida en FPGA empleando hardware-in-the-loop”, entre otros. Actualmente se desempeña como docente de tiempo completo en la Universidad Militar Nueva Granada e Investigador principal del grupo de investigación GAV, abordando temáticas en las TIC, energía sostenible, bioingeniería y tele cirugía. Universidad Católica de Pereira 16 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 16-21 Control óptimo conmutado de un convertidor CC-CC1 Switched optimal control of a DC-DC converter Controle ótimo comutado de um conversor CC-CC D. E. Méndez, J. Sánchez y R. Alzate Recibido Agosto 17 de 2015 – Aceptado Febrero 19 de 2016 Resumen— El presente artículo aborda el control de circuitos convertidores de potencia empleando control óptimo conmutado. Se realiza el diseño y la simulación para un convertidor CC-CC tipo reductor (Buck) y posteriormente se ajusta para el mismo un lazo realimentado en el cual se verifica el efecto de una acción de tipo proporcional de alta ganancia (encendido-apagado) a manera de punto de referencia convencional, para atenuar la incidencia de perturbaciones aplicadas en el sistema. Posteriormente y empleando un enfoque basado en el principio del máximo de Pontryagin, se diseña e implementa, a través de simulación, una técnica de control óptimo conmutado (bang-bang) que permite obtener un desempeño comparable con la acción encendidoapagado en términos de características dinámicas. Pruebas adicionales permiten cuantificar la optimalidad de la técnica propuesta y verificar el desempeño del sistema controlado en términos energéticos, mostrando que un control óptimo conmutado presenta además de la minimización del funcional de costo (mínima energía del error), una menor incidencia en la generación de ruidos por conmutación de alta frecuencia, en comparación con la técnica convencional. Trabajo adicional incluye la verificación experimental en laboratorio para los resultados de simulación presentados. Palabras clave— control bang-bang, control óptimo conmutado, convertidor de potencia Buck, principio del máximo de Pontryagin. Abstract—In this work, switching-based control is applied on regulation of power conversion circuits. In particular, a DC-DC Bucktype power converter has been designed and simulated, both for nominal conditions and under disturbances. First of all, a classical OnOff controller was employed to compensate the effects of disturbances 1 Producto derivado del proyecto de grado en la modalidad de investigación “Análisis de optimalidad para un control conmutado aplicado en un convertidor de potencia” presentado para optar al título de Ingeniero Electrónico. Trabajo adscrito al Grupo de Investigación CEMOS, de la Universidad Industrial de Santander (UIS) en Bucaramanga - Colombia. D.E. Méndez ([email protected]) y J. SánchezCarvajalino ([email protected]) son Ingenieros Electrónicos egresados de la Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones (E3T) de la Universidad Industrial de Santander (UIS) en Bucaramanga – Colombia. R. Alzate es Profesor Asistente, de Tiempo Completo, en la Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones (E3T) de la Universidad Industrial de Santander (UIS), en Bucaramanga – Colombia; e-mail: [email protected] Entre Ciencia e Ingeniería in the loop, in order to check the correctness of the operational conditions for the controlled system. Then, an optimal-switching bangbang controlled was designed and implemented, taking into account the Pontryagin’s Maximum principle, showing a good performance for disturbance rejection, improvement of dynamical features in the response and reduction of error’s energy by mean of verification of optimality criteria. Results show that despite the fact both techniques analyzed; i.e. On-Off and bang-bang, are switching-based laws, the performance index on the optimal controller allows to obtain a cleaner shape with less energy consumption. Ongoing work includes the experimental verification of the optimal technique in laboratory. Key words— Bang-bang control, switching-optimal control Buck power conversion circuit, Pontryagin’s maximum principle. Resumo – Este artigo descreve os conversores de energia de controle circuito empregando optivo de controle. Se realiza o projeto e a estimulação para um convertedor CC-CC tipo redutor (buck) e posteriormente se ajusta para o mesmo um laço realimentado no qual se verifica o efeito de uma ação de tipo proporcional de alto ganho (ligadodesligado) o título de referência convencional reduzir a incidência de distúrbios aplicado sistema. Posteriormente e usando um foco baseado no principio do máximo de Pontryagin, se projeta e implementa, através de simulação, uma técnica de ótimo controle comutado (bang-bang) que permite obter um desempenho comparável com a ação ligadodesligado em términos de características dinâmicas. Testes adicionais permitem que o Optimalidade da proposta técnica para quantificar e verificar o desempenho do sistema de energia controlada, mostrando que um ótimo controle apresenta além da minimização do funcional de custo (potência mínima do erro), uma menor incidência na geração de ruídos por comutação de alta frequência, em comparação com a técnica convencional. Trabalho adicional inclui a verificação experimental em laboratório para os resultados de simulação apresentados. Palavras chave: controle Bang-Bang, ótimo controle comutado, Buck, o conversor de energia de princípio do máximo de Pontryagin . E I. Introducción L consumo energético mundial se ha incrementado en las últimas décadas como consecuencia de un acelerado crecimiento en la demanda de recursos, lo 17 que genera fuertes impactos ambientales relacionados principalmente con emisiones contaminantes por uso de combustibles fósiles y otras fuentes de energía no renovable. En la búsqueda por reducir estas consecuencias indeseadas, se propende por mejorar el desempeño de los sistemas de gestión de energía, procurando el mayor aprovechamiento con menores pérdidas [1]. En el caso particular de los sistemas eléctricos, el gestor de energía se constituye a través de los denominados circuitos convertidores de potencia, cuya función es suministrar a una carga eléctrica los niveles de tensión y voltaje adecuados, transferidos desde una fuente de suministro, mediante la acción controlada de dispositivos de conmutación [2]. Este control se realiza en la mayoría de casos a través de la selección adecuada del patrón de una señal de gobierno modulada en ancho de pulso (PWM, pulse width modulated), mediante técnicas de control clásico en el dominio de la frecuencia o moderno en el espacio de estados [3]-[7]. Sin embargo, si se desea maximizar un índice de desempeño (como bien puede ser la reducción de pérdidas energéticas), el control óptimo es la mejor opción [8][9][10]. Una de las técnicas de control óptimo más sencillas es el controlador de tiempo mínimo o control bang-bang, el cual es un claro ejemplo de control conmutado, debido al carácter discontinuo para la ley de control resultante [11]. Dicha técnica puede considerarse como una versión mejorada del control encendido-apagado (on-off), desde el punto de vista energético, dando pie al desarrollo de un nuevo conjunto de técnicas denominadas de control “híbrido” [12][13][14], que buscan aprovechar las discontinuidades de campos vectoriales, para realizar manipulaciones apropiadas del comportamiento dinámico de sistemas complejos. La solución de un problema de control óptimo es en general una tarea poco trivial, pues se deben asegurar condiciones de existencia y unicidad, además de estabilidad, para la solución óptima [15]. El problema se complica aún más cuando la descripción del sistema es condicionada como en los sistemas híbridos. Al respecto se reportan resultados en la literatura que buscan definir las condiciones para resolver problemas de control óptimo en sistemas conmutados [16] [17][18][19][20]. En cualquiera de ellos, el reto está en formular adecuadamente la secuencia de conmutación que minimiza el funcional de costo, garantizando la convergencia de la solución. En este contexto el controlador bang-bang sólo requiere una conmutación por periodo, facilitando su resolución mediante aproximaciones numéricas (i.e. programación dinámica). La mayor contribución del presente artículo es por tanto, la aplicación del control bang-bang como control óptimo conmutado para regular el comportamiento de un circuito convertidor de potencia. Para ello se abordan los siguientes contenidos: la sección II describe los fundamentos del control óptimo y el control bang-bang; la sección III presenta los resultados de simulación comparativos para el control bang-bang y un control conmutado convencional de tipo encendido-apagado aplicados en un convertidor CCCC reductor. Finalmente, se presenta en la sección IV la conclusión general del trabajo. II. Metodología y Materiales El problema de control óptimo puede resumirse en resolver la optimalidad de un funcional J que depende de un cierto conjunto de funciones u(t) correspondientes con el esfuerzo de una acción de control [15]. En otras palabras, siendo un sistema dinámico descrito por la ecuación de estados: x = f(x,u,t) , (1) donde x representa los estados del sistema y u es el vector de entradas o forzantes, es posible plantear un problema de optimización (con o sin restricciones) consistente en minimizar o maximizar el siguiente funcional de costo o índice de desempeño: (2) donde y(.) es una condición terminal sobre el estado y L se denomina el lagrangiano del sistema. Para garantizar la optimalidad de (2); es decir, para garantizar la existencia de una solución para el problema de control óptimo, se deben satisfacer las condiciones del denominado principio del máximo de Pontryagin, enunciado en el modo siguiente [15]: Teorema (Principio del Máximo) Suponga que Suponga que u(t) y x(t) representan y representan respectivamente el control óptimo y la trayectoria de estado para un problema de control óptimo. Entonces, existe una trayectoria adjunta l(t)tal que, junto con u(t), x(t) y l(t) y satisfacen: (Ecuación del sistema) (Condiciones iniciales) (Ecuación adjunta) para todo 0 ≤ t ≤ T , y todo v € U , tal que: donde H es el hamiltoniano dado por: A. Control conmutado de mínimo tiempo (bang-bang) Como caso de aplicación para el principio del máximo, se presenta el problema de control del tiempo mínimo, en el cual se propone un problema de optimización con restricciones, donde: Universidad Católica de Pereira 18 siendo: sometido a -1 ≤ u(t) ≤ 1 y condiciones finales deseadas nulas para el vector de estados (i.e. y(x(tf)) = 0), partiendo de condiciones iniciales arbitrarias. De esta manera, es evidente la forma que toma el lagrangiano del sistema: L (x,u) = 1 a partir del cual es posible formular el hamiltoniano correspondiente: que para el caso de un sistema lineal: para x1(t) representando la corriente en el inductor, x2(t) la tensión en el capacitor y u(t) el valor de ciclo útil de la señal de conmutación modulada en ancho de pulso. Ahora bien, resolver el problema de control de tiempo mínimo para este sistema es equivalente a reducir a cero el error del vector de estado, con respecto a valores de estado estacionario deseados. De esta manera, puede formularse el siguiente funcional de costo: (5) resulta, por el principio del máximo, en una solución óptima del tipo [21]: (3) donde sign(.) es la función signo y l(t) la solución de la ecuación adjunta correspondiente. B. Control bang-bang de un convertidor Buck La Fig. 1, ilustra el diagrama esquemático de un circuito convertidor de potencia CC-CC tipo reductor (Buck). Dicho circuito fue diseñado para satisfacer las características nominales incluidas en los parámetros de la Tabla 1. El modelo del circuito en el espacio de estados, puede escribirse como: (4) Fig. 1. Circuito convertidor de potencia Buck. para regular la tensión de salida en el convertidor (siendo x2d = 12V ), con restricciones sobre la señal de control dadas por: 0 ≤ u(t) ≤ 1 considerando un ciclo útil porcentual. Luego, dada la dificultad para resolver analíticamente la ecuación adjunta correspondiente, se procede a aproximar una solución numérica para la señal de control óptimo empleando el paquete de herramientas de optimización de MATLAB®. En particular, se configuró un problema de optimización no lineal con restricciones a partir de la función fmincon(.) tomando como base la descomposición en intervalos sugerida en [22]. Para ilustración, el procedimiento numérico ejecutado se describe en el Apéndice al final del artículo. III. Resultados y discusión Inicialmente, la Fig. 2 muestra la simulación en MATLAB® para la tensión de salida del circuito en lazo abierto sin control, cuando se aplica una perturbación en la entrada de suministro Vm in correspondiente con un decremento del 25 % en su valor nominal, pasando de 24 V a 18 V en t = 25 ms. Como se observa, posterior a la perturbación el sistema no mantiene la tensión nominal deseada a la salida, cayendo a 8.8 V. Este comportamiento justifica la inclusión de un controlador que permita regular los niveles de tensión de salida hacia valores nominales deseados, a pesar de la influencia de perturbaciones. Tabla I Valores de diseño para circuito convertidor de potencia. inclusión Fig. 2. Tensión en lazo abierto con perturbación. Entre Ciencia e Ingeniería 19 La primera estrategia de control verificada corresponde a un control proporcional de alta ganancia (control encendidoapagado), con resultados para la tensión de salida regulada y señal de control, ilustrados respectivamente en las Figs. 3 y 4. A partir de ello, se experimenta una notable disminución en el efecto de la perturbación, debido al incremento de energía en la señal de control. Sin embargo, también se denota mayor presencia de micro-oscilaciones en la respuesta (chattering), apreciados de manera más visible en la señal de control, la cual conmuta alrededor de sus valores extremos (constituyendo por tanto una acción de control conmutado). Fig. 3. Tensión de salida bajo acción encendido-apagado. manera notoria el sobreimpulso inicial, aunque también se presenta un transitorio levemente más prolongado, incluso al momento de aplicarse la perturbación en la carga. En términos de la señal de control, se observa cómo el valor del ciclo útil tiende a establecerse alrededor del valor nominal (50 %) antes de aplicarse la perturbación en t = 0.025 s, momento en el cual se posiciona en un valor mayor para efectos de compensación. Desde el punto de vista del desgaste de elementos de actuación y generación de ruidos de alta frecuencia, este comportamiento es deseable en comparación con el tipo de señal del controlador encendidoapagado. Fig. 6. Señal de control bang-bang. Adicionalmente, la Fig. 7 permite comparar el desempeño para ambas estrategias de control desde el punto de vista energético, donde se comprueba cómo a partir del cálculo del funcional de costo considerado en (5), la energía del error se minimiza para la estrategia óptima y por tanto, se puede verificar que una estrategia de control se puede valorar, no solamente desde el punto de vista del valor de las variables de interés en estado estacionario, sino también a partir del cómo puede obtenerse el objetivo de control empleando un menor esfuerzo (o equivalentemente con una mínima energía). Fig. 4. Señal de control encendido-apagado. Posteriormente, se presentan en las Figs. 5 y 6 resultados equivalentes para el caso del control óptimo conmutado de tipo bang-bang. Fig. 7. Tensión en lazo abierto con perturbación. IV. Conclusiones Fig. 5. Tensión de salida bajo acción bang-bang. Para este caso, se eliminan las micro-oscilaciones (chattering) de la respuesta del sistema y se reduce de El control conmutado se incluye dentro del conjunto de técnicas de control híbrido que combinan descripciones continuas con transiciones (discontinuidades) generalmente de tipo discreto. Un control proporcional de alta ganancia (en su forma de control encendido-apagado) puede verse como una forma de control conmutado debido al carácter Universidad Católica de Pereira 20 discontinuo de la señal resultante. El efecto de este tipo de control es una mayor fuerza aplicada en el actuador, lo cual eventualmente puede presentar micro-oscilaciones de alta frecuencia (chattering) con efectos nocivos correspondientes. El control bang-bang es una clase particular de control conmutado que puede derivarse mediante el problema de optimización del mínimo tiempo. El presente artículo permitió mostrar cómo una estrategia de control bangbang, partiendo del mismo principio de conmutar entre dos valores admisibles, concentra en un modo más eficiente la energía de la señal de control, haciendo que se obtenga el resultado deseado a la salida con un menor consumo reflejado en la minimización del funcional de costo. Se empleó como ejemplo el problema de regular la tensión de salida en un circuito convertidor de potencia ante la acción de perturbaciones en su entrada. Trabajos adicionales implican la verificación experimental en laboratorio para los resultados presentados y la exploración de aplicaciones a mayor escala de potencia. final en condición de reposo) a manera de restricción de igualdad no lineal; es decir: . Nótese cómo la restricción en el valor final se realiza sobre el vector de estados original x, y no en su versión ampliada z, debido a que en este último la dirección adicional corresponde con el funcional de costo a optimizar. Asimismo, para este problema particular, no se emplean (y por tanto no se definen) funciones de restricción no lineal de desigualdad c(u), ni restricciones lineales dadas por {A, Aeq, b, beq}. Sin embargo, es requerido que lb = -1 y ub = 1; es decir: -1 ≤ u ≤ 1 De esta manera, el diagrama de flujo de señal ilustrado en la Fig. 8 presenta el desarrollo lógico del algoritmo que permite encontrar el valor de la señal de control u que minimiza el índice de desempeño J(u) . Apéndice: Solución numérica del problema de optimización La función fmincon (.) de MATLAB® forma parte del paquete de herramientas de optimización (Optimization toolbox [23]). Dicha función, resuelve un problema formulado de la siguiente manera: siendo J(u) la función objetivo a minimizar, u el parámetro de optimalidad, c(u) las restricciones no lineales de desigualdad, ceq(u) las restricciones no lineales de igualdad, {A, Aeq, b, beq}los parámetros para las restricciones lineales de igualdad y desigualdad, mientras que {lb, ub} son respectivamente las cotas inferior y superior para u . Por ser un problema de optimización para hallar el tiempo mínimo, se plantea J(u)=t. Ahora bien, numéricamente la información para este funcional en términos del vector de estados del sistema implica adicionar una tercera variable dinámica x3(t) = t, para forzar a que la minimización de J(u) corresponda con la minimización de esta tercera variable de estado. Así entonces, el nuevo vector de estados se representa mediante: con lo cual, la dinámica del sistema ampliado se convierte en: Luego, tomando en consideración las características del problema, se incorpora la condición final deseada (estado Entre Ciencia e Ingeniería Fig. 8. Diagrama de flujo de datos para función fmincon de MATLAB®. 21 Referencias [1] I. E. Agency, “Key world energy statistics 2014,” 2014. [2] D. W. Hart, Electrónica de Potencia. Pearson Educación, SA, 2001. [3] J. G. Kassakian, M. F. Schlecht, and G. C. Verghese, Principles of power electronics. Addison-Wesley Reading, USA, 1991. [4] R. W. Erickson and D. Maksimovic, Fundamentals of power electronics. Springer, 2001. [5] V. Utkin, J. Guldner, and M. Shijun, Sliding mode control in electromechanical systems. CRC press, 1999, vol. 34. [6] H. Sira-Ramírez and R. Silva-Ortigoza, Control design techniques in power electronics devices. Springer, 2006. [7] C. Elmas, O. Deperlioglu, and H. H. Sayan, “Adaptive fuzzy logic controller for dc–dc converters,” Expert Systems with Applications, vol. 36, no. 2, pp. 1540–1548, 2009. [8] R. Sepulchre, M. Jankovic, and P. V. Kokotovic, Constructive nonlinear control. Springer-Verlag, Berlin., 1997. [9] M. Pahlevaninezhad, P. Das, J. Drobnik, G. Moschopoulos, P. K. Jain, and A. Bakhshai, “A nonlinear optimal control approach based on the control-lyapunov function for an ac/dc converter used in electric vehicles,” Industrial Informatics, IEEE Transactions on, vol. 8, no. 3, pp. 596–614, 2012. [10] X. Liu, G. Zhang, D. Yang, T. Shi, and X. He, “Discrete-time optimal control of photovoltaic grid-connected inverter based on particle swarm optimization,” Mathematical Problems in Engineering, 2014. [11] di Bernardo, M., Budd, C., Champneys, A.R., and Kowalczyk, P. Piecewise-smooth dynamical systems: theory and applications. London: Springer-Verlag, 2008. [12] Goebel, R., Sanfelice, R. G. and Teel, A. R. Hybrid dynamical systems. IEEE Control Systems Magazine, vol.29 (2), pp. 28-93, 2009. [13] Rubaai, A. and Jerry, J. Hybrid fuzzy bang-bang mode controller with switching function for electric motor drives applications. Industry Applications IEEE Transactions on, vol. 50 (3), pp. 2269-2276, 2014. [14] N. Aghasadeghi, A. Long, and T. Bretl, “Inverse optimal control for a hybrid dynamical system with impacts,” in Robotics and Automation (ICRA), 2012 IEEE International Conference on. IEEE, 2012, pp. 4962–4967. [15] R.W.H. Sargent, Optimal control, Journal of Computational and Applied Mathematics, Volume 124, Issues 1–2, pp. 361-371. 2000. [16] Xuping Xu; Antsaklis, P.J., “Optimal control of switched systems based on parameterization of the switching instants,” in Automatic Control, IEEE Transactions on , vol.49, no.1, pp.2-16, Jan. 2004. [17] Shahid Shaikh, M.; Caines, P.E., “On the Hybrid Optimal Control Problem: Theory and Algorithms,” in Automatic Control, IEEE Transactions on , vol.52, no.9, pp.1587-1603, Sept. 2007. [18] Jian Xu; Qijun Chen, “Optimal control of switched hybrid systems,” in Control Conference (ASCC), 2011 8th Asian , vol., no., pp.12161220, 15-18 May 2011. [19] Sorin C. Bengea, Raymond A. DeCarlo, Optimal control of switching systems, Automatica, Volume 41, Issue 1, January 2005, Pages 11-27. [20] Ghomanjani, F.; Farahi, M. H., “Optimal Control of Switched Systems based on Bezier Control Points,” in I. J. Intelligent Systems and Applications , vol.4, no.7, pp.16-22, Jun. 2012. [21] Lucas, S.K.; Kaya, C.Y., “Switching-time computation for bang-bang control laws,” American Control Conference, 2001. Proceedings of the 2001 , vol.1, no., pp.176,181 vol.1, 2001. [22] X. Wang. Solving optimal control problems with MATLAB: Indirect methods. Technical report, ISE Dept., NCSU, 2009. [23] Optimization Toolbox™ User’s Guide, The MathWorks, Inc., 2015. Ricardo Alzate Castaño (M’09). Nació en Palmira, Colombia, el 06 de marzo de 1979. Obtuvo el Título de Ingeniero Electrónico en 2003, y de Magister en Automatización Industrial en 2006, ambos otorgados por la Universidad Nacional de Colombia – Sede Manizales. En 2009 obtuvo el título de Doctor en Automatización por parte de la Universidad de Nápoles FEDERICO II en Italia. Desde 2010 está vinculado como Profesor de Tiempo Completo en la Escuela de Ingenierías Eléctrica Electrónica y de Telecomunicaciones (E3T) de la Universidad Industrial de Santander (UIS), en Bucaramanga – Colombia. Sus intereses de investigación incluyen el análisis de sistemas dinámicos no lineales y la síntesis de estrategias avanzadas de control para sistemas de gestión de energía. Diego Alfonso Esteban Méndez. Nació en Bucaramanga, Colombia, el 23 de marzo de 1990. Culminó sus estudios de Ingeniería Electrónica en la Universidad Industrial de Santander en 2015. Sus intereses de investigación se orientan hacia el análisis de optimalidad en sistemas de gestión de energía. Jaffraith Sánchez Carvajalino. Nació en Ocaña, Colombia, el 16 de marzo de 1988. Culminó sus estudios de Ingeniería Electrónica en la Universidad Industrial de Santander en 2015. Sus intereses de investigación se orientan hacia el desarrollo de algoritmos para el cálculo variacional de la dinámica de sistemas eléctricos. Universidad Católica de Pereira 22 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 22-32 Determinación de la concentración de cadmio en un chocolate colombiano con 65% de cacao y chocolates extranjeros con diferentes porcentajes de cacao1 Determination of the concentration of cadmium in a Colombian chocolate with 65% of cocoa, and foreign chocolates with different cocoa percentages Determinação da concentração de cádmio num chocolate colombiano com 65% de cacau e chocolates estrangeiros com diferentes porcentagens de cacau A. Echeverry y H. Reyes Recibido Agosto 25 de 2015 – Aceptado Febrero 19 de 2016 Resumen — se evaluó de forma cualitativa y cuantitativa la presencia de cadmio en un chocolate amargo con 65% de cacao producido en Colombia y en chocolates extranjeros con diferentes porcentajes de cacao. Para la preparación de las muestras se tomaron 0,5 gramos y se realizó una digestión ácida con ácido nítrico concentrado (HNO3 65%). La determinación del metal se llevó a cabo por medio de la técnica de espectrofotometría de absorción atómica de llama (FAAS). Se determinó el límite de detección (LOD) y cuantificación (LOQ) del método, obteniéndose valores de 0,0309 mg/L y 0,0670 mg/L respectivamente. La concentración promedio de cadmio en el chocolate nacional fue de 4,0477 mg/kg, superando los límites establecidos por el Codex Alimentarius (2,0 mg/kg) y la Unión Europea (0,8 mg/kg). Abstract — the presence of cadmium was evaluated qualitatively and quantitatively in a dark chocolate with 65% cocoa produced in Colombia, and foreign chocolates with different percentages of cocoa. 0.5 grams were taken for the preparation of the samples, and an acid digestion with concentrated nitric acid (HNO3 65%) was performed. The metal determination was carried out by the Flame Atomic Absorption Spectrophotometry Technique (FAAS). The detection limit (LOD) and the quantification (LOQ) of the method was determined, obtaining values of 0.0309 mg/L and 0.0670 mg/L respectively. The average concentration of cadmium in the national chocolate was 4.0477 mg/kg, exceeding the limits established by the Codex Alimentarius (2,0 mg/kg) and the European Union (0,8 mg/kg). Palabras clave — cadmio, chocolate amargo, espectrofotometría de absorción atómica, límite de detección, límite de cuantificación. Key words — cadmium, dark chocolate, atomic absorption spectrophotometry, detection limit, quantification limit. 1 Producto derivado del proyecto de investigación “Determinación cuantitativa y análisis de cadmio presente en chocolates colombianos con alto contenido de cacao”. Presentado por el Grupo de Investigación Grupo Químico de Investigación y Desarrollo Ambiental - QUIDEA, de la Universidad del Quindío. H. Reyes docencia en el programa de Ingeniería de Alimentos, de la Universidad del Quindío, Armenia (Colombia); email: hreyes@uniquindio. edu.co. A. Echeverry docencia en el programa de Ingeniería de Alimentos, de la Universidad del Quindío, Armenia (Colombia); email: aecheverrya@ uniquindio.edu.co. Entre Ciencia e Ingeniería Resumo – Se avaliou de forma qualitativa e quantitativa a presença de cádmio em um chocolate amargo com 65% de cacau produzido na Colômbia e em chocolates estrangeiros com diferentes porcentagens de cacau. Para a preparação das amostras foram tomadas 0,5 gramas y se realizou uma digestão acida com acido nítrico concentrado (HNO₃ 65%). A determinação do metal foi efetuada por meio da técnica de espectrofotometria de absorção atômica de chama (FAAS). Se determinou o limite de detecção (LOD) y quantificação (LOQ) do método, obtendo valores de 0,0309 mg/L e 0,0670 mg/L respectivamente. A concentração media de cadmio no chocolate nacional foi de 4,0477 mg/kg, superando os limites estabelecidos por o Codex Alimentarius (2,0 mg/kg) e a União Europeia (0,8 mg/kg). 23 Palavras chaves: cádmio, chocolate amargo, espectrofotometria de absorção atômica, limite de quantificação. C I. Introducción hocolate es el producto homogéneo de materias de cacao, productos lácteos, azúcares y/o edulcorantes y otros aditivos alimentarios permitidos por la legislación. Al referirse a chocolate amargo, semidulce, oscuro, entre otros; este debe contener mínimo 35% de extracto seco total de cacao [1]. Las semillas de cacao proceden del árbol nombrado científicamente Theobrama cacao L., las cuales tienen su significado griego como “alimento de los dioses”; es por ello que el chocolate ha sido conocido a través de la historia como un alimento exquisito al paladar humano [2]. La denominación preferente con la que se reconoce este producto alimenticio ha sido consecuencia no sólo de su inigualable sabor, sino también debido a sus múltiples beneficios para la salud de quienes lo consumen [3]. Entre sus principales ventajas se encuentra la alta fuente de antioxidantes [4], [5]. Los compuestos químicos presentes en el chocolate son las catequinas, epicatequinas y procianidinas hacen parte del grupo de los flavanoles [6], [7]. Es debido a estas estructuras fitoquímicas que el chocolate es un excelente aliado en la prevención de enfermedades cardiovasculares, principal causa de mortalidad en los países occidentales [6]. La manera cómo actúan en el organismo es limitando la inflamación de las vías sanguíneas, mejorando la dilatación vascular y la presión sanguínea y atenuando la actividad de las plaquetas, entre otros [8]. Además se ha demostrado que el chocolate tiene un balance benéfico del perfil lipídico [5]. Anteriormente este producto era visto como un alimento de un valor nutricional mínimo y muy poco saludable, debido a la cantidad de grasa saturada presente por naturaleza en el mismo conocida como manteca de cacao. Sin embargo, de manera particular se ha encontrado que el ácido esteárico (ácido graso saturado presente en la manteca de cacao en mayor proporción – 35%) tiene un comportamiento inusual, ya que no se comporta como saturado sino como insaturado, teniendo un efecto neutral en los niveles de colesterol de la sangre [9]. Por otro lado, se ha encontrado recientemente que los compuestos antioxidantes presentes en el chocolate, especialmente la epicatequina, no solo juegan un papel importante en la precaución de enfermedades cardiovasculares, sino que además tienen una acción neuroprotectora y neuromodulatoria en los humanos. Es decir, la primera acción se encuentra asociada a la prevención y disminución de enfermedades neurológicas, cognitivas y disminución funcional del cerebro como el alzheimer, parkinson y demencia senil. Y la segunda se relaciona con las habilidades de cognición, humor, aprendizaje y memoria [10]. Todo lo anteriormente mencionado ha hecho que el consumo del chocolate tenga una tendencia al aumento, según la Organización Internacional de Cacao (International Cocoa Organization - ICCO), en el periodo 2013-2014, siendo los países dominantes pertenecientes a Europa Occidental y Norte América [11]. La misma organización enfatiza que este crecimiento, aunque lento, se debe específicamente al cambio en el gusto de los consumidores. Pues los amantes del chocolate están exigiendo productos con mayor contenido de cacao, debido a que cada día se es más consciente de tener hábitos de vida saludables y por ende consumir alimentos que aporten a esta iniciativa, como lo es el chocolate por su alto contenido de antioxidantes [12]. Es por ello que la industria chocolatera responde de forma proactiva a esta preferencia produciendo cada vez más productos con alto contenido de cacao conocidos como chocolate oscuro, amargo o premium [11]. No obstante, los beneficios y atributos del chocolate pueden verse afectados por la presencia de trazas de metales pesados [13], [14]. El cadmio, considerado como contaminante alimentario [15], es un metal pesado tóxico ampliamente usado a nivel industrial en la producción de pintura, plástico, textil, vidrio, entre otros [16], lo que conlleva a que el metal se acumule progresivamente en el ambiente y se transporte fácilmente por medio del aire y del agua, llegando así a los suelos de los cultivos agrícolas y por ende a la cadena alimenticia [17], [18]. Otro factor que influye en la concentración de cadmio en las plantas es el uso de fertilizantes fosfatados [19], [20]. Las principales consecuencias toxicologías del cadmio en el organismo son las enfermedades renales, pulmonares, digestivas, óseas y cancerígenas [21], [22], [23]. Es por ello que el objetivo del presente estudio fue determinar la concentración de cadmio en un chocolate colombiano con 65% de cacao y chocolates extranjeros con diferentes porcentajes de cacao, por medio de la técnica de espectrofotometría de absorción atómica de llama (FAAS). II. Materiales y Métodos A. Recolección de muestras Como criterio de selección de las muestras se estableció que fueran chocolates de consumo directo y con alto porcentaje de cacao. Para tal fin se obtuvieron dos tipos de chocolates. Una marca comercial nacional y otras extranjeras. El chocolate producido en el país es amargo tipo exportación con 65% de cacao de 70 gramos. Se seleccionaron 5 lotes diferentes los cuales se recolectaron en las ciudades de Bogotá, Medellín, Cali y Armenia. Para un total de 14 muestras que se analizaron por triplicado. Los chocolates extranjeros se obtuvieron de algunos países de Europa y con diferentes porcentajes de cacao como se muestra en la tabla I. Universidad Católica de Pereira 24 Tabla I Chocolates Extranjeros PAÍS % CACAO PESO NETO (g) España 55 150 España 70 80 Francia 47 200 Francia 72 100 Francia 80 100 Suiza 49 100 Ghana 70 125 Para un total de 7 chocolates extranjeros los cuales se analizaron por triplicado. B. Preparación de muestras Para iniciar la preparación de las muestras se realizó una molienda y homogenización de las mismas con un molino manual, con el fin de evitar que el chocolate se derritiera, luego se almacenaron en un desecador por 72 horas con el objeto de equilibrar la humedad. Pasadas las 72 horas se pesaron 0,5 gramos de cada una en unos vasos digestores previamente lavados con ácido nítrico 65% (HNO3). Posteriormente se adicionaron 7ml HNO3 65% marca MERCK para comenzar la digestión ácida, la cual además de realizar una descomposición de la materia orgánica forma una sal soluble del metal. Esta digestión se llevó a cabo en un horno digestor por microondas, usando el método de trampa de temperatura, donde la máxima temperatura alcanzada fue de 180°C y un tiempo de 35 minutos. Después de realizada la descomposición se adicionaron 2ml de peróxido de hidrogeno (H2O2) marca MERCK a cada muestra, con el fin de eliminar el color marrón resultante de la descomposición y así volverlas traslucidas, para luego ser aforadas con agua desionizada de un sistema Merck Millipore hasta 25ml [24]. Finalmente se realizó la determinación de cadmio por medio de la técnica de espectrofotometría de absorción atómica por llama. En total se analizaron 63 muestras incluyendo los triplicados. chocolate se realizó en un equipo espectrofotómetro de absorción atómica marca SHIMADZU. Modelo AA-7000. Las condiciones del método fueron: Longitud de onda: 228,8 nm, ancho de banda: 0,7 nm, flujo de gas: 1,8 L/min, altura de la celda: 10,5 mm, tipo de llama: aire - acetileno. Se tomó un estándar de Cadmio de 1000 ppm con el fin de elaborar una curva de calibración de 9 puntos con las siguientes concentraciones: blanco – 0,1 – 0,2 – 0,3 – 0,4 – 0,5 – 0,6 – 0,7 – 0,8 mg/L. Con esta se determinaron los límites de detección (LOD), cuantificación (LOQ) [25] y la concentración del metal. III. Resultados y Discusiones A. Límite de detección y cuantificación Para establecer los límites de detección (LOD) y cuantificación (LOQ) se realizaron lecturas seguidas del blanco como se muestra en la Tabla III, empleando agua desionizada y la curva de calibración (Fig. 1). Tabla III Lecturas Del Blanco Para La Determinación Del Lod Y Loq BLANCO ABSORBANCIA 1 0,0012 2 0,0007 3 0,0002 4 0,0008 5 0,0022 6 0,0033 7 0,0014 8 0,0011 9 0,0005 10 0,0009 C. Instrumentación Para la digestión ácida se usó un horno digestor microondas marca CEM. Modelo MARS Xpress. Se trabajó con 24 vasos digestores y un método de trampa de temperatura que se muestra en la tabla II. Tabla ii. Método de trampa de temperatura usado en el equipo digestor por microondas La determinación de cadmio en las muestras de Entre Ciencia e Ingeniería Fig 1. Curva de calibración de cadmio para la determinación en chocolates. El límite de detección se calculó multiplicando 3 veces la desviación estándar de las absorbancias del blanco (σ), luego con los valores de la ecuación de la curva se estableció la concentración límite correspondiente al LOD. Para el límite de cuantificación se realizó el mismo procedimiento simplemente multiplicando por 10 la desviación estándar, 25 luego con la ecuación de la recta se determinaron las concentraciones para cada uno de los limites, como se muestra en las ecuaciones de la (1) – (5) [25]. Los resultados se muestran en la tabla IV. (1) (2) donde σ es la desviación estándar de las lecturas del blanco y = mx + b (3) donde y es la señal analítica, es decir la absorbancia, m es la pendiente de la curva, x la concentración de cadmio en mg/L y b el intersecto de la curva (4) (5) Tabla IV Resultados Límite de Detección y Cuantificación Desviación Estándar 0,0009 LOD 0,0027 LOQ 0,0091 M 0,1759 B -0,0027 Concentración LOD 0,0309 mg/L Concentración LOQ 0,0670 mg/L El límite de detección indica la concentración a la cual se puede afirmar que hay presencia del metal en los chocolates analizados. Por su parte el límite de cuantificación es el valor en el cual se pueden realizar análisis cuantitativos, es decir, si las concentraciones obtenidas en el equipo superan el LOD y el LOQ se puede garantizar la confiabilidad del método. Sin embargo si la concentración de cadmio da por debajo del LOD se dice que es no detectable (ND), y si da en medio de los dos se afirma que es detectable, mas no cuantificable (NQ) [26]. B. Determinación de cadmio en los chocolates nacionales y extranjeros Los resultados obtenidos, de la concentración de cadmio en los chocolates nacionales y extranjeros, se muestran en las tablas V y IV respectivamente. En cuanto a la nomenclatura de los chocolates nacionales la letra L indica el número de lotes (L1, L2, L3, L4, L5) las letras de la A a la D indican el número de chocolates por cada lote y los números que acompañan las letras indican los triplicados (A1, A2, A3). Así por ejemplo el nombre L1A1 corresponde al primer triplicado del primer chocolate del primer lote. Por su parte, en los chocolates extranjeros (tabla IV) el nombre simplemente muestra el país de origen y el porcentaje de cacao, por ejemplo, ESP1 55%, se refiere al primer triplicado del chocolate de España con 55% de cacao. Para entender los resultados de las tablas V y VI es importante aclarar que la primera concentración (columna 4), es la que determina el equipo automáticamente por medio de la ley de Beer-Lamber, con la curva de calibración y los valores de absorbancia. Esta concentración es la que deben superar los límites de detección y cuantificación para verificar la confiabilidad del método. Como se puede notar en la tabla V para el chocolate nacional todas las muestras superaron el LOQ (0,0670 mg/L) excepto la L5A2, sin embargo el valor estuvo muy cercano (0,0641 mg/L) y los triplicados de esa muestra arrojaron valores positivos. Este resultado es muy positivo, ya que da la certeza de que estos valores son confiables para realizar análisis cuantitativos de la cantidad de cadmio presente en los chocolates. No obstante, en cuanto a los chocolates extranjeros (tabla VI), se puede ver que aunque todos superaron el LOD (0,0309 mg/L) excepto FRC3 72%, ninguno superó LOQ. Esto quiere decir que se puede afirmar con certeza la presencia de cadmio en este tipo de chocolates, más no es posible realizar análisis cuantitativos. Por otro lado, el porcentaje de variabilidad (RSD) mostrado en la columna 6 indica, como su nombre lo dice, la variabilidad de los valores de absorbancia (señal analítica) de las muestras con respecto al ruido de fondo del método, dado que el equipo realiza un triplicado por cada lectura y luego promedia los valores de las tres mediciones. Para los chocolates nacionales el valor de RSD más alto fue de 13,80% y el más bajo de 0,00%, siendo este un porcentaje pequeño y da entender que la señal analítica está alejada del ruido de fondo, lo que se confirma nuevamente con los resultados obtenidos por encima del límite de detección y cuantificación. No obstante, para los chocolates extranjeros el porcentaje RSD fue muy alto, llegando a valores hasta de 115, 71% esto debido a la baja concentración de cadmio en este tipo de chocolates, lo que impidió que la señal analítica se alejara del ruido de fondo y por tal motivo se obtuvo una alta variabilidad. Este resultado se confirma con el hecho que ningún chocolate extranjero superó el límite de cuantificación. Finalmente, para determinar la concentración real (columna 7) se realizó la conversión teniendo en cuenta el peso de la muestra (0,5 g) y el volumen al cual se aforó después de la digestión, el cual fue de 25ml, como se muestra en la ecuación (6). (6) Como ejemplo para la muestra L1A1 se calculó de la siguiente manera: Universidad Católica de Pereira 26 Tabla V. Resultados Concentración De Cadmio En Chocolate Colombiano Con 65% De Cacao Entre Ciencia e Ingeniería 27 Tabla VI. Resultados Concentración de Cadmio en Chocolates Extranjeros Para las muestras de chocolate colombiano el promedio de la concentración real de cadmio fue de 4,0477 mg de cadmio / kg de chocolate. Siendo este resultado un valor muy alto ya que sobrepasa los límites máximos establecidos por el Codex Alimentarius y la Unión Europea los cuales son de 2 mg/kg y 0,8 mg/kg respectivamente, para chocolates con más del 50% de cacao [27], [28], como es el caso del chocolate nacional analizado (65%). Estos resultados deben poner en alerta a la industria chocolatera, debido a la alta toxicidad del metal [29]. Por su parte, para los chocolates extranjeros el promedio de la concentración de cadmio fue de 2,3962 mg de cadmio / kg de chocolate, a pesar que este valor supera los límites establecidos por las legislación nombradas, no se puede afirmar con certeza la veracidad de este resultado ya que se analizaron chocolates con diferentes porcentajes de cacao, lo que hace que sean resultados diferentes, debido a que el cadmio procede de los granos de cacao y no de los demás ingredientes adicionados al chocolate [13], [30]. C. Diseño experimental de chocolate colombiano Los resultados obtenidos para el chocolate colombiano se sometieron a un análisis estadístico con el fin de establecer si había una diferencia significativa en cuanto a la concentración de cadmio en los diferentes lotes. La comparación se hizo mediante la técnica ANOVA por medio del programa estadístico PASW Statistics 18. Se planteó la hipótesis nula y la hipótesis alterna que se muestran a continuación con un nivel de significancia de α=0,05. Ho: µ0 = µK (la concentración de cadmio de todos los lotes de chocolate es igual) Hi: µ0 ≠ µi (al menos una de las concentraciones de cadmio de un lote es diferente) 1) Análisis univariable – ANOVA En la tabla VII se muestra el número de chocolates analizados por cada lote con la media y desviación estándar de la concentración de cadmio. Estas mismas medias fueron graficadas en la Fig. 2. La interpretación es que los lotes son estadísticamente iguales, ya que el valor p arrojado fue de 0,152, siendo mayor que el nivel de significancia elegido (α=0,05), como se muestra en la tabla VIII. Esto quiere decir que no hay diferencias significativas entre las concentraciones de cadmio en los diferentes lotes, lo que se confirma con los diagramas de dispersión y de caja y bigotes representados en las Fig. 3 y 4, debido a que presentan una distribución normal de los datos. Universidad Católica de Pereira 28 Tabla VII Estadísticos Descriptivos de La Concentración de Cadmio en Cada Lote Tabla VIII Pruebas De Los Efectos Inter-Sujetos Fig. 4. Gráfico caja y bigotes de la concentración de cadmio en los lotes de chocolate. Fig. 2. Gráfico de la media de concentración de cadmio por cada lote de chocolate. En el gráfico de caja y bigotes (Fig. 4) el único dato atípico que muestra es el número 15 ya que en el lote 2 todas las concentraciones de cadmio estuvieron por encima de 4 mg/kg y esta fue de 3,77. Sin embargo esto no tiene ninguna interferencia en cuanto a la interpretación estadística de los datos. 2) Comparaciones múltiples En cuanto a los análisis de comparación múltiple, las pruebas de Tukey y Fisher (tabla IX), las cuales relacionan cada lote con respecto al otro, demuestran nuevamente que no se encuentra diferencia significativa entre las concentraciones de cadmio, debido a que el valor p de cada uno es mayor que el nivel de significancia. Por otro lado la prueba de Duncan (tabla X) evidencia el mismo resultado, puesto que agrupa todos los lotes de chocolate en un mismo subconjunto. Fig. 3. Gráfico de dispersión de la concentración de cadmio en los lotes de chocolate. Entre Ciencia e Ingeniería 29 Tabla IX Pruebas de Comparación Múltiple Tukey y Fisher Universidad Católica de Pereira 30 Tabla X. Prueba de Duncan de Subconjuntos Homogéneos Variable dependentiente: CONCENTRACION Cd (mg/kg) Se muestran las medias de los grupos de subconjuntos homogéneos. Basadas en las medias observadas. El término de error es la media cuadrática (Error) = ,134. a. Usa el tamaño muestral de la media armónica = 7,500 b. Los tamaños de los grupos son distintos. Se empleará la media armónica de los tamaños de los grupos. No se garantizan los niveles de error tipo I. c. Alfa=,05. Fig 5. Gráfico de normalidad de residuos. Tabla XII Contraste de Levene Sobre la Igualdad de las Varianzas Error Contrasta la hipótesis nula de que la varianza error de la variable dependiente es igual a lo largo de todos los grupos 3) Verificación de supuestos En cuanto a la verificación de supuestos se obtuvo una distribución normal de los residuales, debido a que en las pruebas de Kolmogorov y Shapiro Wilk (tabla XI) las dos arrojaron un valor p mayor que el nivel de significancia 0,05. Finalmente el último supuesto que se verificó fue el de homogeneidad de varianza (homocedasticidad), por medio de la prueba de levene (tabla XII) y el grafico de residuales (Fig. 6). Se comprobó que los datos son homocedasticos debido a que el valor p supera el nivel de significancia y el gráfico presenta el patrón normal de comportamiento. Esto también se puede verificar con el grafico de normalidad (Fig. 5), el cual sigue el patrón establecido. Tabla XI Prueba De Normalidad De Residuos Fig 6. Gráfico de homocedasticidad de residuales. IV. Conclusiones En el estudio realizado se lograron obtener resultados satisfactorios tanto para el chocolate nacional como para los extranjeros en cuanto a su contenido de cadmio, es decir, que en los tipos de muestras analizadas hay presencia del metal. En cuanto a las muestras del chocolate colombiano estas superaron los límites de detección y cuantificación, lo que permite afirmar con certeza, no sólo la presencia, sino también la cantidad de cadmio en los chocolates. Entre Ciencia e Ingeniería 31 Por otro lado, la concentración promedio del metal se encuentra muy por encima de lo que exigen las normas internacionales como el Codex Alimentarius y la Unión Europea, lo que genera una gran preocupación debido a la alta toxicidad del cadmio. En cuanto al diseño experimental se puede concluir que no existe una diferencia significativa de la concentración del metal en los diferentes lotes, es decir, teniendo en cuenta que en total se analizaron 5 lotes con diferentes fechas de fabricación es posible asumir que todo el chocolate producido, de este tipo, presenta contaminación con cadmio. Por su parte, en los chocolates extranjeros a pesar de que se verificó la presencia de cadmio; lo que genera la alerta que esta problemática no sólo se está presentando a nivel nacional sino en otros países como los europeos, siendo estos los más consumidores de chocolate en el mundo; los resultados obtenidos no permiten afirmar con certeza la cantidad del metal debido a que no superaron el límite de cuantificación, además tampoco fue posible realizar un diseño experimental debido a la variabilidad de los resultados, pues los chocolates obtenidos presentaban diferentes porcentajes de cacao. [8] [9] [10] [11] [12] [13] [14] Conociendo la toxicología del cadmio es importante que a partir de estos resultados y otros estudios realizados en el país se puedan comenzar a generar normas relacionadas con la cantidad del metal presente en los chocolates producidos en Colombia para así controlar el riesgo en la salud de los consumidores y comenzar a realizar cambios a nivel industrial con el fin de no perder los beneficios que genera el consumo de chocolate por su alto contenido de antioxidantes. [15] Agradecimientos [18] Los autores agradecen a la Universidad del Quindío y a la Universidad de Santa Cruz del Sur – UNISC de Brasil por su contribución en el préstamo de los laboratorios, equipos y reactivos para el desarrollo del proyecto. De igual manera agradece a los profesores Adilson Ben da Costa y Rodolfo López por su asesoría y acompañamiento. [19] [16] [17] [20] [21] [22] Referencias [1] [2] [3] [4] [5] [6] [7] Codex Standard for Chocolate and Chocolate Products. Norma CODEX STAN 87-1981, Rev. 1 – 2003. Codex Alimentarius. 2003. L. Batista, Guía técnica. El cultivo del cacao. República Dominicana. Centro para el Desarrollo Agropecuario y Forestal, Inc. 250p. 2009. K. D. Monahan, “Effect of cocoa/chocolate ingestion on brachial artery flow-mediated dilation and its relevance to cardiovascular health and disease in humans.,” Arch. Biochem. Biophys., vol. 527, no. 2, pp. 90–4, Nov. 2012. W. A. Jonfia-Essien, G. West, P. G. Alderson, and G. Tucker, “Phenolic content and antioxidant capacity of hybrid variety cocoa beans,” Food Chem., vol. 108, no. 3, pp. 1155–1159, Jun. 2008. F. M. Steinberg, M. M. Bearden, and C. L. Keen, “Cocoa and chocolate flavonoids: implications for cardiovascular health.,” J. Am. Diet. Assoc., vol. 103, no. 2, pp. 215–23, Feb. 2003. L. Fernández-Murga, J. J. Tarín, M. a García-Perez, and a Cano, “The impact of chocolate on cardiovascular health.,” Maturitas, vol. 69, no. 4, pp. 312–21, Aug. 2011. M. B. Engler and M. M. Engler, “The vasculoprotective effects of [23] flavonoid-rich cocoa and chocolate,” Nutr. Res., vol. 24, no. 9, pp. 695–706, Sep. 2004. D. Grassi, G. Desideri, and C. Ferri, “Blood pressure and cardiovascular risk: what about cocoa and chocolate?,” Arch. Biochem. Biophys., vol. 501, no. 1, pp. 112–5, Sep. 2010. J. Mursu, S. Voutilainen, T. Nurmi, T. H. Rissanen, J. K. Virtanen, J. Kaikkonen, K. Nyyssönen, and J. T. Salonen, “Dark chocolate consumption increases HDL cholesterol concentration and chocolate fatty acids may inhibit lipid peroxidation in healthy humans.,” Free Radic. Biol. Med., vol. 37, no. 9, pp. 1351–9, Nov. 2004. A. N. Sokolov, M. a Pavlova, S. Klosterhalfen, and P. Enck, “Chocolate and the brain: neurobiological impact of cocoa flavanols on cognition and behavior.,” Neurosci. Biobehav. Rev., vol. 37, no. 10 Pt 2, pp. 2445–53, Dec. 2013. International Cocoa Organization - ICCO. The World Cocoa Economy: Past and Present. 2012. Disponible: http://www.icco. org/about-us/international-cocoa-agreements/cat_view/30-relateddocuments/45-statistics-other-statistics.html. Consultado el 19 de diciembre de 2014. F. A. Pimentel, J. A. Nitzke, C. B. Klipel, and E. V. De Jong, “Chocolate and red wine – A comparison between flavonoids content,” Food Chem., vol. 120, no. 1, pp. 109–112, May 2010. R. L. Yanus, H. Sela, E. J. C. Borojovich, Y. Zakon, M. Saphier, A. Nikolski, E. Gutflais, A. Lorber, and Z. Karpas, “Trace elements in cocoa solids and chocolate: an ICPMS study.,” Talanta, vol. 119, pp. 1–4, Mar. 2014. S. Rehman and S. M. Husnain, “Assessment of trace metal contents in chocolate samples by Atomic Absorption Spectrometry,” J. Trace Elem. Anal., vol. 1, no. 1, pp. 1–11, Oct. 2012. Norma general del codex para los contaminantes y las toxinas presentes en los alimentos y piensos. Norma CODEX STAN 1931995. Codex Alimentarius. 1995. M. Rodrigues, N. Martínez-de la Casa, M. C. Romero, L. A. del Rio, and L. M. Sandalio, “Toxicidad del Cadmio en Plantas,” Ecosistemas. Rev. científica Ecol. y medio Ambient., vol. 17, no. 3, pp. 139–146, Apr. 2008. A. Ramírez, “Toxicología del cadmio. Conceptos actuales para evaluar exposición ambiental u ocupacional con indicadores biológicos,” An. la Fac. Med. Univ. Nac. Mayor San Marcos, vol. 63, no. 1, pp. 51–64, 2002. M. P. Benavides, S. M. Gallego, and M. L. Tomaro, “Cadmium toxicity in plants,” Toxic Met. Plants, vol. 17, no. 1, pp. 21–34, 2005. T. L. Roberts, “Cadmium and Phosphorous Fertilizers: The Issues and the Science,” Procedia Eng., vol. 83, pp. 52–59, 2014. C. A. Grant, “Influence of Phosphate Fertilizer on Cadmium in Agricultural Soils and Crops,” Agric. Agri.Food Canada. Brand. Res. Cent., pp. 143–155, Feb. 2011. L. Järup and A. Akesson, “Current status of cadmium as an environmental health problem.,” Toxicol. Appl. Pharmacol., vol. 238, no. 3, pp. 201–8, Aug. 2009. M. Waalkes, “Cadmium carcinogenesis,” Mutat. Res. Mol. Mech. Mutagen., vol. 533, no. 1–2, pp. 107–120, Dec. 2003. International Agency for Research on Cancer - IARC. Agency classified by the IARC monographs. Vol. 1-111. 2012. Disponible: http://monographs.iarc.fr/ENG/Classification/index.php. Consultado el 7 de enero de 2014. [24] F. J. Krug, Métodos preparo de amostras. Fundamentos sobre preparo de amostras orgânicas e inorgânicas para análise elementar, Primera edição. Brasil. F.J Krug., 340 f. 2010. [25] N. J. Miller, and J. C. Miller. Estadística y Quimiometría para Química Analítica, Cuarta edición. Madrid. Pearson Educación S.A., 2002, 278 p. [26] L. Ebdon, E.H. Evans, A. S. Fisher, S. J. Hill. An Introduction to Analytical Atomic Spectrometry. John Wiley & Sons ltd., 1998, 195 p. [27] Proposed draft maximum levels for cadmium in chocolate and cocoa-derived products. Norma CX/CF 15/9/6. Codex Alimentarius Commission. 2014. Join FAO/WHO Food Standards Programme Codex Committee on Contaminants in Food, Dec. 2014. [28] Amending Regulation (EC) No 1881/2006 as regards maximum levels of cadmium in foodstuffs. Norma Commission Regulation (EU) No 488/2014. Eurpean Union, May. 2014. Universidad Católica de Pereira 32 [29] G. F. Nordberg, “Historical perspectives on cadmium toxicology.,” Toxicol. Appl. Pharmacol., vol. 238, no. 3, pp. 192–200, Aug. 2009. [30] S. Dahiya, R. Karpe, a. G. Hegde, and R. M. Sharma, “Lead, cadmium and nickel in chocolates and candies from suburban areas of Mumbai, India,” J. Food Compos. Anal., vol. 18, no. 6, pp. 517– 522, Sep. 2005. Henry Reyes Pineda es ingeniero químico egresado de la Universidad Nacional de Colombia, Sede Manizales con Especialización en Educación Ambiental, Especialización en Ingeniería Electroquímica y Corrosión, Diploma de Estudios Avanzados en Tecnologías de Membranas, Electroquímica y medio Ambiente Seguridad Nuclear y con un Doctorado en Ingeniería Química y Nuclear de la Universidad Politécnica de Valencia, España. Actualmente es profesor de tiempo completo de la Universidad del Quindío, Armenia, Colombia y Decano de la Facultad de Ciencias Agroindustriales; hace parte del Grupo Químico en Investigación y Desarrollo Ambiental. Ha sido docente de la Universidad de Caldas, Universidad Nacional, Universidad Católica de Pereira, Sede Manizales y Universidad Autónoma de Manizales. Entre sus áreas de trabajo investigativo se encuentran La Ingeniería Electroquímica, Los Procesos ambientales, el Tratamiento de residuos sólidos y líquidos, el Diseño de Reactores, entre otros. El Doctor Reyes Pineda, se gradúo en el 2007, obteniendo la máxima calificación en su Tesis Doctoral: “Cum Laude” Ha sido profesor visitante en tres oportunidades a la Universidad Politécnica de Valencia, España y en dos ocasiones a la Universidad de santa Cruz del Sur, Brasil, desarrollando actividades académicas e investigativas. Igualmente ha participado como conferencista en diferentes congresos nacionales e internacionales. Alejandra Echeverry Aranda es ingeniera de alimentos egresada de la Universidad de Antioquia, Sede Medellín con Maestría en Química de la Universidad del Quindío. El título de Magister lo obtuvo en el mes de mayo de 2015 con el reconocimiento de tesis meritorio al trabajo de grado titulado “Determinación cuantitativa y análisis de cadmio presente en chocolates colombianos con alto contenido de cacao”. Actualmente es profesora ocasional de tiempo completo de la Universidad del Quindío de la facultad de Ciencias Agroindustriales en el programa de Ingeniería de Alimentos, hace parte del Grupo Químico en Investigación y Desarrollo Ambiental. Entre Ciencia e Ingeniería 33 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 33-39 Construcción de modelos 3D para la enseñanza de la Ley de Gauss en forma diferencial1 Building 3D models in order to teach the Gauss’ Law in a differential form Construção de modelos 3D para o ensino da lei de Gauss em forma diferencial A.A. Rojas, G.A. Atehortúa, R.G. Márquez, D. Osorio, S. López y C.E. Mora Recibido Septiembre 03 de 2015 – Aceptado Febrero 19 de 2016 Resumen— En este artículo se muestran algunos resultados de un proyecto de investigación que tenía como principal objetivo involucrar a los estudiantes en actividades de modelación científica a través de la construcción de modelos computacionales. El estudio fue realizado con un grupo de 43 estudiantes de los programas de ingeniería civil y de sistemas, de la Universidad Cooperativa de Colombia – Sede Ibagué, y estuvo fundamentado en la modelación científica, la modelación computacional y la Teoría del Aprendizaje Significativo Crítico. Los principales hallazgos develan que la implementación de la propuesta didáctica fundamentada en situaciones problema a ser modeladas haciendo uso de programas computacionales, favoreció la interacción de los estudiantes, la discusión, la formulación de preguntas de interés sobre la temática de la Ley de Gauss y la construcción de modelos computacionales para representar las situaciones problema planteadas; generándose así la comprensión de conceptos relativos al campo de conocimiento. Palabras clave — enseñanza de la física, Ley de Gauss, modelación computacional. 1 Producto derivado del proyecto de investigación “Una estrategia didáctica centrada en las TIC para la enseñanza de las matemáticas y su incidencia en el desarrollo del pensamiento”. Presentado por el Grupo de Investigación LOGIKE, de la Universidad Cooperativa de Colombia (Ibagué). A.A. Rojas docencia en el programa de Ingeniería de Sistemas, de la Universidad Cooperativa, Ibagué (Colombia); email: angel.rojas@ campusucc.edu.co . G.A. Atehortua docencia SENA, Centro Agropecuario la Granja, Espinal (Colombia); email: [email protected] . R.G. Márquez estudiante en el programa de Ingeniería de Sistemas, de la Universidad Cooperativa, Ibagué (Colombia); email: gilbert1001_@ hotmail.com . D. Osorio estudiante en el programa de Ingeniería de Sistemas, de la Universidad Cooperativa, Ibagué (Colombia); email: [email protected] . S. López docencia en la Facultad de Educación, de la Universidad de Antioquia, Medellín (Colombia); email: [email protected] C.E. Mora director del programa de Doctorado en Física Educativa, del Instituto Politécnico Nacional, Mexico D.F. (México); email: ceml36@ gmail.com . Abstract— This article presents some results of a research project aimed mainly to involve students in scientific modeling activities, through building computer models. The study was conducted with a group of 43 students of Civil and Systems Engineering from Universidad Cooperativa de Colombia, located in Ibague, and was based on the scientific modeling, the computational modeling and the Meaningful Critical Learning Theory. The main findings reveal that the implementation of the didactic approach based on problem situations that were modeled on computer programs, favored student interaction, discussion, the formulation of questions based on the Gauss’ Law and the construction of computer models used to represent problem situations presented, generating an understanding of concepts related to the field of knowledge. Key words — Physics teaching, Gauss’ law, computational modeling. Resumo – Nesse artigo se mostram alguns resultados de um projeto de investigação que tinha como principal objetivo envolver os alunos em atividades de modelagem científica através da construção de modelos computacionais. O estudo foi realizado com um grupo de 43 estudantes dos programas de engenharia civil e de sistemas, da Universidade Cooperativa de Colômbia – Sede Ibagué, e foi baseada em modelagem científica, modelagem computacional e teoria da aprendizagem significativa crítica. As principais conclusões revelam que a implementação da proposta educacional com base em situações-problema a ser modelado, fazendo uso de programas de computador, trouxe à interação dos alunos, a discussão, a formulação de perguntas de interesse sobre o tema da Lei de Gauss e a construção de modelos computacionais para representar as situações problemas postas; gerando assim à compreensão de conceitos relativos ao campo de conhecimento. Palavras chaves: O ensinamento da física, Lei de Gauss, modelação computacional. Universidad Católica de Pereira 34 I. Introducción T emáticas como la Ley de Gauss y en general, aquellas relacionadas con el concepto de campo en física, sin lugar a dudas se constituyen en componentes fundamentales en la formación de ingenieros. No obstante, la difícil comprensión de estos temas por parte de los estudiantes, se ha constituido en objeto de varias investigaciones [1, 2, 3]. Además, algunos estudios muestran que la mayoría de los estudiantes es incapaz de dar un significado físico al campo independientemente del concepto de fuerza [4, 5, 6] lo que puede deberse a que en el aula se hace énfasis normalmente en el carácter operativo del concepto de campo y sólo un 30% del profesorado admite realizar discusiones cualitativas que clarifiquen el concepto de campo y lo doten de significado [7]. También es importante considerar que el concepto de campo es posiblemente uno de los conceptos más abstractos en física y su abordaje desde modelos estrictamente teóricos, puede constituirse en un obstáculo más que dificulta su aprendizaje; siendo otros posibles obstáculos la representación de este concepto a través de imágenes estáticas y animistas y la carencia de situaciones reales en las que el concepto pueda ser aplicado. La identificación de estas dificultades dio lugar a la formulación de un proyecto de investigación que tenía como principal propósito involucrar a los estudiantes en actividades de modelación científica a través de la construcción de modelos computacionales, intentando así acercarlos a una mejor comprensión del proceso de producción de conocimiento científico, al considerar la modelación como un elemento fundamental en la construcción de éste [8, 9, 10, 11, 12]. En lo que se refiere a la concepción del proceso de modelación científica, es abordada la postura epistemológica de Mario Bunge [9], entendiendo ésta como un proceso de construcción de modelos con el propósito de apresar la realidad; del cual resultan los modelos conceptuales como explicaciones del mundo, representaciones simplificadas e idealizadas de la realidad [11, 13, 14,15, 16, 17, 18, 19, 20, 21, 22, 23]. En el ámbito de este trabajo nos referimos a la modelación como un proceso de construcción de modelos, a partir del cual los modelos idiosincrásicos y tácitos (representaciones internas) que poseen los estudiantes se conviertan en modelos explícitos (representaciones externas) que se aproximen cada vez más a los modelos científicamente aceptados. Representaciones que pueden ser construidas a partir del uso de herramientas TIC, con el propósito de que éstas permitan convertir los modelos estáticos bidimensionales de los libros de texto, en modelos dinámicos y tridimensionales que favorezcan la comprensión de los conceptos en juego. Entre Ciencia e Ingeniería II. Referentes conceptuales A. Acerca de los modelos y la modelación científica En las últimas décadas, la incursión en el campo de los modelos y de la modelación científica orientada a los procesos de enseñanza y aprendizaje de las ciencias, y la posibilidad de que dicho campo sea orientado desde una perspectiva didáctica fundamentada en la modelación y la simulación computacional, sugieren la necesidad de asumir una visión crítica que implique la asunción de enfoques epistemológicos centrados en la concepción de modelos y modelación científica. Debido a esto, es pertinente abordar la visión epistemológica de Mario Bunge para orientar una enseñanza de las ciencias centrada en los modelos y en la modelación. Considerando el uso de la modelación en el aula de clase como un enfoque fundamental en la enseñanza de las ciencias, se hace imprescindible ayudar a los estudiantes a aprender acerca de la naturaleza de los modelos científicos, el proceso de construcción de dichos modelos y su utilidad en la predicción y la descripción de los fenómenos del mundo real [24]. Con este propósito, se recurre a la concepción de Mario Bunge [9], acerca de la modelación científica y el papel que desempeñan los modelos científicos en la construcción de conocimiento, con la firme convicción de que estos últimos cumplen un rol fundamental en la enseñanza de las ciencias [21, 25]. Los modelos a los que Bunge hace referencia se construyen como explicaciones del mundo y con el propósito expreso de apresar la realidad, y son asumidos como representaciones simplificadas e idealizadas de ésta y no como la realidad misma. Esta visión es compartida por diversos autores, quienes pueden considerarse autoridades en relación con las reflexiones realizadas sobre los modelos y la modelación científica [11, 17, 19, 21, 23]. El proceso de construcción de dichos modelos es lo que se entiende como modelación científica, considerando que todo modelo científico contribuye a optimizar la comprensión de la realidad, la aprehensión del mundo. B. La modelación computacional en la enseñanza de la física Cuando nos remitimos a las TIC en contextos educativos y concretamente a su uso en la enseñanza de la física, es casi seguro que nuestro referente más concreto se enmarca en el uso del computador; posiblemente porque la mayor cantidad de trabajos que se han publicado en relación con el uso de TIC en el aula, hacen referencia a la implementación de herramientas computacionales en los procesos de enseñanza-aprendizaje de conceptos físicos. Y es que el uso del computador como recurso didáctico en la enseñanza 35 de la física, brinda varias posibilidades que van desde el tratamiento de cálculos, gráficas, como instrumento de medición, como instrumento de adquisición y procesamiento de datos, hasta la realización de simulaciones y modelos computacionales acerca de fenómenos físicos. A partir de lo anterior, es posible identificar las principales modalidades pedagógicas del uso del computador en la enseñanza de la física en el nivel medio y universitario; entre las cuales se encuentran: instrucción y evaluación mediada por el computador; modelación y simulación computacional; recolección y análisis de datos en tiempo real; recursos multimedia; comunicación a distancia; Resolución algebráica/numérica y visualización de soluciones matemáticas; y estudio de procesos cognitivos [26]. Modalidades pedagógicas del uso del computador, entre las cuales la modelación y simulación computacional suele ser no sólo la más utilizada, sino, posiblemente la de mayor potencial para la enseñanza de la física. La modelación computacional se ha convertido en una potencial herramienta para la enseñanza de las ciencias, ya que permite dar cuenta de un fenómeno estudiado desde distintos puntos de vista de modo más simple y directo que la experimentación convencional en un laboratorio, convirtiéndose además en un valioso complemento para el trabajo experimental. Asimismo, la modelación computacional permite al estudiante construir una idea, representación, imagen o modelo mental a partir de imágenes externas, necesarias para la comprensión del mundo físico [27]. Entre las herramientas TIC existe una amplia variedad de programas de modelación computacional, algunos de ellos con un lenguaje de programación lo suficientemente asequible como para que los estudiantes con algún dominio de conceptos matemáticos y físicos puedan hacer uso de ellos y crear modelos o representaciones que evidencien su comprensión sobre un determinado fenómeno o concepto de la física. C. La interacción social y el cuestionamiento La formulación de preguntas en el aula de clase ha sido tradicionalmente una tarea propia de los docentes, quienes – en muchas ocasiones – esperan que las respuestas de los estudiantes estén expresadas en los términos de sus discursos, negándoles así la posibilidad de cuestionamiento; de tal manera que los estudiantes formulan pocas preguntas en el aula de clase y, además las preguntas frecuentemente formuladas tienen un bajo nivel cognitivo [28, 29]. Esto nos sugiere replantear esta actividad en el aula de clase, al asumir que la formulación de preguntas por parte de los estudiantes es una estrategia cognitiva que les permite lograr habilidades de orden superior [30]. La importancia de que los estudiantes desarrollen la capacidad de formular preguntas tiene un trasfondo epistemológico; de acuerdo con Bachelard [12], “para un espíritu científico todo conocimiento es una respuesta a una pregunta. Si no hubo pregunta, no puede haber conocimiento científico”. Enmarcados en la visión de Moreira [31] en relación con la posibilidad de generar un aprendizaje significativo crítico en el aula de clase, nos enfocamos en el primer –y a nuestro modo de ver el más importante– postulado de la Teoría del Aprendizaje Significativo Crítico propuesta por este autor, que hace referencia al principio del cuestionamiento; es decir, al acto de enseñar/aprender preguntas en lugar de respuestas. III. Construyendo modelos computacionales A. Metodología de investigación Como ya fue mencionado, en este artículo se presenta parte de los resultados de un proyecto de investigación que tenía como principal objetivo involucrar a los estudiantes en actividades de modelación científica a través de la construcción de modelos computacionales. En esta parte concreta del estudio, se muestran las construcciones hechas por los estudiantes en el marco de la modelación computacional, a partir de las potencialidades del software utilizado y de sus conocimientos previos sobre el tema particular. Para ello fue adoptada una metodología cualitativa del tipo estudio de casos; dado que ésta permite conocer la particularidad y la complejidad de un caso singular, para llegar a comprender su actividad en circunstancias importantes. Desde esta perspectiva, los casos estuvieron constituidos por los grupos de trabajo conformados por los estudiantes participantes en la investigación. B. Estudiantes participantes El estudio se llevó a cabo con un grupo de 43 estudiantes de los programas de ingeniería civil y de sistemas, de la Universidad Cooperativa de Colombia –Sede Ibagué-, que se encontraban matriculados en un curso de física de electricidad, correspondiente al tercer semestre de su carrera; a quienes se les invitó a conformar grupos para diseñar y construir modelos computacionales que facilitaran la comprensión de los conceptos inherentes y el desarrollo matemático de la ecuación de la Ley de Gauss para el campo eléctrico en forma diferencial. C. Referente metodológico para la construcción de modelos El proceso de diseño y construcción de modelos se fundamentó en la propuesta de modelación esquemática de Universidad Católica de Pereira 36 Halloun [16]. Este autor considera los modelos como los mayores componentes del conocimiento de una persona y la modelación como un proceso cognitivo para la construcción y empleo del conocimiento; centrándose en el principio de que, en física, el aprendizaje del alumno será tanto más significativo cuanto mayor sea su capacidad de modelar. Este referencial metodológico es abordado por ser una estrategia instruccional que brinda herramientas para externalizar los modelos conceptuales; pero sobre todo, por su conveniencia para el diseño de las actividades de modelación a partir de los cinco estadios: selección, construcción, validación, análisis y expansión de un modelo. La Fig. 1 muestra el proceso de modelación esquemática que puede ser sistemáticamente aplicado en el contexto de una teoría conveniente para la construcción de nuevos modelos, refinándolos y empleándolos en situaciones específicas (situaciones del mundo real, experimentos de laboratorio o problemas de libros de texto). implicaciones pueden ser inferidas en relación al propósito original y a otros propósitos de validación. Esto ayuda al modelador a desarrollar sus habilidades de transferencia. D. Diseño y construcción de modelos Con base en el proceso de modelación esquemática de Halloun, se conforman grupos de 3 y 4 estudiantes y se les plantea como situación problema, construir la representación de la ley de Gauss en tres dimensiones, haciendo uso de programas que posibilitan la construcción de modelos computacionales, tales como: SketchUp, Power Point y AutoCAD. Cabe anotar, que este concepto fue previamente enseñado a los estudiantes, utilizando un tiempo de instrucción de seis horas y teniendo como base para la explicación las representaciones gráficas que aparecen en algunos libros de texto de Física [32, 33]. Los estudiantes eligen el software que a su modo de ver les permite construir una mejor representación; y es así como se inicia un ejercicio de trabajo en grupo que tarda un tiempo aproximado de nueve horas; y como producto de su creatividad y del ejercicio de discusión, toma de decisiones, formulación de preguntas; finalmente se obtienen diversos modelos computacionales que dan cuenta de la comprensión adquirida por los estudiantes sobre la ley de Gauss. IV. Análisis de resultados Fig.1. Representación esquemática del proceso de Modelación. (Hestenes apud Halloun, [15]). A. Modelos construidos Este proceso de modelación esquemática se compone de cinco estadios: En las Fig. 2, 3 y 4, se muestran los modelos computacionales construidos por tres grupos de estu• Selección del modelo: identificación y descripción de la diantes para representar la ley de Gauss en tres composición de cada sistema físico de la situación física dimensiones. y del respectivo fenómeno). • Construcción del modelo: el modelador se enfrenta a la actividad de construir modelos. • Validación del modelo: este estadio puede ser simultáneo con la construcción del modelo considerando esencialmente la consistencia interna del modelo. • Análisis del modelo: una vez que el modelo ha sido validado, un análisis puede ser hecho en el sentido de verificar si todos los propósitos están siendo contemplados en el modelo que está siendo construido. • Expansión del modelo: una vez que un modelo fue analizado y completamente validado, algunas Entre Ciencia e Ingeniería Es importante resaltar que una de las principales características de los modelos construidos, es su funcionalidad; es decir, la posibilidad que éstos brindaron a los estudiantes para describir y explicar la situación problema a partir de los diferentes componentes del modelo y de la potencialidad del software elegido para construir los modelos. En la Fig. 2 se muestra un modelo computacional para la Ley de Gauss construido con el programa SketchUp; un software que permite construir modelos en 3D y rotarlos para tener una visión de los mismos desde diferentes ángulos. Asimismo, permite dibujar todo tipo de líneas y formas, que lo hace apropiado para construir modelos que hagan uso, por ejemplo, de líneas de campo; como es el caso de la temática aquí abordada. SketchUp brinda la posibilidad de convertir 37 un modelo en un conjunto de dibujos que pueden facilitar su comprensión; exporta PDF, imágenes o archivos CAD. El grupo que construyó este modelo computacional, estuvo constituido por tres estudiantes que interactuaron permanente a partir de preguntas que movilizaban su pensamiento y les permitían llegar a los consensos necesarios para consolidar su modelo. De tal manera que éste se constituyó en una representación, producto de la negociación de significados entre los integrantes del grupo, que proporcionaba evidencias de la conceptualización lograda; y que se acompañó de sus argumentos y explicación. Y dado que este software no cuenta con ventanas y/o espacios para describir las representaciones matemáticas propias del modelo, los estudiantes recurrieron a la incorporación de las mismas en la diapositiva final, apoyando la construcción del modelo con sus explicaciones. Fig. 3. Modelo computacional construido con Power Point Fig. 2. Modelo computacional construido con SketchUp. En la Fig. 3 podemos observar un modelo computacional construido por los estudiantes para representar la Ley de Gauss, haciendo uso del conocido programa Power Point; del que desconocemos muchas de sus potencialidades en términos de modelación, por ser un programa utilizado básicamente para realizar presentaciones. A pesar de sus múltiples limitaciones para la construcción de representaciones en 3D, sus posibilidades para la animación lo convierten en una herramienta valiosa para familiarizar a los estudiantes con el proceso de construcción de modelos computacionales. El grupo que construyó este modelo computacional, estuvo conformado por cuatro estudiantes que se caracterizaban por sus pocas habilidades en el uso de herramientas computacionales; lo que con seguridad pudo motivarlos a hacer uso de un programa tan básico como el Power Point, para construir su modelo. No obstante, lo que nos muestra este grupo de estudiantes, es que independientemente de la herramienta elegida para construir su representación, ésta permitía externalizar la comprensión que habían logrado acerca de la ley de Gauss. Comprensión que fue producto de largas discusiones entre los integrantes, que se centraron más en aspectos relativos a los conceptos que al manejo de la herramienta como tal. Viéndose altamente favorecida la interacción social para negociar y construir significados de la física. La Fig. 4 representa un modelo computacional construido por otro grupo de estudiantes para recrear la ley de Gauss. Este modelo ha sido construido haciendo uso del programa AutoCAD; un software que permite la construcción de imágenes en dos o tres dimensiones. Aunque AutoCAD fue creado esencialmente para el diseño industrial, es factible su uso en la enseñanza de la física, gracias a las posibilidades que brinda para la construcción de representaciones de conceptos físicos, lo que se facilita por el uso que hace de diversos elementos geométricos y el procesamiento de imágenes vectoriales, que lo convierten en un aliado perfecto para la construcción de modelos relacionados con conceptos como el de campo. Este grupo conformado por tres estudiantes, aunque en principio no contaba con un gran dominio del software elegido para la construcción del modelo, optó por el mismo reconociendo las potencialidades que brinda para la construcción y visualización de modelos computacionales en tres dimensiones. No obstante, debido a que el software no revestía mayor complejidad en su manejo, y al parecer, contaban con un dominio del mismo, los estudiantes lograron concentrarse en aspectos propios de la conceptualización; de tal manera que la gran mayoría del tiempo se dedicaron a la discusión de las ecuaciones que permitían explicar el fenómeno estudiado, dando relevancia a su comprensión y a la coherencia con la representación gráfica del mismo. Al respecto, es importante resaltar que este modelo fue uno de los que pudo ser mejor visualizado por el grupo por la fácil interacción con el software y las valiosas características para el diseño de imagen. Universidad Católica de Pereira 38 Referencias [1] [2] [3] [4] Fig. 4. Modelo computacional construido con AutoCAD V. Conclusiones Conocer las dificultades con que se encuentran los estudiantes para crear representaciones sobre los conceptos de campo eléctrico y flujo eléctrico sugiere un planteamiento didáctico diferente para el abordaje de éstos en el aula de clase; siendo la modelación computacional una interesante alternativa, en la medida en que favorece la comprensión de conceptos científicos al ponerlos en juego en el proceso de construcción de modelos. Encontramos además que la tarea de construir modelos computacionales desde su estructura matemática, permitió a los estudiantes recrear la actividad de modelación científica, contrastando permanentemente la representación gráfica del concepto con el modelo teórico (matemático) que le otorga sentido; así como enfrentándose a la formulación de preguntas pertinentes sobre aspectos esenciales de la ley de Gauss y sus diferentes representaciones 3D. Este último aspecto merece ser destacado porque de forma tradicional el estudiante aprende solamente a dar respuestas correctas, y no se le enseña a desarrollar la destreza de formular preguntas. Aspecto que fue ampliamente favorecido por la interacción social que genera el trabajo en grupo y las discusiones que se dan a partir de las situaciones problema que dan lugar a la construcción de los modelos. Los resultados de este estudio dan cuenta de la pertinencia de las actividades de modelación computacional para involucrar a los estudiantes en procesos de modelación científica, dado que los libros de texto poco informan acerca de la necesidad de este proceso fundamental de la ciencia, impidiendo percibir el hacer científico y mostrando los modelos como simples representaciones simplificadas de los fenómenos [34]. Agradecimientos Agradecemos a la Universidad Cooperativa de Colombia por su apoyo y financiación en las diferentes etapas del proyecto de investigación que da lugar a este artículo como uno de los productos. Entre Ciencia e Ingeniería [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] C. Furió, and J. Guisasola, “Deficiencias epistemológicas en la enseñanza habitual de los conceptos de campo y potencial eléctrico”. Enseñanza de las ciencias, vol.15, no.2, pp. 259-271, 1997. A. Llancaqueo, M.C. Caballero, and M.A. Moreira, “El concepto decampo en el aprendizaje de la física y en la investigación en educación en ciencias”, Revista Electrónica de Enseñanza de las ciencias, vol.2, no.3, pp.227-253, 2003. E. Osorio, L. S. Mejía, J. A. Osorio, G. E. Campillo and R. Covaleda, “Análisis de la Enseñanza y el Aprendizaje del electromagnetismo en el Nivel Tecnológico y Universitario”, Revista Entre Ciencia e Ingeniería, Año 6, no 12, pp24-28, 2012. C. Furió, and J. Guisasola, “Dificultades de aprendizaje de los conceptos de carga y de campo eléctrico en estudiantes de bachillerato y universidad”. Enseñanza de las ciencias: revista de investigación y experiencias didácticas, 16(1), pp. 131-146, 1998. C. Furió, and J. Guisasola, “La enseñanza del concepto de “campo eléctrico” basada en un modelo de aprendizaje como investigación orientada”. Enseñanza de las ciencias: revista de investigación y experiencias didácticas, 19(2), pp. 319-334, 2001. M. Sandoval and C. Mora, “Modelos erróneos sobre la comprensión del campo eléctrico en estudiantes universitarios”, Lat. Am. J. Phys. Educ. Vol. 3, No. 3, Sept. 2009 J. Martín, and J. Solbes. “Diseño y evaluación de una propuesta para la enseñanza del concepto de “campo” en física. Enseñanza de las Ciencias, Vol. 19, pp. 393-403, 2001. S. Toulmin. “La comprensión humana: el uso colectivo y la evolución de los conceptos”. Madrid: Alianza, 1977. M. Bunge. “Teoría y Realidad”. Barcelona: Ediciones Ariel, 1972. M. Bunge. “La investigación científica”. Barcelona: Ariel, 1985. R. Giere. “Explaining Science. A cognitive approach”. Chicago: University Chicago Press, 1988. G. Bachelard. “La formación del espíritu científico”. México: Siglo XXI Editores, 1982. L. Grosslight, C. Unger, E. Jay, and C.L. Smith. “Understanding models and their use in science: Conceptions of middle and high school students and experts”. Journal of Research in Science teaching, 28(9), pp. 799-822, 1991. S.W. Gilbert. “Model building and a definition of science”. Journal of Research in Science Teaching, 28, pp. 73-79, 1991. I. Halloun. “Schematic Modeling for Meaningful learning of Physics”. Journal of Research in Science Teaching, 33, 9, pp. 10191041, 1996. I. Halloun. “Modeling Theory in Science Education”. Boston: Kluwer Academic Publishers, 2004. I.M. Greca, and M.A. Moreira. “Modelos mentales, modelos conceptuales y modelización”. Caderno Catarinense de Ensino de Física, 15 (2), pp. 107-120, 1997. M.A. Moreira, I.M. Greca, and M.L.R. Palmero. “Mental models and conceptual models in the teaching and learning of science”. Revista Brasileira de Investigação em Educação em Ciências, 2(3), pp. 8496, 2002. R. Justi, and J. Gilbert. “History and philosophy of science through models: some challenges in the case of’the atom”. International Journal of Science Education, 22(9), pp. 993-1009, 2000. R. Justi, and J. K. Gilbert. “Modelling, teachers’views on the nature of modelling, implications for the education of modellers”. International Journal of Science Education, 24(4), pp. 369-387, 2002. R. Justi, “La enseñanza de ciencias basada en la elaboración de modelos”. Enseñanza de las Ciencias, 24 (2), pp. 173–184, 2006. R. N. Giere. How models are used to represent reality. Philosophy of science, 71(5), 742-752, 2004. R. N. Giere. “An agent-based conception of models and scientific Representation”. Synthese, 172 (2), pp. 269-281, 2010. B. Y. White. “Computer Microworlds and Scientific Inquiry: An alternative approach to Science Education”, en Fraser, B. J. y Tobin, K. G., International Handbook of Science Education , Dordrecht, Kluwer Academic Publishers, pp. 295-315, 1998. A. Cupani, and M. Pietrocola “A relevancia da epistemologia de Mario Bunge para o ensino de ciencias”. Caderno Catarinense de Ensino de Física, 19 (número especial), pp. 96-120, 2002. 39 [26] I.S. Araujo, I.S. Araujo y M. A. Moreira. “Uma revisão da literatura sobre estudos relativos a tecnologias computacionais no ensino de Física”. Revista Brasileira de Pesquisa em Educação em Ciências, 4, 3, pp. 5-18, 2004. [27] S. López, A. E. Veit, y I.S. Araujo. “La modelación computacional con diagrama AVM en la formación de profesores de física: un aporte al desarrollo de una visión crítica sobre la ciencia y la modelación científica”. Revista Electrónica de Investigación en Educación en Ciencias, 9, 2, pp. 58-72, 2014. [28] J.T. Dillon. “The remedial status of student questioning”. Journal of Curriculum Studies, Basingstoke, v. 20, n. 3, pp. 197-210, 1988. [29] J. Otero, and A. Graesser. “Elements of a model of question asking. Cognition and Instruction”, Mahwah, 19(2), pp. 143-175, 2001. [30] B. Rosenshine, C. Meister and S. Chapman. “Teaching students to generate questions: a review of intervention studies”. Review of Educational Research, Washington, 66(2), pp. 181-221, 1996. [31] M. A. Moreira. “Aprendizaje significativo crítico”. Porto alegre: Instituto de Física, UFRGS, 2005. [32] M. Alonso and E. Finn, Física Campos y Ondas, Vol. II. Wilmington, Adisson-Wesley Iberoamericana, 1987, pp. 583-585. [33] F. Sears, M Zemansky, H. Young and R Freedman, Fisica Universitaria con Fisica Moderna, Undecima edicion, Vol. II. Mexico: Pearson Educacion, 2005, pp. 844-847. [34] G. Brockington and M. Pietrocola. “Serao as regras da transposicao didática aplicaveis aos conceitos de física moderna”. Investigacoes em Ensino de Ciencias, 10(3), pp. 387-404, 2005. Ángel Antonio Rojas García, nació en Icononzo Tolima, Colombia, el 21 de diciembre de 1959. Se graduó en Licenciatura de Matemáticas y Física en 1987 en la Facultad de Educación de la Universidad del Tolima en Ibagué. Especialista en Física, Universidad del Tolima en 1997. Magister en Ciencias de la Educación, Universidad Central de Chile en 2010. Candidato a Doctor en Ciencias en Física Educativa en el Instituto Politécnico Nacional de México en 2014. Se ha desempeñado como profesor de Física desde 1996 en la Universidad del Tolima y la Universidad Cooperativa de Colombia y su actual tema de interés e investigación es el diseño e implementación de herramientas computacionales para la enseñanza de la Física. Gustavo Alberto Atehortua Rico, nació en Ibagué Tolima, Colombia el 1 de Julio de 1972. Ingeniero Industrial Egresado de la Universidad de Ibagué. Especializado en gerencia de proyectos agroindustriales. Desde el año 1998 se desempeñó como docente universitario, coordinador y director de importantes instituciones como Redecomputo, Compusis de Colombia, Master Web e Imfeg. Instructor del SENA y miembro de los grupos de investigación SENAAGROTIC y DINAMOTIC. Se ha distinguido por la implementación de megaproyectos de comunicación y aplicación de diseños bidimensionales y tridimensionales interactivos de gran impacto. Mención de Honor como instructor del Ejército. Dairo Osorio, nació en Ibagué Tolima, Colombia, el 12 de Marzo de 1993. Estudiante de Ingeniería de Sistemas de la Universidad Cooperativa de Colombia sede Ibagué. Desde el año 2011 hace parte del grupo de Investigación GRUCEDI (Grupo Cooperativo en Experiencias Didácticas) en donde se tiene como tema de interés e investigación, el desarrollo de herramientas y estrategias didácticas para la enseñanza de la física. Sonia López Ríos, nació en Caramanta, Antioquia, Colombia, el 13 de agosto de 1977; se graduó como Licenciada en Matemáticas y Física en la Universidad de Antioquia en 2001 y Magíster en Educación de la misma Universidad en 2005. Doctora en Enseñanza de las Ciencias de la Universidad de Burgos en 2012. Se ha desempeñado como profesora de la Facultad de Educación de la Universidad de Antioquia desde el año 2006 y entre sus campos de interés se encuentra la modelación y simulación computacional en la enseñanza de la física. Cesar Eduardo Mora Ley, nació en Guadalajara Jalisco, México el 9 de Marzo de 1965. Licenciado en Física, en Enseñanza de las matemáticas, Facultad de ciencias Físico-Matemáticas, de la Universidad de Guadalajara, 1991. Maestría en Ciencias especialidad Física, Departamento de Física del CINVESTAV del IPN México, 1994. Doctor en Ciencias especialidad Física, Universidad Autónoma Metropolitana Iztapalapa, 2001. Se ha desempeñado como profesor de Matemáticas y Física desde 1994, Profesor Titular, CICATA-Legaria del IPN, desde 2005 hasta la fecha. Subdirector Académico del Cicata-Legaria, Entre sus campos de interés está la Relatividad general y la Mecánica Cuántica y la enseñanza de la Física en general, actualmente es coordinador de Postgrado en Física Educativa del CICATA-Legaria del IPN. Roland Márquez, nació en Ibagué Tolima, Colombia, el 8 de Mayo de 1991. Estudiante de Ingeniería de Sistemas de la Universidad Cooperativa de Colombia sede Ibagué. Desde el año 2012 hace parte del grupo de Investigación GRUCEDI (Grupo Cooperativo en Experiencias Didácticas) en donde se tiene como tema de interés e investigación, el desarrollo de herramientas y estrategias didácticas para la enseñanza de la física. Universidad Católica de Pereira 40 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 40-49 Análisis y clasificación de atributos de mantenibilidad del software: una revisión comparativa desde el estado del arte1 Analysis and classification of software maintainability attributes: a comparative review from the state of the art Análise e classificação de atributos de manutenção do software: uma revisão comparativa desde o estado da arte J.D. Erazo, A.S. Florez y F.J. Pino Recibido Septiembre 08 de 2015 – Aceptado Febrero 19 de 2016 Resumen-- Actualmente el mantenimiento de software es la etapa más costosa del ciclo de vida de dicho producto. Identificar los atributos que influyen sobre la mantenibilidad de software es un aspecto importante para conocer qué factores se podrían incluir durante el proceso de desarrollo con el fin de conseguir un producto altamente mantenible. En este sentido, el presente artículo ofrece una vista integral de diferentes atributos de mantenibilidad obtenidos a partir de la literatura y propone una clasificación de los mismos teniendo en cuenta: (i) las subcaracterísticas de mantenibilidad de ISO/IEC 25010 sobre las que influye, y (ii) el flujo de trabajo del desarrollo de software de RUP (Rational Unified Process) en los que se presenta. Como resultado de la investigación realizada se obtuvieron un total de 18 atributos clasificados de acuerdo a los criterios mencionados anteriormente, los cuales describen diferentes aspectos que se deben considerar cuando se pretende desarrollar un producto altamente mantenible. Los atributos de mantenibilidad y su clasificación, obtenidos en esta investigación han sido utilizados 1 Producto derivado del proyecto de grado en la modalidad de investigación “Modelo de referencia para la inclusión de sub-características de mantenibilidad al producto software durante el proceso de desarrollo”. Trabajo adscrito al Grupo de Investigación y Desarrollo en Ingeniería de Software de la Facultad de Ingeniería Electrónica y Telecomunicaciones de la Universidad del Cauca en Popayán – Cauca (Colombia). J.D. Erazo es Ingeniera de Sistemas de la Universidad del Cauca, Popayán - Cauca (Colombia); e-mail: [email protected] A.S. Florez es Ingeniero de Sistemas de la Universidad del Cauca, Popayán - Cauca (Colombia); e-mail: [email protected] F.J. Pino es profesor titular en la facultad de Ingeniería Electrónica y Telecomunicaciones de la Universidad del Cauca, Popayán - Cauca (Colombia); e-mail: [email protected] Entre Ciencia e Ingeniería en la realización de un modelo de referencia de procesos que apoya la inclusión de sub-características de mantenibilidad al producto software durante el proceso de desarrollo. Palabras clave----atributos de mantenibilidad, mantenibilidad de software, sub-características de mantenibilidad. Abstract--- Nowadays software maintenance is the most expensive stage in the life cycle of a software product. Identifying the attributes that influence software maintainability is an important aspect that will be useful when knowing the factors to be included during the development process in order to achieve a highly maintainable product. In this sense, this paper provides a comprehensive overview of the different maintainability attributes based on the literature, and proposes their classification taking into account the following items: (i) the maintainability sub-characteristics from the ISO/ IEC 25010 standard influenced by it, and (ii) the software development workflow of RUP (Rational Unified Process) in which it is presented. As a result of this research, a total of 18 attributes were obtained and classified, based on the criteria previously mentioned, which describe the different aspects to be considered when trying to develop a highly maintainable product. The maintainability attributes and the classification obtained in this research have been used to create a process reference model which supports the inclusion of maintainability sub-characteristics to the product during the software development process. Key words----maintainability attributes, software maintainability, maintainability sub-characteristics. 41 Resumo – Atualmente a manutenção de software é a etapa mais custosa do ciclo de vida do produto. Identificar os atributos influencia a capacidade de manutenção de software é um aspecto importante para conhecer que o fator poderia incluir durante o processo de desenvolvimento com o fim de conseguir um produto altamente manutenível. Nesse sentido, o presente artigo oferece uma vista integral de diferentes atributos de manutenção obtida as partir da literatura e propõe uma classificação dos mesmos tendo em conta: (i)as subcaracterísticas de manutenção de ISSO/IEC 25010 sobre as que influem e (ii) o fluxo de trabalho do desenvolvimento de software de RUP (Rational Unified Process) nos que se apresenta. Como resultado da investigação realizada se obteve um total de 18 atributos classificados de acordo aos critérios mencionados anteriormente, os quais descrevem diferentes aspectos que devem considerar quando se pretende desenvolver um produto altamente manutenível. Os atributos de manutenção e sua classificação, obtidos nessa investigação foram utilizados na realização de um modelo de referência de processos que apoiam a inclusão das sub-características de manutenção do produto software durante o processo de desenvolvimento. Palavras chave: atributos de manutenção, manutenção de software, sub- características de manutenção. I. Introducción L a mantenibilidad es uno de los atributos de calidad esenciales, ya que las tareas de mantenimiento consumen una gran proporción del esfuerzo total gastado en el ciclo de vida del software [1]. El costo de esta etapa consume entre el 50% y el 80% de los recursos del proyecto [2] y el 66% de los costos del ciclo de vida del software son invertidos en el mantenimiento del producto [3]. Además, el 61% del tiempo que dedican los programadores al desarrollo es invertido en la etapa de mantenimiento, y sólo el 39% es empleado en nuevos desarrollos [4]. Lo anterior refleja que la etapa de mantenimiento: (1) requiere el mayor porcentaje de los costos del ciclo de vida del software, (2) incrementa el esfuerzo realizado, (3) impide que una gran parte del tiempo sea utilizado para nuevos desarrollos. Dado que la etapa de mantenimiento genera altos costos durante el ciclo de vida del desarrollo de software, para facilitar su ejecución es conveniente tener en cuenta la característica de mantenibilidad de software. ISO/IEC 25010 [5] define la mantenibilidad como el grado de efectividad o eficiencia con la que un producto o sistema puede ser modificado. La mantenibilidad de software se descompone en una serie de atributos que pueden ser considerados durante diferentes etapas del proceso de desarrollo. ISO/IEC 25010 define atributo como propiedad inherente o característica de una entidad que puede ser distinguida cualitativa o cuantitativamente por medios humanos o automatizados. Estudios previos han demostrado que una de las causas de los problemas en el mantenimiento del software es que a menudo, la mantenibilidad no es una consideración importante durante las etapas de diseño e implementación de software [3]. Realizar más esfuerzo durante el ciclo de vida de desarrollo para hacer que el software sea mantenible puede reducir significativamente el total de los costos del software [6]. Por esto, es importante conocer los atributos de software que afectan a la mantenibilidad y relacionarlos con la(s) etapa(s) del proceso de desarrollo mediante la(s) cual(es) dichos atributos pueden ser incorporados en el producto software. De esta forma se podría lograr incluir las sub-características de mantenibilidad al producto software para conseguir un producto altamente mantenible. Esto apoyaría a reducir el esfuerzo de mantenimiento, lo que permitiría usar estos mismos recursos para realizar más cambios o lograr los mismos cambios con menos recursos [7]. En este sentido, el resultado principal de este artículo es ofrecer una vista integral de diferentes atributos de mantenibilidad obtenidos a partir de la literatura y una clasificación de los mismos teniendo en cuenta: (i) las subcaracterísticas de mantenibilidad de ISO/IEC 25010 sobre las que influye: capacidad para ser analizado, modularidad, capacidad para ser modificado, reusabilidad y capacidad para ser probado; y (ii) el flujo de trabajo del desarrollo de software de RUP (Rational Unified Process) en los que se presenta: Modelo de Negocio, requisitos, análisis y diseño, implementación, pruebas y despliegue. El objetivo es ofrecer a las entidades desarrolladoras de software los aspectos básicos que se deben tener en cuenta durante el proceso de desarrollo de software para incrementar la mantenibilidad del producto software. Este trabajo ha sido utilizado como base para la construcción de un modelo de referencia de procesos (MANTuS) que pretende apoyar la inclusión de sub-características de mantenibilidad al producto software durante el proceso de desarrollo. Además de la presente introducción, este artículo muestra en la sección 2 la estrategia de investigación utilizada para la clasificación de los atributos de mantenibilidad y los trabajos relacionados, en la sección 3 la unificación de conceptos relacionados con mantenibilidad, en la sección 4 la clasificación de atributos realizada, la sección 5 una vista general del Modelo de referencia de procesos y finalmente en la sección 6 conclusiones y trabajo futuro. II. Antecedentes A. Estrategia de investigación Para identificar los atributos software que influyen en la mantenibilidad del producto, se realizó una búsqueda en la literatura consultando bases de datos electrónicas, primero se seleccionaron las bases de datos para cumplir con los objetivos de la búsqueda acerca de la mantenibilidad de software. La biblioteca digital utilizada para realizar la investigación fue Google Scholar. Para realizar la búsqueda automática en la biblioteca digital seleccionada, se utilizó la cadena de búsqueda “software maintainability” AND “attribute”. La cadena contiene dos partes que incluyen Universidad Católica de Pereira 42 los conceptos necesarios para tener un gran alcance en la investigación acerca de los atributos de mantenibilidad del producto software. La primera parte está relacionada con los estudios que hacen referencia a la mantenibilidad del producto software, la segunda parte corresponde a las investigaciones que realizan estudios de atributos de mantenibilidad. Como resultado de esta búsqueda, se obtuvieron inicialmente diferentes factores, algunos de ellos mencionados en varios estudios, por lo que fue necesario asociar los conceptos encontrados para obtener un único concepto. Se encontraron 61 aspectos (factores, métricas, atributos) que influyen sobre esta característica. Después de realizar un análisis de la definición de estos aspectos, se observó que algunos de ellos no eran atributos de producto y otros estaban definidos como métricas, por lo cual no se tienen en cuenta en esta investigación. Por lo anterior, en total se encontraron 18 atributos software que se consideran en la clasificación final realizada. Posteriormente, estos atributos fueron clasificados teniendo en cuenta dos aspectos: las sub-características de mantenibilidad sobre las que influyen y los flujos de trabajo en los que se presenta. Para clasificarlas en cada una de las sub-características de mantenibilidad se realizó un análisis semántico teniendo en cuenta las definiciones tanto de los atributos encontrados como de las sub-características definidas en la norma ISO/IEC 25010 (modularidad, reusabilidad, capacidad para ser analizado, capacidad para ser modificado y capacidad para ser probado). Además, para clasificar estos atributos en la etapa de desarrollo en la que se presentan, se tuvieron en cuenta los flujos de trabajo definidos en RUP: Modelo de Negocio, requisitos, análisis y diseño, implementación, pruebas y despliegue. Para tener un criterio de clasificación se buscaron estudios donde se evidencia la relación entre el atributo con la subcaracterística de mantenibilidad y el flujo de trabajo al que ha sido asignado. B. Trabajos relacionados Algunos trabajos relacionados con la descripción de atributos de mantenibilidad que son relevantes en la literatura se presentan a continuación: • Factores claves que afectan la mantenibilidad de software. Kumar [6] afirma que la mantenibilidad de un producto software es afectada por principios de diseño y arquitectura, describe varios factores propuestos por diferentes investigadores en modelos de mantenibilidad de software, los cuales son de gran importancia en las evaluaciones de mantenibilidad. Entre estos factores se destacan: la estabilidad, facilidad de cambio, facilidad de análisis y facilidad de prueba, establecidos por la norma ISO 9126, y además de esto Kumar describe otros factores planteados por diferentes autores en [810], como: modularidad, documentación, facilidad de lectura, consistencia, simplicidad, capacidad de expansión, instrumentación, estandarización, lenguaje Entre Ciencia e Ingeniería de programación, nivel de validación y pruebas, complejidad, trazabilidad, algunas propiedades estructurales o de código y habilidades de equipo de mantenimiento. Anda [8] realiza un estudio empírico a partir del cual define diversos factores que afectan la mantenibilidad del software, entre los cuales se encuentran: elección de clases y nombre, diseño, patrones de diseño, arquitectura, componente, encapsulamiento, herencia, librerías, simplicidad, comentarios y plataforma técnica. Los factores mencionados en estos estudios son de vital importancia para esta investigación, ya que permiten conocer los aspectos primordiales que debe tener un producto software para lograr un alto nivel de mantenibilidad. • Impacto de atributos internos del producto software sobre la mantenibilidad. Kozlov et. al. [11] evalúan el impacto que tienen algunos atributos internos del producto software sobre la característica de mantenibilidad, obteniendo como resultado que el número de líneas de comentario y número de módulos influyen sobre la misma y además se encuentran otros factores que influyen negativamente sobre esta, tales como: número de líneas de código, tipos de datos globales y locales, número total de ítems de entrada y salida, y complejidad de interfaz de los métodos de clase. El conocimiento acerca de la influencia que tienen estos atributos de calidad internos sobre la mantenibilidad puede ser utilizado a favor durante el proceso de desarrollo. Estos resultados sirven como base para mejorar la mantenibilidad de software en etapas tempranas del proceso de desarrollo de software, lo cual presenta un gran aporte para esta investigación. • Modelo de atributos de mantenibilidad de software. Hashim y Key [9] proponen un modelo que resalta la necesidad de mejorar la calidad del producto software de tal forma que el mantenimiento sea eficiente. En el artículo se destacan problemas asociados con el mantenimiento los cuales se relacionan con las deficiencias de la forma en la que los sistemas son desarrollados, tales como: falta de trazabilidad, falta de documentación, mal diseño e implementación, herramientas de desarrollo y técnicas y lenguajes de programación inapropiados. Además se presentan algunos atributos de mantenibilidad, que coinciden con los expuestos en [6]. El principal aporte de este estudio es que expone los problemas más importantes asociados al mantenimiento, los cuales deben ser tenidos en cuenta en esta investigación para buscar soluciones y así aumentar la facilidad de mantenimiento del producto software. Aunque se puede ver que hay algunos trabajos relacionados con atributos de mantenibilidad de software, no se han encontrado estudios que realicen una clasificación de los mismos de acuerdo a las sub-características de mantenibilidad y el flujo de trabajo, el cual es el principal objetivo de esta investigación. 43 Tabla I. Definición unificada de los atributos de mantenibilidad identificados. Universidad Católica de Pereira 44 III. Unificación de conceptos de atributos de mantenibilidad En los estudios revisados, que se encuentran referenciados en la tercera columna de la Tabla I, se halló que algunos de ellos presentaban atributos de mantenibilidad similares, aunque no coincidían totalmente en el nombre o definición de los mismos, por lo que fue necesario estructurar un único concepto para cada atributo. Para la unificación de los conceptos se analizaron las definiciones de cada atributo expuestas en los artículos y posteriormente se tuvo en cuenta lo más relevante de cada uno de ellos, logrando así agruparlos en un único concepto. Como resultado de este análisis se obtuvieron 18 atributos con su respectiva definición, los cuales se presentan en la Tabla I. Incluir estos atributos al producto durante el proceso de desarrollo permite potenciar las sub-característica de mantenibilidad de dicho producto y mejorar las medidas de las métricas asociadas a las subcaracterísticas. IV. Clasificación de atributos por sub-características Y flujos de trabajo. Los atributos identificados anteriormente se clasificaron de acuerdo a dos aspectos: sub-características de mantenibilidad sobre las que influye y los flujos de trabajo en los que se presenta. Para realizar la clasificación por sub-caracteristicas de mantenibilidad fue necesario hacer una comparación entre las sub-características de mantenibilidad presentadas por las normas ISO/IEC 9126-1 [22] e ISO/IEC 25010 [5]. La mantenibilidad de software presenta diferentes subcaracterísticas, de acuerdo a la norma ISO/IEC 9126-1 esta se divide en cinco sub-características: capacidad para ser analizado (Analysability), capacidad para ser cambiado (Changeability), estabilidad (Stability), capacidad para ser probado (Testability) y cumplimiento de la mantenibilidad (Compliance). Por otra parte la norma ISO/IEC 25010 divide la mantenibilidad en cinco características: modularidad (Modularity), reusabilidad (Reusability), capacidad para ser analizado (Analysability), capacidad para ser modificado (Modifiability) y capacidad para ser probado (Testability). Debido a que la norma ISO/IEC 25010 se deriva de la ISO/IEC 9126, al realizar la comparación entre las subcaracterísticas definidas por estas dos normas se encuentra que la capacidad para ser analizado y la capacidad para ser probado se presentan en las dos normas. Además la subcaracterística capacidad para ser modificado presentada en ISO/IEC 25010 es la combinación de las sub-características capacidad para ser cambiado y estabilidad, presentadas en la norma ISO/IEC 9126-1. Por último, la norma ISO / IEC 25010 incluye dos nuevas sub-características a la mantenibilidad: modularidad y reusabilidad. Es por esto que las sub-características que se tuvieron en cuenta para realizar la clasificación de los atributos son las definidas en la norma ISO/IEC 25010. Entre Ciencia e Ingeniería Con el fin de clasificar estos atributos en cada una de las sub-características de mantenibilidad se realizó un análisis semántico teniendo en cuenta las definiciones tanto de los atributos encontrados como de las sub-características definidas en la norma ISO/IEC 25010. Además, para clasificar estos atributos en la etapa de desarrollo en la que se presentan, se tuvieron en cuenta los flujos de trabajo definidos en RUP: Modelo de Negocio, requisitos, análisis y diseño, implementación, pruebas y despliegue. Los resultados obtenidos se presentan en la Tabla II. Para tener un criterio de clasificación se buscaron estudios donde se evidencia la relación entre el atributo con la subcaracterística de mantenibilidad y el flujo de trabajo al que ha sido asignado. Debido a que la relación de algunos atributos con las sub-características de mantenibilidad no fue encontrada en la literatura revisada, para estos casos se hizo un análisis por parte de los investigadores basándose en las definiciones tanto de los atributos como de las subcaracterísticas. A continuación se presenta como ejemplo el análisis realizado para algunos atributos (acoplamiento, cohesión, documentación, estandarización y trazabilidad). El análisis de los demás atributos de mantenibilidad se encuentra en [23]. Acoplamiento: En [24] se afirma que el acoplamiento en los sistemas software tiene un fuerte impacto negativo en la calidad de software y por lo tanto se debe mantener al mínimo durante la etapa de diseño. En [25] el autor se refiere al acoplamiento como propiedad de diseño. En [26] el autor se refiere al acoplamiento como un concepto integral de diseño. En [27] se indica que el acoplamiento ha sido identificado como uno de las propiedades básicas de la calidad del diseño del software. En [28] se afirma que el acoplamiento es un factor de calidad muy importante para el diseño y la implementación orientada a objetos. En [29] se evidencia que el acoplamiento debe ser considerado durante el diseño, porque se afirma que es una de las características importantes que brinda eficiencia al diseño en la orientación a objetos. En este estudio también se indica que al aumentar el acoplamiento también aumenta la complejidad del diseño, lo que hace que se necesite mayor esfuerzo para realizar las pruebas reduciendo así la capacidad para ser probado del diseño, lo cual demuestra que hay relación entre el acoplamiento y esta sub-característica. En [30] se demuestra que existe relación entre el acoplamiento con la capacidad para ser analizado y la reusabilidad del software, porque se dice que un bajo acoplamiento mejora estas dos sub-características. En [31] se afirma que el acoplamiento excesivo entre las clases de un sistema afecta la modularidad del mismo y también que la medida del acoplamiento es un buen indicador de la capacidad para ser probado. En [32] se realiza un estudio donde se concluye que la métrica de acoplamiento entre objetos presenta correlación con la sub-característica de mantenibilidad capacidad para ser modificado. En [33, 34] se muestra que el acoplamiento se relaciona con la capacidad para ser modificado, la capacidad para ser probado y la reusabilidad del sistema, ya que se 45 dice que cuando el acoplamiento aumenta la reusabilidad disminuye y se hace más difícil modificar y probar el sistema. del mismo y con esto la capacidad para ser analizado y modificado. Cohesión: En [29] se afirma que la cohesión es una característica importante que ayuda a la eficiencia del diseño. En [25] el autor se refiere a la cohesión como propiedad de diseño. En [35] el autor habla de la cohesión como un atributo de diseño más que de código y un atributo que puede ser usado para predecir las propiedades de implementación como “facilidad de depuración, facilidad de mantenimiento y facilidad de modificación”. En [36] se dice que la cohesión es una de las propiedades de diseño más importantes. En [26] se argumenta que en el diseño orientado a objetos la cohesión en un gran beneficio, además el autor se refiere a la cohesión como un concepto integral de diseño. En [27] se indica que la cohesión ha sido identificada como uno de las propiedades básicas de la calidad del diseño del software. En [28] se afirma que la cohesión es un factor de calidad muy importante para el diseño y la implementación orientada a objetos. En [30] se afirma que una alta cohesión aumenta la capacidad para ser modificado y la modularidad del sistema. En el estudio [32] se concluye que la métrica falta de cohesión en métodos presenta correlación con la sub-característica de mantenibilidad capacidad para ser modificado. En [31, 37] se evidencia que la cohesión influye en la reusabilidad, ya que se dice que cuando hay alta cohesión los componentes tienden a tener alta mantenibilidad y reusabilidad. En [38] se afirma que cuanto menor es la cantidad de acoplamiento y la complejidad de los componentes y más alta sea la cohesión más fácil será la capacidad para ser analizado, la estabilidad y la capacidad para ser probado del producto software. En [39] indican que se ha demostrado que las métricas de la cohesión son buenos predictores de la capacidad para ser probado, al encontrar una correlación clara entre ellas. Facilidad de lectura: en [43] se afirma que debido a que la facilidad de lectura puede afectar la calidad del software, los programadores deben preocuparse por ella. En [44] se dice que se debe inspeccionar la facilidad de lectura del código fuente para asegurar la mantenibilidad, portabilidad y reusabilidad del software. En [45] se enuncia que la facilidad de lectura afecta la capacidad para ser analizado del software, ya que simplifica el trabajo de identificar las modificaciones que se requieren hacer al sistema. En [46] se expone que la facilidad de lectura mejora la facilidad para ser entendido de un componente, lo cual mejora la capacidad para ser analizado y también la capacidad para ser cambiado del mismo. Documentación: en [40] se afirma que los documentos de diseño son una fuente de información importante, especialmente cuando los sistemas entran en la fase de mantenimiento. En [41] se dice que las metodologías típicas del desarrollo orientado a objetos requieren que se documente el análisis, el diseño arquitectural o a alto nivel y el diseño a bajo nivel. En [3] se dice que en la industria del software es necesario mantener una trazabilidad bidireccional durante todo el ciclo de vida de los sistemas software y también se afirma que es un aspecto importante para la facilidad de entendimiento y capacidad de ser modificado del software. En [30] se indica que la documentación contribuye a capacidad para ser analizado, la capacidad para ser modificado y la reusabilidad del software. En [42] se dice que la documentación es un factor importante para la sub-característica capacidad para ser probado ya que en las pruebas es importante tener documentación clara de los requerimientos y especificaciones. Trazabilidad: en [47, 48] se define la trazabilidad como una característica que se debe tener en cuenta en la especificación de los requisitos del software e indican que esta área permanece como un problema ampliamente reportado debido a que no hay un análisis de las fuentes de requerimientos utilizadas en los desarrollos de software. En [49] se afirma que en el proceso de desarrollo de software, la trazabilidad y evolución de los requisitos es uno de los factores más relevantes para lograr software fiable y exacto. En [40] se señala que un diseño es considerado de mayor calidad siempre que se mantenga la trazabilidad con el código. Como el diseño representa una abstracción de la implementación, se espera que las clases en el diseño estén representadas en el código. En [50] se indica que los vacíos en la trazabilidad, como características de información ausentes reducen la capacidad para ser modificado y la variabilidad de los componentes. Además de esto en el estudio se encuentra que varias características como la capacidad para ser analizado dependen de la trazabilidad de artefactos para análisis de impacto o comprensión del programa. A continuación se presenta la Tabla II donde se encuentra la síntesis del análisis y clasificación realizados de los atributos de mantenibilidad. Esta tabla contiene el nombre de los atributos de mantenibilidad, la fuente de donde se obtuvieron, las cinco sub-características definidas por la norma ISO/IEC 25010 [5] con las que se relacionan, que se pueden identificar con (+) el cual indica que la relación está justificada por la literatura y con (-) el cual indica que la relación es justificada por un análisis realizado por los investigadores basándose en las definiciones tanto de los atributos como de las sub-características y por último los nombres de los flujos de trabajo definido por RUP en los que se presenta. Estandarización: ya que este atributo implica tener un conjunto de estándares de programación definidos se evidencia que es importante considerarlo durante la etapa de implementación, además este puede mejorar la facilidad de lectura del código fuente, la facilidad de entendimiento Universidad Católica de Pereira 46 Tabla II Clasificación de los atributos por sub-características de mantenibilidad y flujos de trabajo Entre Ciencia e Ingeniería 47 V. Modelo de referencia mantus El trabajo realizado previamente ha sido la base para la creación de un modelo de referencia de procesos denominado MANTuS, el cual pretende especificar, en términos de sus propósitos y sus resultados, un conjunto de procesos que permitan incluir atributos de mantenibilidad al producto software con el fin de potenciar esta característica y que sean aplicables en el contexto de empresas desarrolladoras de software. Debido a restricciones de espacio, a continuación se presenta una vista general de este modelo de referencia. El modelo completo y en detalle se puede encontrar en [23]. El Modelo de Referencia MANTuS asume que la mantenibilidad de software es un aspecto fundamental del producto que debe ser considerado desde el inicio del ciclo de vida del mismo. Es por esto que se establecen los siguientes seis procesos (ver Fig. 1): Análisis de requisitos de software desde la perspectiva de mantenibilidad, diseño arquitectural de software desde la perspectiva de mantenibilidad, Diseño detallado de software desde la perspectiva de mantenibilidad, Construcción de software desde la perspectiva de mantenibilidad, Pruebas de evaluación de software desde la perspectiva de mantenibilidad, Gestión de la documentación desde la perspectiva de mantenibilidad. En la Fig. 1 se presenta la vista general de los procesos que conforman el modelo de referencia, se observa que estos procesos son independientes y que el proceso de gestión de la documentación desde la perspectiva de mantenibilidad es transversal a los otros, ya que éste es un proceso de soporte que puede ser ejecutado durante los otros cinco procesos. La vista general del modelo de referencia combina y sintetiza las prácticas base definidas en los procesos de todas las subcaracterísticas de mantenibilidad. Vi. Conclusiones y trabajo futuro En este estudio se han identificado un total de 18 atributos que se involucran en la mantenibilidad del software, los cuales han sido clasificados de acuerdo a las subcaracterísticas de mantenibilidad sobre las que influyen y el flujo de trabajo en los que se presenta. Esto con el fin de facilitar la identificación de los factores que se deben incluir en el producto software durante el proceso de desarrollo para conseguir un producto con alta mantenibilidad. Además de esto, de acuerdo a la clasificación obtenida se observa que la mayoría de los atributos identificados se presentan durante el flujo de trabajo: Análisis y diseño. También se observó que los atributos que influyen sobre el mayor número de sub-características de mantenibilidad son: acoplamiento, cohesión, complejidad, documentación, encapsulamiento, facilidad de entendimiento, herencia, simplicidad y tamaño. De igual forma, se puede notar que los atributos consistencia, documentación y trazabilidad se presentan en todos los flujos de trabajo, por lo cual deben ser considerados durante todo el proceso de desarrollo. Teniendo en cuenta la clasificación de atributos de mantenibilidad presentada en este artículo, se construyó el Modelo de Referencia MANTuS el cual presenta procesos generales donde se agrupan todas las prácticas base definidas para cada una de las sub-características de mantenibilidad. Con este modelo de referencia se podrían disminuir los costos de mantenimiento durante el proceso de desarrollo y además las empresas podrían utilizarlo con el fin de obtener la certificación en mantenibilidad realizado por AQC Lab [51]. Agradecimientos Los autores agradecen al Programa de Ingeniería de Sistemas de la Universidad del Cauca. Francisco J. Pino agradece a la Universidad del Cauca donde trabaja como profesor titular. Referencias [1] J. M. Conejero, E. Figueiredo, A. Garcia, J. Hernández, and E. Jurado, “On the relationship of concern metrics and requirements maintainability,” Information and Software Technology, vol. 54, pp. 212-238, 2012. [2] C. E. H. Chua, S. Purao, and V. C. Storey, “Developing maintainable software: The Readable approach,” Decision Support Systems, vol. 42, pp. 469-491, 2006. [3] J.-C. Chen and S.-J. Huang, “An empirical analysis of the impact of Fig. 1. Vista general del modelo de referencia (ARS= Análisis de requisitos de software, DAS= diseño arquitectural de software, DDS= diseño detallado de software, CS= construcción de software, PES= pruebas de evaluación de software) Universidad Católica de Pereira 48 software development problem factors on software maintainability,” Journal of Systems and Software, vol. 82, pp. 981-992, 2009. [4] F. J. Pino, F. Ruiz, F. García, and M. Piattini, “A software maintenance methodology for small organizations: Agile MANTEMA,” Journal Of Software Maintenance And Evolution: Research And Practice, vol. 24, pp. 851-876, 2011. [5] I. S. Organization, “ISO/IEC 25010,” in Systems and software engineering - Systems and software Quality Requirements and Evaluation (SQuaRE) - System and Software Quality Models, ed, 2011. [6] B. Kumar, “A survey of key factors affecting software maintainability,” in 2012 International Conference on Computing Sciences, 2012, pp. 261-266. [7] E. B. Swanson, “IS “maintainability”: should it reduce the maintenance effort?,” ACM SIGMIS Database, vol. 30, pp. 65-76, 1999. [8] B. Anda, “Assessing software system maintainability using structural measures and expert assessments,” in Software Maintenance, 2007. ICSM 2007. IEEE International Conference on, 2007, pp. 204-213. [9] K. Hashim and E. Key, “A software maintainability attributes model,” Malaysian Journal of Computer Science, vol. 9, pp. 92-97, 1996. [10] K. Aggarwal, Y. Singh, P. Chandra, and M. Puri, “Measurement of software maintainability using a fuzzy model,” Journal of Computer Science, vol. 1, p. 538, 2005. [11] D. Kozlov, J. Koskinen, M. Sakkinen, and J. Markkula, “Assessing maintainability change over multiple software releases,” Journal of Software Maintenance and Evolution, vol. 20, pp. 31-58, 2008. [12] A. Yamashita and L. Moonen, “Do code smells reflect important maintainability aspects?,” in Software Maintenance (ICSM), 2012 28th IEEE International Conference on, 2012, pp. 306-315. [13] M. Perepletchikov, C. Ryan, K. Frampton, and Z. Tari, “Coupling metrics for predicting maintainability in service-oriented designs,” in Proceedings of the 2007 Australian Software Engineering Conference (ASWEC‘07), 2007, pp. 329-338. [14] R. Baggen, J. P. Correia, K. Schill, and J. Visser, “Standardized code quality benchmarking for improving software maintainability,” Software Quality Journal, vol. 20, pp. 287-307, 2012. [15] S. C. Misra, “Modeling design/coding factors that drive maintainability of software systems,” Software Quality Journal, vol. 13, pp. 297-320, 2005. [16] P. Oman and J. Hagemeister, “Metrics for assessing a software system’s maintainability,” in Software Maintenance, 1992. Proceerdings., Conference on, 1992, pp. 337-344. [17] W. Hordijk and R. Wieringa, “Surveying the factors that influence maintainability: research design,” in ACM SIGSOFT Software Engineering Notes, 2005, pp. 385-388. [18] M. Riaz, E. Mendes, and E. Tempero, “A systematic review of software maintainability prediction and metrics,” in Proceedings of the 2009 3rd International Symposium on Empirical Software Engineering and Measurement, 2009, pp. 367-377. [19] I. Heitlager, T. Kuipers, and J. Visser, “A practical model for measuring maintainability,” in Proceedings of the 6th International Conference on Quality of Information and Communications Technology, 2007, pp. 30-39. [20] K. D. Welker, “The software maintainability index revisited,” CrossTalk, pp. 18-21, 2001. [21] K. K. Aggarwal, Y. Singh, and J. K. Chhabra, “An integrated measure of software maintainability,” in Reliability and maintainability symposium, 2002. Proceedings. Annual, 2002, pp. 235-241. [22] I. S. Organization, “ISO/IEC 9126-1,” in Software Engineering – Product Quality – Part 1: Quality Model, ed, 2001. [23] “Modelo de referencia para la inclusión de sub-características de mantenibilidad al producto software durante el proceso de desarrollo,” Pregrado, Ingenieria de sistemas, Universidad del Cauca, Popayán, 2014. [24] F. Brito e Abreu and W. Melo, “Evaluating the impact of objectoriented design on software quality,” in Software Metrics Symposium, 1996., Proceedings of the 3rd International, 1996, pp. 90-99. [25] M. Sefika, A. Sane, and R. H. Campbell, “Monitoring compliance of a software system with its high-level design models,” in Proceedings of the 18th international conference on Software engineering, 1996, pp. 387-396. [26] R. Subramanyam and M. S. Krishnan, “Empirical analysis of ck Entre Ciencia e Ingeniería metrics for object-oriented design complexity: Implications for software defects,” Software Engineering, IEEE Transactions on, vol. 29, pp. 297-310, 2003. [27] E. Capra, C. Francalanci, and F. Merlo, “An empirical study on the relationship between software design quality, development effort and governance in open source projects,” Software Engineering, IEEE Transactions on, vol. 34, pp. 765-782, 2008. [28] L. Etzkorn and H. Delugach, “Towards a semantic metrics suite for object-oriented design,” in Technology of Object-Oriented Languages and Systems, 2000. TOOLS 34. Proceedings. 34th International Conference on, 2000, pp. 71-80. [29] S. Khalid, S. Zehra, and F. Arif, “Analysis of object oriented complexity and testability using object oriented design metrics,” in Proceedings of the 2010 National Software Engineering Conference, 2010, p. 4. [30] F. Zhang, A. Mockus, Y. Zou, F. Khomh, and A. E. Hassan, “How does Context Affect the Distribution of Software Maintainability Metrics?,” in Software Maintenance (ICSM), 2013 29th IEEE International Conference on, 2013, pp. 350-359. [31] M. Badri, L. Badri, and F. Touré, “Empirical Analysis of ObjectOriented Design Metrics: Towards a New Metric Using Control Flow Paths and Probabilities,” Journal of Object Technology, vol. 8, pp. 123-142, 2009. [32]M. Ajrnal Chaumun, H. Kabaili, R. K. Keller, F. Lustman, and G. Saint-Denis, “Design properties and object-oriented software changeability,” in Software Maintenance and Reengineering, 2000. Proceedings of the Fourth European, 2000, pp. 45-54. [33] P. S. Sandhu and H. Singh, “A Reusability Evaluation Model for OOBased Software Components,” International Journal of Computer Science, vol. 1, pp. 259-264, 2006. [34] P. S. Sandhu, P. Blecharz, and H. Singh, “A Taguchi approach to investigate impact of factors for reusability of software components,” Transactions on Engineering, Computing and Technology, vol. 19, pp. 135-140, 2007. [35] J. M. Bieman and B.-K. Kang, “Measuring design-level cohesion,” Software Engineering, IEEE Transactions on, vol. 24, pp. 111-124, 1998. [36] H. Kabaili, R. K. Keller, and F. Lustman, “Cohesion as changeability indicator in object-oriented systems,” in Software Maintenance and Reengineering, 2001. Fifth European Conference on, 2001, pp. 39-46. [37] K. Sirbi and P. J. Kulkarni, “Impact of Aspect Oriented Programming on Software Development Quality Metrics,” Global Journal of Computer Science and Technology, vol. 10, 2010. [38] G. Shahmohammadii and S. Jaliliii, “A Quantitative Evaluation of Maintainability of Software Architecture Styles.” [39] M. Ó. Cinnéide, D. Boyle, and I. H. Moghadam, “Automated refactoring for testability,” in Software Testing, Verification and Validation Workshops (ICSTW), 2011 IEEE Fourth International Conference on, 2011, pp. 437-443. [40] G. Antoniol, B. Caprile, A. Potrich, and P. Tonella, “Design code traceability for object oriented systems,” Annals of Software Engineering, vol. 9, pp. 35-58, 2000. [41] L. C. Briand, “Software documentation: how much is enough?,” in Software Maintenance and Reengineering, 2003. Proceedings. Seventh European Conference on, 2003, pp. 13-15. [42] M. Bruntink and A. Van Deursen, “Predicting class testability using object-oriented metrics,” in Source Code Analysis and Manipulation, 2004. Fourth IEEE International Workshop on, 2004, pp. 136-145. [43] D. Posnett, A. Hindle, and P. Devanbu, “A simpler model of software readability,” in Proceedings of the 8th Working Conference on Mining Software Repositories, 2011, pp. 73-82. [44] R. P. Buse and W. R. Weimer, “Learning a metric for code readability,” Software Engineering, IEEE Transactions on, vol. 36, pp. 546-558, 2010. [45] A. B. Al-Badareen, Z. Muda, M. A. Jabar, J. Din, and S. Turaev, “Software quality evaluation through maintenance processes,” in NAUN Conference of CONTROL, 2010. [46] M. Ilyas, M. Abbas, and K. Saleem, “A Metric Based Approach to Extract, Store and Deploy Software Reusable Components Effectively,” IJCSI International Journal of Computer Science Issues, vol. 10, pp. 257-264, 2013. [47] L. Antonelli and A. Oliveros, “Fuentes Utilizadas por desarrolladores 49 [48] [49] [50] [51] de Software en Argentina para Elicitar Requerimientos,” in WER, 2002, pp. 106-116. R. L. Antonelli and A. Oliveros, “Traceability en la Etapa de Elicitación de Requerimientos,” in II Workshop de Investigadores en Ciencias de la Computación, 2000. O. C. Gotel and A. C. Finkelstein, “An analysis of the requirements traceability problem,” in Requirements Engineering, 1994., Proceedings of the First International Conference on, 1994, pp. 94101. R. Brcina, S. Bode, and M. Riebisch, “Optimisation process for maintaining evolvability during software evolution,” in Engineering of Computer Based Systems, 2009. ECBS 2009. 16th Annual IEEE International Conference and Workshop on the, 2009, pp. 196-205. (22-03-2014). AQC Lab: Laboratorio de Evaluación de la Calidad Software. Available: http://www.alarcosqualitycenter.com/index.php/ laboratorio-evaluacion-calidad-software. Jennifer Erazo Martínez nació en Popayán, Cauca, Colombia. Es Ingeniera de Sistemas de la Universidad del Cauca. Andrés Flórez Gómez nació en Popayán, Cauca, Colombia. Es Ingeniero de Sistemas de la Universidad del Cauca. Francisco J. Pino, Nació en Almaguer, Cauca, Colombia. Es ingeniero en Electrónica y Telecomunicaciones de la Universidad del Cauca. Obtuvo su título de especialista en Redes y Servicios Telemáticos también en la Universidad del Cauca. Obtuvo su doctorado en Tecnologías Informáticas Avanzadas en la Universidad Castilla-La Mancha, de Ciudad Real, España. Actualmente se desempeña como profesor de planta en la facultad de Ingeniería Electrónica y Telecomunicaciones de la Universidad del Cauca. Pertenece grupo al grupo de investigación IDIS y su área de investigación es mejora de procesos de software en pequeñas organizaciones y métodos de investigación cualitativos para la ingeniería de software. Universidad Católica de Pereira 50 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 50-60 Poligonación topográfica de alta precisión en el campus de la Universidad del Quindío1 Topographic traversing of high accuracy inside the campus of Universidad del Quindío Poligonacao topográfica de alta precisão no campus da Universidad del Quindío J. Garzón, G. Jiménez y X. Cifuentes Recibido Agosto 26 de 2015 – Aceptado Febrero 19 de 2016 Resumen— Este trabajo describe el procedimiento de diseño, monumentación y medición de un sistema de poligonación al interior del campus de la Universidad del Quindío, con instrumental clásico, que servirá como marco de referencia para el soporte de los trabajos topográficos y cartográficos de la institución, bajo requisitos técnicos que soporten sus precisiones relativa y absoluta, a través de coordenadas determinadas sobre el sistema de referencia horizontal para Colombia: Datum MAGNA-SIRGAS. La metodología se estructuró bajo la Teoría de Errores, definiendo el límite de las incertidumbres esperadas en función de las características técnicas de los instrumentos de medida, la configuración geométrica del polígono, los métodos y diseños de medición. Se lograron hallazgos interesantes en términos de la propagación del error y sus elipses, debido a que sus magnitudes, formas y orientaciones definieron la dirección de fortalecimiento geométrico del marco de referencia. Palabras clave— diseño, mediciones topográficas, incertidumbre, instrumentación, poligonación, propagación de errores. 1 Producto derivado del proyecto de investigación “Diseño red topográfica de alta precisión en el Campus de la universidad del Quindío”. Trabajo adscrito al Grupo de Investigación GEIOIDE G-62, de la Facultad de Ingeniería – Programa de Topografía de la Universidad del Quindío Armenia - Colombia. J. Garzón. Profesor investigador grupo GEOIDE G-62 (Universidad del Quindío) y Gerencia de la Tierra (Universidad La Gran Colombia). Armenia (Colombia) Campus La Santa María km 7 vía Armenia - La Tebaida (Colombia); email: [email protected] G. Jiménez. Profesor investigador, Universidad del Quindío, Facultad de Ingeniería, Programa de Topografía, grupo GEOIDE G-62 (Universidad del Quindío). Armenia - Colombia. Carrera 15 Calle 12 N; email: gjcleves@ uniquindio.edu.co X. Cifuentes. Universidad La Gran Colombia, Decana Facultad de Ingenierías, Profesor investigador grupo Gerencia de la Tierra. Armenia (Colombia) Campus La Santa María km 7 vía Armenia - La Tebaida (Colombia); email: [email protected] Entre Ciencia e Ingeniería Abstract— This article describes the design procedure, monumentation and measuring system traversing inside the campus of Universidad del Quindío, with classical instruments, which is used as a framework to support the surveying and mapping work of the institution, under technical requirements to support their relative and absolute precision through coordinates determined on the horizontal reference system for Colombia: Datum MAGNA-SIRGAS. The methodology was structured under the theory of errors, defining the limit of the uncertainties expected in terms of the technical characteristics of measuring instruments, the geometry of the polygon, and designs of measurement methods. Interesting findings were obtained in terms of error propagation and ellipses, because of their magnitudes, shapes and orientations defined the direction of strengthening the geometric framework. Key words— design, topographic surveying, uncertainty, instrumentation, traversing, error propagation. Resumo – Este trabalho descreve o procedimento de projeção, monumentation e medição de um sistema de poligonação ao interior do campus de a Universidade de Quindío, com instrumental clássico, que servira como um quadro de referência para o suporte dos trabalhos topográficos e cartográficos da instituição, sob-requisitos técnicos que suportem suas precisões relativa e absoluta, através de coordenadas determinadas sobre o sistema de referencia horizontal para Colômbia: Datum MAGNA-SIRGAS. A metodologia se estruturou sob a Teoria de Erros, definindo o limite das incertezas esperadas em função das características técnicas dos instrumentos de medida, a configuração geométrica do polígono, os métodos e projetos de medição. Alcançaram resultados interessantes em términos da propagação do erro e suas elipses, devido a suas magnitudes, formas e orientações definiram a direção de fortalecimento geométrico do quadro de referência. Palavras chave: projeto, medições topográficas, incerteza, instrumentação, poligonação, propagação de erros. 51 Nomenclatura s : Desviación estándar norte s : Desviación estándar este φ: Latitud λ: Longitud s.my: Semieje mayor s.mr: Semieje menor N E I. Introducción E L desarrollo de la Teoría de Errores se atribuye a Gauss quien publicó los tratados ‘Theoria motus corporun Coelestium’ en 1809 y ‘Theoria combitationis observationum erroribus obnoxiae’ en 1823, donde se define su aplicación práctica llegando a la deducción que los gobierna y que hoy lleva su nombre [1]. Los procedimientos topográficos implican el uso de principios físicos y matemáticos, la selección apropiada de éstos depende en gran parte del conocimiento de los fundamentos de la medición topográfica, así como del análisis de sus resultados [2]. Se sabe que toda magnitud observada o medida contiene errores de cuantía desconocida debido a múltiples causas, por lo cual una medida nunca es realmente verdadera [3], [4]. La determinación numérica de la medida de una magnitud física siempre se encuentra sujeta a error, que se pone de manifiesto al obtener diferentes resultados de la misma medida. [5] señala que las mediciones repetidas de una magnitud dada por un mismo observador, con un mismo instrumento y en circunstancias análogas no conducen siempre a un mismo resultado, estas observaciones están afectadas por errores atribuidos a los agentes que concurren a la medición: el observador, el instrumento y las condiciones ambientales. De acuerdo con lo indicado por [6] [7] [8], los errores en la medición se pueden agrupar en tres categorías: equivocaciones, errores sistemáticos y errores aleatorios; los primeros resultan de descuidos en las observaciones, los segundos se originan de fuentes que actúan de forma similar en las observaciones, se rigen por las leyes de la física por lo que su magnitud puede calcularse y su efecto eliminarse, y los últimos permanecen en la medida y se desconoce su valor, obedecen a las leyes de la probabilidad y se tratan mediante procesos estadísticos [9] [10] [11]. De acuerdo a las fuentes, los errores se categorizan como: instrumentales, personales y naturales [12] [13] [14] [15]. Los errores instrumentales son causados por las imperfecciones en la construcción y ajuste de los instrumentos, así como por el excesivo movimiento de sus piezas individuales [16], [17]. Los errores personales provienen de la limitación de los sentidos humanos, y los naturales tienen su origen en las variaciones de las condiciones ambientales de la medida [18]. Existen dos métodos para reducir y eliminar errores: el primero es mejorar la precisión del instrumental de medición y el segundo, adoptar una apropiada rutina de medición [19]. La evolución de la topografía en las últimas décadas no solo ha incidido en los instrumentos de medición, sino en la incorporación de nuevos términos que han permitido que la ciencia de la metrología defina con claridad conceptos como el de incertidumbre. Según [20] “la incertidumbre es un parámetro asociado al resultado de una medición, que caracteriza la dispersión de los valores que podrían ser razonablemente atribuidos al mensurando”. En topografía se considera que el elemento fundamental de los trabajos de campo es el punto, y es a partir de su definición que se da la existencia de los sistemas de apoyo geométricos por medio de las poligonales que se definen como una serie consecutiva de puntos ligados entre sí a partir de observación de ángulos y distancias [21] [22] [23]. Las técnicas de poligonación incluyen: el reconocimiento de campo, selección del instrumental de medición, observaciones de campo, cálculo y ajuste [24]. Al igual que con cualquier técnica topográfica la incertidumbre de una poligonal se propaga directa y acumulativamente en el punto final de la medición, esta incertidumbre es atribuible al diseño de la red, el número de armadas del instrumento, los procedimientos de medición empleados y la longitud de la poligonal, se hace entonces necesario, examinar la incertidumbre de las restricciones mínimas del ajuste (elipse de error), y la incertidumbre relativa (desviaciones estándar, errores de cierre lineales) de forma que permitan evaluar la calidad de las mediciones [25]. Se ha demostrado que los criterios de fiabilidad y resistencia geométrica de las poligonales son altamente correlacionados [26]. La poligonación han sido ampliamente usada en diversos proyectos de ingeniería topográfica como elemento fundamental en la mediciones para control de obras civiles y ubicación de objetos sobre mapas [27] [28] soporte geométrico para medición planimétrica de terrenos [29] control de deformaciones estructurales [30] proyectos de desarrollo vial [31] túneles [32] delimitación predial [33] densificación de redes geodésicas [34], así como trabajos mineros y geológicos [35] [36] [37]. La oficina de Planeación y Desarrollo de la universidad tiene entre sus funciones planificar el crecimiento y adecuación del campus, lo que la convierte en el principal usuario de la información topográfica a nivel institucional; esta dependencia es la unidad responsable del soporte físicomatemático de la información topográfica y cartográfica de la institución y su permanente actualización; para lograr este cometido es necesario definir un sistema de referencia espacial unificado e interoperable que permita confeccionar el mapa topográfico actualizado del campus bajo estándares señalados por el Programa Académico de Topografía. El objetivo fundamental de este trabajo ha sido el diseño, monumentación y medición de un sistema de poligonación que sirva como marco de referencia lo suficientemente preciso para el soporte de los trabajos topográficos y cartográficos (en entornos SIG) al interior del campus, bajo requisitos técnicos que soporten sus precisiones relativa y absoluta, a través de coordenadas determinadas sobre el sistema de referencia horizontal para Colombia: Datum MAGNA-SIRGAS. Universidad Católica de Pereira 52 La metodología se apoyó en la Teoría de Errores, que permitió definir el límite de las incertidumbres esperadas en función de las características técnicas de los instrumentos de medida, la configuración geométrica del polígono, los métodos y diseños de medición. La implementación de esta metodología permitió hacer hallazgos interesantes en términos de la propagación del error y sus elipses, ya que sus magnitudes, formas y orientaciones dependieron de las restricciones usadas en el ajuste, la precisión de las observaciones, y la geometría del polígono. características técnicas de los instrumentos de medida con la fuerza geométrica del polígono de apoyo, a través de la monumentación de 13 puntos que definen el marco de referencia, con una cobertura aproximada de 10 Ha. II. Desarrollo del artículo A. La Universidad y el Campus La Universidad del Quindío es un establecimiento educativo público de carácter académico superior, cuenta con un área superficial de 25 Ha, de las cuales 13 corresponden a zonas de protección natural que se encuentran delimitadas por cerca de 2 Km de quebradas, lo cual denota su riqueza hídrica y topografía escarpada. El Campus Universitario se encuentra ubicado en latitud 4°33’10” N y longitud 75°39’33” W del Meridiano Origen, y tiene una elevación de 1530 metros sobre el nivel medio del mar (Fig. 1). A nivel nacional es categorizada como una universidad de tamaño mediano, y fue fundada con el Programa Académico de Topografía hace 53 años. Fig. 2. Diagrama de flujo matemático de pre-diseño, diseño, análisis, y ajuste de observaciones topográficas Fig. 1. Localización de la zona de estudio. Fuente: SIG Quindío El proyecto contó con una base cartográfica elaborada en el año 2000 por métodos topográficos clásicos bajo una estructura vectorial en formato dwg; así mismo se tuvieron a disposición diferentes instrumentos de medición angular y lineal, de los cuales se seleccionaron aquellos de menor desviación estándar pertenecientes al Laboratorio de Instrumentos Topográficos de la universidad, definiendo para las observaciones angulares un teodolito reiterador Carl Zeiss Jena THEO-010A con lectura directa de ±1” y para la medición electrónica de distancias la estación total South NTS-372R, que de acuerdo a su ficha técnica mide con precisión de ±2 mm ±2 ppm. El objeto de la metodología es la implementación de un modelo experimental de medición (Fig. 2) que permita definir los valores de su incertidumbre, combinando las Entre Ciencia e Ingeniería 1) Prediseño La precisión del marco de referencia no depende solo de la precisión de la mediciones sino también de su configuración geométrica; para que la poligonal sea fuerte y confiable, los vértices deben hallarse lo más uniforme posibles tanto que las condiciones de campo así lo permitan, y enlazadas mediante observaciones directas, teniendo en cuenta que la mayor longitud no debe superar cinco veces el vector más corto del polígono [38]. La fuerza geométrica de las poligonales es especialmente baja cuando se cambia la dirección de un vector en ángulo de 90° con relación a la dirección principal del avance [39]. Diferentes autores como [40] [41] [42] señalan diversos aspectos importantes en el posicionamiento de los vértices de poligonación y redes topográficas, como: garantía de permanencia en el tiempo, estabilidad dimensional y material, facilidad de estacionamiento, descarte de posicionamiento de vértices en áreas susceptibles a asentamientos causados por movimientos de tierra, y las formas geométricas generales de construcciones existentes en el área de cobertura del polígono (superficial, lineal, o en altura). Antes de realizar cualquier proceso de medición en campo, es necesario el establecimiento de las estaciones aproximadas que definirán los vértices de la poligonal, el diseño de medición, su incertidumbre asociada, y la propagación de sus errores, todo esto es lo que se define 53 como pre-diseño. De acuerdo con [43] [44] la propagación de errores implica obtener las características estadísticas de las variables dependientes dadas las características de las independientes y las relaciones de funciones relativas en los dos conjuntos de variables (varianzas y co-varianzas), en el pre-diseño esta propagación debe ser acotada cuando se combinan varias fuentes de error sobre un mismo conjunto de mediciones, estableciendo las relaciones de observación entre errores derivados de ángulo combinados con aquellos producidos por la medición de la distancia. Según [45] la ecuación de propagación de errores se define así: donde, representa la contribución individual al error total que ocurre como resultado de errores en las observaciones en cada variable independiente. Generalmente en el pre-diseño no se logran todas las condiciones ideales debido a las características obligantes del terreno; hay poligonales en donde la adyacencia de vértices no logra ser enlazada de manera conveniente y suelen suceder desequilibrios en las distancias que afectan la rigidez de la figura, lo que se verá fuertemente reflejado en los resultados de propagación de los errores. De forma general la calidad de un sistema de poligonación estará dado en términos de la incidencia que presenten las variables estadísticas de la medición sobre las coordenadas; como producto de los errores accidentales en la medición se obtienen las elipses absolutas de error que determinan la incertidumbre en el posicionamiento de cada vértice, las elipses relativas que dan cuenta de la precisión que existe entre un par de estaciones, su orientación está definida por el ángulo que se forma entre el semieje mayor y la línea que une la estación con el punto a observar. No se logra incrementar la calidad de las mediciones aumentando solamente el número de reiteraciones, de acuerdo con [46] la calidad de los datos dependerá esencialmente de la calidad del diseño de la poligonal, la calidad del modelo de ajuste matemático, y la calidad de las observaciones. Una vez definidas la geometría conformada por las estaciones aproximadas y el instrumental de medición, se obtuvo un estimativo de consistencia con los demás puntos de la red que reflejará la capacidad de levantamiento permitiendo duplicar los valores de control ya existente, de acuerdo con la NTC 5204 para este sistema de poligonación aplicará orden cinco con una clasificación de precisión del 95 % de confianza menor o igual que 0,020 m. 2) Diseño de la poligonal viable y probable [47] Indican que el diseño de redes se divide en cuatro etapas conocidas como: problemas de diseño cero, uno dos y tres: PD0 se relaciona con el sistema de referencia espacial de la red, PD1: responde a que vértices hay que realizar las observaciones, PD2: define la metodología e instrumentos de medición, PD3: aprovechamiento de otras redes. Un sistema de referencia es el conjunto de convenciones y conceptos teóricos adecuadamente modelados que permiten definir en cualquier momento la orientación, ubicación y escala de tres ejes coordenados (X, Y, Z), ya que es un modelo conceptual, se accesa mediante puntos materializados en mojones con coordenadas determinadas sobre el sistema de referencia dado, a este conjunto de puntos se le conoce como marco de referencia [48]. El sistema de referencia geocéntrico definido por el Servicio Internacional de Rotación Terrestre y Sistemas de Referencia (IERS) usado en geodesia es un Sistema Convencional de Referencia Terrestre (ITRS), su materialización en el globo terráqueo es el marco ITRF (International Terrestrial Reference Frame). En América Latina la densificación del marco de referencia ITRF es la red SIRGAS (Sistema de Referencia Geocéntrico para América del Sur) con 58 estaciones GPS distribuidas sobre el continente. El Instituto Geográfico Agustín Codazzi (IGAC) es el ente gubernamental Colombiano encargado de determinar, establecer, mantener y proporcionar los sistemas de referencia geodésico, gravimétrico y magnético (decretos No 2113/1992 y 208/2004); este instituto ha definido un Marco Geocéntrico Nacional de Referencia o Red MAGNA de estaciones GPS de primer orden (precisión de ±1 mm en coordenadas) conformado por 60 estaciones GPS con cobertura nacional, ocho de las cuales son vértices SIRGAS y 16 corresponden a la red geodinámica CASA (Central And South America GPS Project), su Datum geodésico asociado corresponde con el elipsoide WGS84, y por estar referida a SIRGAS se conoce como MAGNA-SIRGAS. Dichos vértices fueron determinados con el propósito de suministrar una plataforma confiable a los productores y usuarios de información georreferenciada en el país [49]. La red básica GPS del Quindío (RGQ-2000) está distribuida uniformemente sobre el departamento y compuesta por 62 estaciones, determinadas por el IGAC bajo el sistema MAGNA siguiendo especificaciones internacionales para la definición de redes GPS regionales de primer orden; la poligonación de alta precisión objeto de este estudio al interior del Campus Universitario, es una densificación de dicho sistema (MAGNA-SIRGAS), totalmente compatible con el Datum continental SIRGAS y con el ITRF mundial, pues uno de sus vértices también lo es de la red geodésica departamental (D-QN 2), las estaciones restantes del sistema de poligonación en cuestión fueron densificados con instrumentos clásicos (ópticos y electrónicos) de medición. 3) Construcción de bases de observación Se utilizó una técnica de construcción robusta que Universidad Católica de Pereira 54 permitió definir el marco de referencia con materiales de buena calidad y en terrenos estables que garantizan su estabilidad temporal. El mojón está fundido en un bloque de concreto con profundidad de 1,10 m, y 40 cm de lado, al interior lleva cuatro varillas de acero de ½” (Fig. 3) que permiten que la estructura alcance su máxima resistencia con flejes separados cada 15 cm, en su parte central se encuentra embebida una varilla de ½” en acero inoxidable y con longitud de 1,20 m que posee un punto grabado que define las coordenadas del hito. El mojón sobresale 35 cm sobre el nivel del terreno natural para su fácil identificación visual. A es el número de veces que se amplifica el tamaño aparente de los objetos. Fig. 5. Error de puntería c) Error de lectura Es el cometido al realizar la estimación de una lectura en el círculo graduado del teodolito. (4) Fig. 3. Materialización de las estaciones locales 4) Instrumentación [50] Indican que existen cuatro errores principales en los teodolitos óptico-mecánicos que aportan una alta contribución al error accidental y que se refleja en la incertidumbre angular de itinerario de medición; dichos errores son: verticalidad, puntería, lectura, y dirección, actúan de manera independiente y producen el error total angular. a) Error de verticalidad del eje principal Al poner el instrumento en estación (Fig. 4), éste no quedará perfectamente vertical, ello da lugar a este error, se calcula con la siguiente expresión: (2) Donde, S corresponde a la sensibilidad del instrumento, expresada en segundos. Fig. 4. Error de verticalidad eje VV b) Error de puntería Se genera por la no coincidencia entre el objeto que se quiere visar y el centro del retículo del anteojo (Fig. 5), se define así: (3) Entre Ciencia e Ingeniería donde, m es la mínima graduación del círculo en lectura directa. d) Error de dirección Es el producido debido a la no coincidencia entre el punto donde se desea centrar el instrumento y aquel punto en que en realidad está situado, afecta tanto a la estación como al objetivo donde se está visando, se calcula de la siguiente forma: (5) donde, ee es el error en el centrado del teodolito, ep corresponde al error de centrado de la señal visada, D es la distancia entre el teodolito y la señal, y p es el factor de conversión de radianes a segundos sexagesimales. Una de las mayores fuentes de incertidumbre en la medición de ángulos horizontales en procedimientos topográficos proviene del centrado del instrumento [51]. Cuando éste se estaciona sobre un mojón se presenta un desplazamiento con respecto al valor verdadero de su centro causando incertidumbre en su posición horizontal, esta incertidumbre depende esencialmente del sistema de centrado, la calidad del trípode y la habilidad del instrumentador [23]. En el centrado con plomada óptica [52] señalan que el valor de esta incertidumbre es de 2 mm, [53]; y [54] indican que es de 1 mm, mientras que [15] indican que se encuentra entre 1 y 0,5 mm. En la ejecución de este trabajo, el centrado de instrumentos (teodolito y señales de puntería) se realizó con plomada óptica cenit-nadir, considerada un instrumento práctico de centrado forzoso sobre la base nivelante, con una desviación típica de 1 mm en 30 m. Cuando existe solo una estación el error de centrado se 55 concibe como sistemático (Fig. 6), sin embargo, dado que la ubicación del instrumento sobre el punto es aleatoria y que el proceso de poligonación incluye muchas estaciones, su tratamiento estadístico debe corresponder al de errores accidentales; por ello el error de centrado es sistemático en efecto pero aleatorio en naturaleza. donde, L es el perímetro del polígono, eta corresponde al error total angular, N es el número de vértices. g) Error longitudinal Es generado en la medición electrónica de distancias, en este procedimiento los errores de centrado tanto del instrumento de medición como de la señal juegan un papel definitivo, especialmente en distancias cortas; de acuerdo con [45] se determina así: (8) Fig. 6. Efectos del centrado del instrumento en la medición de ángulos horizontales. En el caso (a) el error se compensa, en los casos (b) y (c) presenta su mayor magnitud. donde, si es el error de centrado del instrumento, corresponde al error de centrado del reflector, a y b son los parámetros de precisión especificados para el instrumento, y D es la distancia medida. h) Error lineal del itinerario Fig. 7. Magnitud de los errores angulares debido al centrado de la señal. El máximo error angular ocurrirá cuando el centrado de la señal de puntería sea perpendicular a la dirección de cada punteo del teodolito (Fig. 7), cada error de centrado atrás y adelante en el recorrido de la poligonal afectará el error angular total y se propagará de acuerdo a la ley de la suma de errores aleatorios. e) Error total angular Es aquel que contiene la sumatoria de los cuatro errores principales, de acuerdo con [50] [55], cuando se utiliza el método de reieración en la medición de ángulos horizontales, se disminuyen los errores de lectura y puntería debido a la regla de Bessel, pues cada ángulo es medido en una zona diferente del limbo; aplicando la ley de propagación de los errores (error de la suma) el error total angular quedará defino así: donde, el corresponde al error lineal, ep es el error de (6) puntería, ev es el error de verticalidad, ed es el error en dirección, y n es el número de veces que se reitara el ángulo. f) Error transversal Es el ocasionado por la influencia de acumulación de los errores angulares sobre el recorrido de la poligonal, su modelo matemático es: (7) Corresponde al error total de distancia en el recorrido de la poligonal, se expresa en términos del error de la serie, y se define así: (9) donde, elo corresponde al error longitudinal y el número de estaciones. i) Error total Es la suma de los errores cometidos en las mediciones angulares y de distancia. Según [13] se calcula así: (10) donde, etr es el error transversal y eli el error lineal del itinerario. 5) Procedimientos de verificación instrumental La evaluación del instrumento de medición angular (THEO-010A) se realizó mediante procedimientos de campo que permitieron verificar la magnitud de los errores de colimación horizontal, vertical y de inclinación. La implementación de evaluación instrumental se realizó mediante nueve señales de puntería ubicadas a distancia aproximada de 50 m; se emplazaron tres láminas reflectivas en un plano aproximadamente horizontal en sitios estratégicos que permitieron visuales libres; con las lecturas angulares obtenidas se calculó la magnitud del error de colimación horizontal: 2”,67, con otras tres láminas se realizó el porcedimiento de observaciones para determinar la magnitud del error de colimación vertical: 8”. Posteriormente se ubicaron tres láminas reflectivas en la parte alta de un edificio presente en la misma zona, a las que se les realizaron observaciones de lecturas de círculos horizontales y verticales, con dichos datos se determinó la presencia del error de inclinación y su magnitud: 1”,93. Universidad Católica de Pereira 56 La evaluación del dispositivo electro-óptico de medición de distancias (estación total South NTS-372R) se realizó en la base de calibración de distanciómetros perteneciente al laboratorio de metrología de la universidad, donde se verificó que éste se encuentra en el rango de error que sugiere la ficha técnica: ±2 mm ±2 ppm. 6) Plan o programa de observación El procedimiento de observaciones de campo se realizó en periodos específicos del día (de 8:00 - 10:30 y de 15:00 – 17:30) a fin de reducir los efectos de las distintas fuentes de incertidumbre natural (refracción atmosférica, humedad, presión atmosférica, viento, y cambios de temperatura que pueden ocasionar expansión desigual de las partes del instrumento) que alteran las medidas siendo susceptibles a una mayor propagación del error en trabajos de alta precisión. [56]. Previo al procedimiento de medición de distancias se configuraron al instrumento los valores de presión barométrica de la zona: 640 mmHg y temperatura promedio de 24° C para realizar el ajuste de reducción de distancias, así mismo, se configuró para realizar la medición entre un par de puntos con diez repeticiones. La medición electrónica utilizó metodología de distancias recíprocas; todos los instrumentos de medición tuvieron un centrado estricto con la plomada cenit-nadir, luego de nivelar los instrumentos se tuvo un tiempo de espera de diez minutos antes de realizar cualquier medición, tiempo en el cual se realizó la rotación y giro de las partes móviles del instrumento. Fig. 8. Establecimiento de receptor GNSS en UQ-01 Luego se realizaron las observaciones de campo que permitieron registrar los ángulos horarios internos del polígono (Tabla I) y las distancias horizontales (Tabla II) entre los vértices. Tabla I. Ángulos horarios sin ajustar Estación Atrás UQ-01 DQN2 Entre Ciencia e Ingeniería Ángulo horario UQ-02 DQN2 162°30’21.1” UQ-01 UQ-12 216°31’08.9” UQ-12 DQN2 UQ-11 68°20’03.9” UQ-11 UQ-12 UQ-10 71°49’16.0” UQ-10 UQ-11 UQ-09 144°41’28.2” UQ-09 UQ-10 UQ-08 149°49’39.8” UQ-08 UQ-09 UQ-07 230°33’55.4” UQ-07 UQ-08 UQ-06 146°44’36.1” UQ-06 UQ-07 UQ-05 185°36’45.6” UQ-05 UQ-06 UQ-04 100°43’53.3” UQ-04 UQ-05 UQ-03 119°39’36.7” UQ-03 UQ-04 UQ-02 128°50’57.3” UQ-02 UQ-03 UQ-01 154°08’26.5” Tabla II. Distancias horizontales sin ajustar De acuerdo con [9] el método de reiteración para medir ángulos horizontales disminuye los efectos de los errores sistemáticos tales como excentricidad, graduación y colimación del círculo horizontal. Las magnitudes angulares de los errores de graduación y excentricidad obtenidas en cada set fueron promediadas, se calculó su desviación estándar para obtener la media del ángulo, la cual no debía exceder 00°00’00”,8 entre observaciones. La línea base de la poligonal se definió a partir del posicionamiento de un receptor GNSS de doble frecuencia que permitió la orientación de norte geográfico del polígono (Fig. 8). Este posicionamiento tuvo tiempo de observación de dos horas en los puntos que definen los extremos de la línea base (DQN2 y UQ-01). Las coordenadas elipsoidales calculadas y ajustadas al Datum MAGNA SIRGAS de DQN2 fueron φ: 04° 33’ 15”,1628 N y λ: 75° 39’ 44”,1845 W, y UQ-01 con φ: 04°33’16”,21077 N y λ: 75°39’43”,57549 W, que definen un azimut para la línea DQN2 UQ-01 de 30° 15’ 15”,21 y una separación horizontal de 37,282 m, bajo el sistema cartesiano local de Armenia. Adelante Estación Atrás Distancia (m) UQ-01 DQN2 37,2815 DQN2 UQ-12 91,5750 UQ-12 UQ-11 62,3885 UQ-11 UQ-10 132,1390 UQ-10 UQ-09 66,3100 UQ-09 UQ-08 133,8570 UQ-08 UQ-07 121,0120 UQ-07 UQ-06 44,5680 UQ-06 UQ-05 95,4805 UQ-05 UQ-04 132,5650 UQ-04 UQ-03 235,0480 UQ-03 UQ-02 116,6410 UQ-02 UQ-01 125,7500 7) Ajuste Las redes topográficas locales buscan definir un marco de referencia geométrico como soporte a trabajos ingenieriles y de representación cartográfica, esta definición se realiza a partir de observaciones de campo lo que plantea 57 que hay que buscar la correlación matemática entre los parámetros del modelo conceptual y las observaciones que definen el emplazamiento del marco físico; así mismo, es de obligatorio análisis el modelo estadístico de los errores propios producidos por la medición. Según [57] una poligonal es la combinación básica de dos mediciones topográficas: distancias y direcciones, éstas se consideran una forma indirecta de definir las coordenadas de los vértices del polígono. Asumiendo que las equivocaciones y los errores sistemáticos han sido eliminados, las direcciones y distancias de la poligonal son afectadas por pequeños errores aleatorios (que obedecen a las leyes de la probabilidad y se espera que estos se ajusten a la distribución normal) que se evidencian en el error de cierre de la poligonal, la sumatoria interior de los ángulos de cualquier polígono cerrado obedece al modelo geométrico: ec = (n - 2) • 180˚ (11) donde, ec es el error de cierre y corresponde al número de vértices del polígono. Un residual tiene la misma magnitud que un error pero con signo contrario y ya que las distancias y direcciones son medición indirecta de coordenadas, se puede decir que los residuales son función de las coordenadas de los puntos de la poligonal. El ajuste de una poligonal por Mínimos Cuadrados determina un conjunto de coordenadas que hace que la suma al cuadrado de los residuales sea la mínima. La gran ventaja que presenta este modelo de ajuste es que se permite la inclusión simultánea de todas las observaciones, y cada una de ellas se puede ponderar de acuerdo con su precisión estimada [23]. con la fuerza geométrica del sistema de poligonación (Tabla III). Se encontraron desviaciones mínimas de los semiejes de las elipses cotejadas entre los resultados del prediseño y aquellas de las mediciones ajustadas; la máxima desviación fue de 8 mm evidenciando las bondades del prediseño de especificaciones en poligonación topográfica. Tabla III. Magnitudes semiejes elipses abolutas prediseño vs medición Prediseño Medición Estación s.my s.mn s.my Residuales s.mn s.my s.mn DQN2 0,000 0,000 0,00 0,00 0,000 0,000 UQ-01 0,000 0,000 0,000 0,000 0,000 0,000 UQ-02 0,006 0,005 0,006 0,006 0,000 0,001 UQ-03 0,009 0,007 0,012 0,007 0,003 0,000 UQ-04 0,016 0,008 0,020 0,008 0,004 0,000 UQ-05 0,017 0,007 0,021 0,008 0,004 0,001 UQ-06 0,014 0,008 0,018 0,009 0,004 0,001 UQ-07 0,013 0,008 0,016 0,016 0,003 0,008 UQ-08 0,010 0,007 0,012 0,008 0,002 0,001 UQ-09 0,010 0,006 0,011 0,006 0,001 0,000 UQ-10 0,010 0,006 0,010 0,006 0,000 0,000 UQ-11 0,007 0,006 0,008 0,007 0,001 0,001 UQ-12 0,005 0,004 0,005 0,004 0,000 0,000 Según [43] la solución mínimo cuadrática de ecuaciones de observaciones topográficas de distinto peso está definida por el modelo matricial: (12) donde, X es el valor del residual, A es la matriz Jacobiana que contiene los coeficientes de las ecuaciones de observación linealizadas por aproximaciones sucesivas de Taylor, W es la matriz de los pesos, y L es la matriz de las observaciones. B. Resultados La poligonal obtuvo un error total angular de 8,8”, un error lineal de -0,0078 m en dirección N-S y -0,0001 m dirección E-W y una precesión horizontal de 5,57 PPM. Fig. 9. Elipses de error absolutas y relativas, escala de distorsión: 1000 veces. Fuente: Google Earth Las elipses relativas se consideran cuando importa conocer la precisión posicional de ubicación relativa entre dos puntos, es decir, qué tan bien está posicionada una estación respecto de la otra (Tabla IV), es así como se identificaron las líneas de mayor confiabilidad para orientar nuevos polígonos con fines de densificación: UQ11-UQ12, UQ06-UQ07, UQ09-UQ10. El error asociado al posicionamiento planimétrico de los puntos se determinó mediante los parámetros de la elipse de error absoluta que define la incertidumbre producida a través de las características técnicas de los instrumentos de medida Universidad Católica de Pereira 58 Tabla IV. Magnitudes elipses de error relativas desde hasta s.my s.mn Az. s.mn UQ-01 UQ-02 0,005 0,005 46° 40’ UQ-02 UQ-03 0,005 0,005 32° 46’ UQ-03 UQ-04 0,009 0,005 34° 45’ UQ-04 UQ-05 0,005 0,004 100° 32’ UQ-05 UQ-06 0,004 0,004 10° 40’ UQ-06 UQ-07 0,005 0,002 81° 55’ UQ-07 UQ-08 0,005 0,005 41° 01’ UQ-08 UQ-09 0,006 0,005 133 38’ UQ-09 UQ-10 0,004 0,003 80° 16’ UQ-10 UQ-11 0,007 0,005 55° 20’ UQ-11 UQ-12 0,003 0,003 167° 28’ La propagación de errores del polígono permite verificar los intervalos de confianza que se deben utilizar para un trabajo determinado con el objeto de mantener los resultados dentro de los rangos de tolerancia en función de las observaciones y sus respectivos errores (Tabla V), en aquellos casos en que se pretenda producir nueva cartografía del campus, su actualización, o prácticas académicas de perfeccionamiento topográfico, estos valores deberán ser tenidos en cuenta para realizar las labores propias de control de calidad de dichas labores. Finalmente se obtuvieron las coordenadas ajustadas de cada una de las estaciones de la poligonal (Tabla V). Tabla V. Coordenadas ajustadas y propagación de errores planimétricos de una mayor incertidumbre en una de las coordenadas, uno de los resultados de este trabajo es consecuente con tal afirmación, verificable en la Fig. 9 a través de las estaciones UQ-03, UQ-04, UQ-05, y UQ-09 y sus correspondientes desviaciones estándar fijadas en la Tabla V. La gran mayoría de las elipses encontradas en la poligonal son alargadas desde el cuadrante NE al SW, esto sugiere que es desequilibrada a lo largo de tal dirección, esto se verifica con la dirección del error lineal que presenta una desviación ocho veces mayor sobre la proyección meridiana que sobre la paralela, esto se presenta porque un lado de la red (UQ-04 UQ-05) presenta poca resistencia a la rotación, evidenciado por las máximas longitudes de los semiejes de las elipses en estos vértices. Todo esto sugiere que la poligonal deberá ser fortalecida en la dirección del alargamiento de las elipses a través de la densificación de la poligonal y/o observaciones redundantes desde y hacia varias estaciones que puedan mejorar la geometría de las elipses acercándose a figuras más circulares que sugerirían equilibrio entre las observaciones angulares y la medición de distancias. Agradecimientos Los autores reconocen las contribuciones del topógrafo Jair Ramírez destacado funcionario del Servicio Geológico Colombiano por el posicionamiento satelital de los puntos extremos de la línea base de este proyecto. Así mismo expresan profunda gratitud a los Profesores Gilberto Gómez Gómez, y Jairo Díaz Jurado por iniciar el camino de la cientifización de la profesión. Referencias I. Conclusiones Se materializó mediante topografía clásica la poligonación de alta precisión (marco de referencia) en la cual se emplaza el territorio del campus universitario, a través de la ejecución de la metodología planteada se definieron los valores de incertidumbre posicional planimétrica de las estaciones topográficas mediante las elipses de error que constituyen un medio para analizar la fuerza geométrica del sistema, bajo este énfasis y de acuerdo con [50] quienes sostienen que una elipse alargada demuestra la existencia Entre Ciencia e Ingeniería [1] M. J. Sevilla, «Teoría de errores de observación,» Física de la tierra: geodesia marina y geoide, nº 5, pp. 133-166, 1993. [2] M. A. R. Cooper, Fundamentals of surveying measurements and analysis, London: William Clowes & Sons, 1974, p. 107. [3] R. Davis y F. Foote, Surveying: Theory and practice, 4th ed., New York: McGraw-Hill Book Company, 1967, p. 880. [4] S. V. Estopinal, A guide to undestanding land surveys, 2nd ed., United States: John Wiley & Sons, Inc, 1993, p. 226. [5] R. Márquez, Introducción al ajuste y diseño de redes topográficas, San Juan: Universidad Nacional de San Juan, 2009, p. 180. [6] N. Ballesteros, Topografía, 1a ed., México, D.F.: Limusa, 1984, p. 474. [7] B. A. Barry, Errors in practical measurments in surveying, engineering, and technology, M. D. Morris, Ed., United States of America: Landmark Enterprises, 1991, p. 183. [8] A. Bannister, S. Raymond y R. Baker, Técnicas modernas en topografía, 7a ed., México, D.F.: Alfaomega, 2002, p. 550. [9] O. Trutmann, The theodolite and its application, Heerbrugg, Switzerland: Wild Heerbrugg, 1967, p. 110. [10] R. B. Buckner, «The Nature of Measurement: Part 3: Dealing With Errors,» Professional Surveyor Magazine, pp. 66-86, 1997. [11] J. Nathanson, M. T. Lanzafama y P. Kissam, Surveying fundamentals and practices, 6th ed., New Jersey: Prentice Hall, 1999, p. 502. [12] R. B. Bucner, Surveying Measurements and Their Analysis, 3th ed., California: Landmark Enterprises, 1991. [13] R. Martínez Marín, J. C. Ojeda Manrique, J. A. Sánchez Sobrino, J. G. Relas Ayuga y J. García García, Geodesia y Topografía, 1a ed., Madrid: Bellisco, 2004, p. 329. [14] J. Nathanson, M. Lanzafama y K. Kissam, Surveying fundamentals and practices, 5th ed., United States of America: Pearson Prentice 59 Hall, 2006, p. 502. [15] W. Schofield y M. Breach, Engineering Surveying, 6th ed., Oxford: Elsevier, 2007, p. 622. [16] Fialovszky, L.; Holéczy, G.;, «Surveying instruments and their operational principles,» ISPRS Journal of Photogrammetry and Remote Sensing, vol. 48, nº 4, pp. 41-42, 1991. [17] J. M. Anderson y E. D. Mikhail, Survey: Theory and practice, 7th ed., New York: McGraw-Hill, 1998. [18] R. Brinker y W. Taylor, Elementary surveying, United States of America: International Textbook Company, 1969, p. 686. [19] R. Shiu, S. Kang, J. Han y S. Hsieh, «Modeling Systematic Errors for the Angle Measurement in a Virtual Surveying Instrument,» Journal of Surveying Engineering, vol. 137, nº 3, pp. 81-90, 2011. [20] GUM, Guía para la expresión de la incertidumbre de medida, publicada por ISO en nombre del BIPM, IEC, IFCC, ILAC, ISO, IUPAC, IUPAP y OIML., 2008. [21] J. R. Smith, Introduction to Geodesy, 2nd ed., New York: John Wiley & Sons, 1997, p. 224. [22] F. H. Moffitt y J. D. Bossler, Surveying, 10th ed., United States of America: Addison Wesley Longman, Inc., 1998, p. 738. [23] C. Ghilani y P. Wolf, Elementary surveying: an introduction to geomatics, 13th ed., New Jersey: Pearson Prentice Hall, 2012, p. 931. [24] R. G. Bird, EDM traverses, New York: John Willey & Sons, 1989, p. 148. [25] ICSM, Intergovernmental Committee on Surveying and Mapping. Guideline for Conventional Traverse Surveys: Special Publication 1, 2013. [26] A. A. Seemkooei, «Comparison of reliability and geometrical strength criteria in geodetic networks,» Journal of Geodesy, vol. 75, nº 4, pp. 227-233, 2001. [27] C. A. Herubin, Principles of Surveying, 4th ed., Virginia: Reston Publishing Company, 1991, p. 301. [28] I. De Corral y M. de Villena, Topografía de obras, México D.F.: Alafaomega- Ediciones UPC, 2000, p. 354. [29] F. Domínguez García-Tejero, Topografía general y aplicada, 13a ed., Madrid: ediciones Mundi-Prensa, 1998, p. 811. [30] USACE, US Army Corps of Engineers, Structural Deformation Surveying, Washington DC: EM 1110-2-1009, 2002. [31] M. Ruiz Morales, Nociones de topografia y fotogrametria aerea, España: Editorial Universidad de Granada, 2003. [32] A. Tapia Gómez, Topografía subterránea, Cataluña: Ediciones UPC, 2005, p. 212. [33] B. F. Kavanagh, Surveying with construction applications, New Jersey: Pearson Prentice Hall, 2007, p. 681. [34] A. Amiri-Simkooei, J. Asgari, F. Zangeneh-Nejad y S. Zaminpardaz, «Basic Concepts of Optimization and Design of Geodetic Networks.,» Journal of Surveying Engineering, vol. 138, nº 4, pp. 172-183, 2012. [35] R. Taton, Topografía Subterránea, Madrid: Paraninfo, 1977, p. 190. [36] L. Lupa-Dima y L. Filip, «Error propagation of the sizes measured in mine working,» Revista Minelor - Mining Revue, nº 2, pp. 32-34, 2012. [37] Y. . E. Batista-Legrá y O. Belete-Fuentes, «Consideraciones sobre la exactitud de las redes de levantamiento topográfico,» Minería y geología, vol. 29, nº 3, pp. 56-64, 2013. [38] IPGH, Pan American Institute of Geography and History. Manual de normas y especificaciones para levantamientos geodésicos de alta precisión en áreas pequeñas, México: Comité de Geodesia IPGH, 1987, p. 51. [39] A. Del Bianco, Topometría y microgeodesia. Notas de clase, Córdoba: Universidad Nacional de Córdoba, 2001, p. 360. [40] D. Miranda Barrós, J. R. Rodríguez Pérez y J. C. Alonso, «Instalación de redes microgeodésicas como soporte para la gestión y mantenimiento de sistemas de información geográfica de ámbito municipal,» de Teledetección. Avances y aplicación: VIII Congreso Nacional de Teledetección, Albacete, 1999. [41] O. Cuadrado, L. Garcia-Asenjo, D. Hernández y A. Nuñez, «PLanificación de redes de control de calidad en procesos cartográficos. El proyecto RGPA en el Principado de Asturias,» de VIII congreso nacional de topografía y cartografía, Madrid, 2004. [42] M. Farjas Abadía, La Topografía y sus métodos: Principios de investigación, Bilbao: Astrolabio, 2012, p. 500. [43] E. M. Mikhail y F. Ackerman, Observations and least squares, New York: University Press of America, 1983, p. 497. [44] G. Gómez Gómez y G. Jiménez Cleves, Topografía analítica, Armenia: Universidad del Quindío, 1994, p. 223. [45] C. D. Ghilani y P. R. Wolf, Adjustment Computations, 4th ed., New York: John Wiley & Sons, Inc., 2006, p. 611. [46] E. M. Mikhail y G. Gracie, Analysis & Adjustment of Survey Measurements, New York: Van Nostrand Reinhold, 1981, p. 368. [47] M. Chueca Pasos, J. Herráez Boquera y J. L. Berné Valero, Tratado de Topografía. Tomo III. Redes topográficas y locales.Microgeodesia., Madrid: Paraninfo, S.A, 1996c, p. 448. [48] IERS, « International Earth Rotation Service Annual Report,» Dick , Wolfgang R.; Richert, Bernd;, Frankfurt am Main, 2000. [49] L. Sánchez Rodríguez, H. Drewes y H. Tremel, «Procesamiento de la red GPS básica de Colombia. Marco Geocéntrico Nacional MAGNA,» Revista Cartográfica, vol. 73, pp. 7-24, 2001. [50] M. Chueca Pasos, J. Herráez Boquera y J. L. Berné Valero, Tratado de Topografía Tomo I. Teoría de errores e instrumentación, Madrid: Paraninfo, S.A, 1996a, p. 522. [51] A. M. Ruiz Armenteros, J. L. García Balboa, J. L. Mesa Mingorance, J. J. Ruiz Lendínez y M. I. Ramos Galán, «Contribution of instrument centring to the uncertainty of a horizontal angle,» Survey Review, vol. 45, nº 331, pp. 305-314, 2013. [52] P. Richardus y J. S. Allman, Project Surveying, Amsterdam: NorthHolland Publishing Company, 1966. [53] M. A. R. Cooper, Modern theodolites and levels, 2 nd ed., Oxford: BSP professional books, 1987. [54] O. Baykal, T. Ergin, M. Z. Cozkun y E. Turan, «Accuracy of Point Layout with Polar Coordinates,» Journal of Surveying Engineering, vol. 131, nº 3, pp. 87-93, 2005. [55] E. D. Arrufat Molina, Instrumentos Topográficos, Valencia: Tirant lo Blanch, 2006, p. 693. [56] J. L. García Balboa, A. M. Ruiz Armenteros y J. L. Mesa Mingorance, «Evaluación de la incertidumbre de medidas en ángulos, distancias y desniveles medidos con instrumentación topográfica,» Mapping interactivo, 21 Septiembre 2011. [57] R. E. Deakin, «A review of Least Squares theory applied to traverse adjustment,» Australian Surveyor, vol. 36, nº 3, pp. 245-253, 1991. Julián Garzón Barrero nació en Armenia (Quindío), Colombia, el 16 de Abril de 1977. Es Tecnólogo en Topografía por la Universidad del Quindío (Col.) 1999, Ingeniero de Sistemas por la Universidad San Martín (Col.) 2008, Especialista en Geomática por la Universidad Militar Nueva Granada (Col.) 2010, y Magister en Sistemas de Información Geográfica por la Universidad San Francisco de Quito (Ecu.) 2013. Actualmente es profesor investigador en la Universidad del Quindío y la Universidad La Gran Colombia seccional Armenia, pertenece a los grupos de investigación GEOIDE G62 y Gerencia de la tierra. Entre sus áreas de trabajo investigativo se encuentran los Modelos Digitales de Elevación, Sistemas de Información Geográfica y el diseño de mediciones topográficas. Gonzalo Jiménez Cleves nació en Ibagué (Tolima), Colombia, el 1 de Noviembre de 1962. Es Topógrafo por la Universidad del Quindío (Col.) 1985, Especialista en computación para la docencia por la Universidad del Quindío y la Universidad Antonio Nariño (Col.) 1989, y Magister en Ingeniería de Sistemas por la Universidad del Valle (Col.) 2004. Actualmente es Director del Programa de Topografía de la Universidad del Quindío, además es profesor investigador en la Universidad del Quindío Armenia, pertenece al grupo de investigación GEOIDE G62. Entre sus áreas de trabajo investigativo se encuentran los Modelos Digitales de Elevación, Sistemas de Información Geográfica, modelación de superficies terrestres y el diseño de mediciones topográficas. Universidad Católica de Pereira 60 Ximena Cifuentes Wchima. Es Ingeniera Agroindustrial por la Universidad La Gran Colombia - seccional Armenia (Col.) 2000, Especialista en Fruticultura Tropical por la Universidad del Tolima (Col.) 2002, Especialista en pedagogía y docencia universitaria por la Universidad La Gran Colombia – seccional Bogotá 2004 (Col.) y Magister en desarrollo sostenible y medio ambiente por la Universidad del Manizales (Col.) 2010. Actualmente es Decana de la Facultad de Ingenierías de la Universidad La Gran Colombia Seccional Armenia, además es profesora en la Universidad del Quindío Armenia, y es la líder del grupo de investigación Gerencia de la Tierra. Entre sus áreas de trabajo investigativo se encuentran la producción y desarrollo sustentable, gestión tecnológica para la productividad y procesos de formación y gestión de facultades de ingeniería. Entre Ciencia e Ingeniería 61 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 61-69 Prototipo de potenciostato con aplicaciones en procesos electroquímicos1 Potentiostat prototype with applications in electrochemical processes Protótipo de potenciostato com aplicações em processos electroquímicos B. Segura, F. N. Jiménez y L. R. Giraldo Recibido Octubre 05 de 2015 – Aceptado Febrero 19 de 2016 Resumen — En este trabajo se presenta un prototipo de potenciostato de bajo costo, que permite el control de las variables eléctricas en la obtención de recubrimientos por electrodeposición. Se empleó la metodología QFD (Quality Function Deployment) como herramienta de planificación con el fin de determinar las características que debe tener el prototipo de potenciostato. El desarrollo de la investigación se basó en el diseño e implementación de un prototipo de potenciostato que permita trabajar 3 funciones básicas de electrodeposición a saber: cronoamperometría, que consiste en mantener un voltaje constante en un rango de 0 V a 20 V y mide la corriente entregada al sistema; cronopotenciometría, que mantiene constante una corriente en un rango de 0 A a 2 A y mide el voltaje (potencial) y voltamperometría cíclica, la cual trabaja en los mismos rangos de la cronoamperometría (0 V a 20 V) y excita el sistema mediante señales de onda triangular, diente de sierra, senoidal, cuadrada, entre otras. Estas características implementadas son comparadas con las de un potenciostato comercial, demostrando su eficiencia en el control de procesos electroquímicos. 1 Producto derivado del proyecto de investigación “Obtención y caracterización de recubrimientos biocompatibles de hidroxiapatita por procesos electroquímicos con potenciales aplicaciones en implantes”. Presentado por los grupos de Investigación: Física y Matemática con énfasis en la formación de ingenieros y el grupo de Automática de la Facultad de Ingeniería de la Universidad Autónoma de Manizales. B. Segura-Giraldo, docente Departamento de Electrónica Universidad Autónoma de Manizales, (Colombia), Docente Universidad Nacional Sede Manizales, (Colombia); email: [email protected] F.N. Jiménez-García, docente del Departamento de Física y Matemática de la Universidad Autónoma de Manizales, (Colombia), Docente Universidad Nacional de Colombia Sede Manizales, (Colombia); email: [email protected]. L.R. Giraldo-Torres, docente del Departamento de Física y Matemática de la Universidad Autónoma de Manizales, (Colombia), email: [email protected] Palabra clav e— potenciostato, electrodo, cronoamperometría, cronopotenciometría, voltametría cíclica. Abstract — This article presents a low cost prototype potentiostat, which allows to control electrical variables in obtaining coatings by electrodeposition. The QFD (Quality Function Deployment) methodology was used as a planning tool in order to determine the characteristics that should have the potentiostat along the entire process of obtaining the prototype. The development of the research was based on the design and implementation of a prototype potentiostat that can handle three basic functions of electrodeposition. One first function, chronoamperometry lets to keep a constant voltage in the range of 0 V to 20 V and measures the current delivered to the system. A second function, chronopotentiometry maintains constant a current in a range of 0 A to 2 A and measures the voltage (potential). A third function, cyclic voltammetry, works in the same ranges of chronoamperometry (0 V to 20 V) and excites the system by signals as triangular wave, saw tooth, sine, and square, among others. These implemented features were compared to one conventional potentiostat, demonstrating its efficiency in controlling electrochemical processes. Key words— potentiostat, electrode, chronopotentiometry, chronopotentiometry, cyclic voltammetry. Resumo – Nesse trabalho se apresenta um protótipo de baixo custo potentiostat, que permite o controle das variáveis elétricas na obtenção de recobrimentos por eletrodeposição. Empregou-se a metodologia QFD (Quality Function Deployment) como ferramenta de planificação com o fim de determinar as características que devem ter o protótipo de um potentiostat. A pesquisa baseou-se na concepção e implementação de um protótipo de um potentiostat, permitindo trabalho 3 noções básicas de galvanoplastia, nomeadamente: cronoamperometria, que consiste em manter uma voltagem constante em um intervalo de 0V a 20V e mede a corrente Universidad Católica de Pereira 62 entregada ao sistema; cronopotenciometria que mantem constante uma corrente de um rango de 0A a 2ª e mede a voltagem (potencial) e voltamperometria clinica, a qual trabalha nos mesmos intervalos que a conoamperometria (0V a 20V) e excita o sistema mediante sinais de onda triangular, dente de serra, senoidal, quadrada, entre os outros. Estas características implementadas são comparadas com as de um potensiostato comercial, demostrando sua eficiência no controle de processos eletroquímicos. de un electrodo estacionario inmerso en una solución en reposo y medir la corriente resultante. La señal de excitación provoca una respuesta de corriente característica. Las cuatro señales de excitación más comunes utilizadas se muestran en la figura 1. Palavras chave: potenciostato, eletrodo, cronoamperometria, cronopotenciometria, voltametria cíclica. I. Introducción L os procesos electroquímicos se basan en reacciones de óxido-reducción, donde se transfieren electrones de una sustancia a otra, teniendo en cuenta variables como las eléctricas, el tipo de electrodo, la transferencia de masa, la solución y otras variables externas como la temperatura. Uno de los equipos más utilizados para los procesos electroquímicos es el Potenciostato, el cual permite realizar control de algunas variables determinadas en una celda electroquímica; el potenciostato permite realizar control por cronoamperometría y por cronopotenciometría. En la mayoría de las aplicaciones los potenciostatos miden el flujo de corriente entre el electrodo de trabajo y el electrodo de referencia, siendo la variable controlada el potencial de la celda y la variable medida la corriente generada tras el paso de dicho potencial, como consecuencia de los procesos de óxido reducción que sean o no producidos. Para mantener el electrodo de trabajo a un potencial constante debe evitarse que circule corriente por el electrodo de referencia debido a que cambiaría su potencial y para contrarrestar este efecto se sugiere que se incluya un electrodo auxiliar como tercer electrodo, el cual haría las veces de generador o sumidero de electrones en función del potencial oxidante o reductor que se esté aplicando al electrodo de trabajo. La energía entregada al sistema de electrodos es programada por el potenciostato en función del tiempo y puede ser implementado de diversas formas como barrido lineal, cíclico, pulsado, en onda cuadrada, entre otras. Uno de los tipos de barrido contribuye a la voltamperometría [1], que se enmarca en un grupo de métodos electroanalíticos en los que la información sobre el analito se obtiene a partir de medidas de la intensidad de corriente, como resultado del potencial aplicado y la medida de impedancia en el sistema con condiciones que favorecen la polarización de un electrodo indicador o de trabajo. La voltamperometría se desarrolla a partir de la polarografía, un tipo particular de variación de voltaje que fue descubierta por el químico checoslovaco Jaroslav Heyrovsky a principios de 1920 [2]. La voltamperometría cíclica consiste en variar el potencial en un rango determinado, Entre Ciencia e Ingeniería Fig. 1 Señales de excitación en voltamperometría cíclica. La Figura 1a, es la señal voltamperométrica clásica, el barrido lineal, en la que la corriente continua aplicada a la celda, aumenta linealmente en función del tiempo, en las Fig. 1b y Fig. 1c se muestran dos señales de excitación de impulsos. Las intensidades de corriente se miden a diferentes tiempos durante la vida de estos impulsos. La Fig. 1d es una onda de forma triangular, donde el potencial varía entre dos valores, primero aumenta linealmente hasta un potencial determinado, y después disminuye linealmente con una pendiente del mismo valor numérico hasta su valor original. Este proceso se puede repetir numerosas veces, registrándose la intensidad de corriente en función del tiempo. La voltamperometría cíclica se utiliza normalmente para proporcionar información cualitativa sobre procesos electroquímicos en diversas condiciones y constituye una herramienta importante para el estudio de los mecanismos y de las velocidades de los procesos de oxidación/reducción. Con el fin de diseñar un dispositivo de control y adquisición de datos, es necesario conocer acerca de los instrumentos que se encuentran en el mercado para dicho fin y de los adelantos tecnológicos que se están utilizando para el desarrollo de procesos electroquímicos. Desde la mitad del siglo XX se han estudiado, planteado y depurado los métodos para ejecutar las pruebas electroquímicas lo que ha conllevado al desarrollo de potenciostatos cada vez más robustos y precisos [3]. Se observa una tendencia mundial en diseñar sistemas completos que permiten realizar no solamente la prueba electroquímica, sino también la adquisición y procesamiento de los datos obtenidos. La mayoría de estos equipos permiten la comunicación con dispositivos de cómputo para la visualización y análisis de los resultados por parte del usuario [4]. 63 En general, los fabricantes de potenciostatos modernos buscan crear equipos que se destaquen por tener alta precisión, bajo consumo de energía, peso reducido, sencillez en la interfaz de usuario y la capacidad de manejar tasas de escaneo. Algunos de los dispositivos utilizados actualmente han sido diseñados por las empresas Princeton Applied Research, BioLogic Science Instruments y Gamry Instruments y presentan las características adecuadas para este tipo de aplicaciones y pueden superar fácilmente los miles de dólares; es por esto que se hace necesario desarrollar prototipos que permitan realizar algunas de las funciones de estos, a un bajo costo. El objetivo de este trabajo es el desarrollo de un prototipo de potenciostato tanto en hardware y software que permita obtener características similares a las de potenciostatos comerciales cuando son usados para obtener recubrimientos mediante electrodeposición. I. Metodología A continuación, se despliega la propuesta del potenciostato mediante la metodología QFD (Quality Function Deployment), que es una herramienta de planificación que desarrolla “una sistemática para transmitir las características que deben tener los productos a lo largo de todo el proceso de desarrollo”, metodología propuesta por Yoji Akao [5]. La metodología QFD también se conoce popularmente “como la voz del cliente” (debido a su filosofía de transmisión de requisitos) y también como “la casa de la calidad” (debido al aspecto de una de sus construcciones gráficas). La QFD sirve esencialmente para: identificar las necesidades y expectativas de los clientes, tanto externos como internos, priorizar la satisfacción de estas expectativas en función de su importancia, focalizar todos los recursos, humanos y materiales, en la satisfacción de dichas expectativas, si se alcanzan los objetivos anteriores, debe redundar en: reducción de los tiempos de desarrollo de nuevos productos y servicios, optimización del producto o servicio para las expectativas del cliente objetivo, más eficacia: se concentran los esfuerzos en “hacer lo que hay que hacer” y más eficiencia: se reducen los costos por fallos. Para el desarrollo de la QFD en el diseño del prototipo de potenciostato, el proceso se divide en 4 etapas: clarificar y definir la idea, determinar las funciones y sus estructuras, buscar los principios de solución y sus variables y por último dividir en módulos realizables. A. Etapa I: clarificar y definir la idea 1) Especificaciones del producto: ü Se requiere diseñar un dispositivo que permita mantener constante una variable eléctrica dada (potencial o corriente) ü El controlador del dispositivo debe tener una interfaz gráfica de fácil manejo. ü Debe permitir el manejo de corrientes de hasta 2 A y voltajes de hasta 20 V. ü Debe tener una alarma que indique el desfase de estos rangos y que automáticamente apague el dispositivo para su protección. ü Debe estar construido en componentes electrónicos robustos que aseguren la uniformidad en el potencial entregado. ü Debe permitir censar los potenciales dentro del sistema en tiempo real. Las preguntas comunes acerca de funcionamiento del dispositivo fueron: ü ¿Con qué frecuencia se usará el dispositivo? • Se usaría constantemente mientras se realizan las pruebas de procesos electroquímicos. ü ¿Sería un dispositivo móvil o sólo para uso en el laboratorio? • Aunque puede usarse en cualquier parte, la idea es que sea usado en un laboratorio de materiales por personal capacitado. ü ¿Qué tipo de fuente de alimentación tiene? • Fuente con alimentación de 110 V con capacidad de entregar los potenciales requeridos. ü ¿Requiere refrigeración? • Aunque no es necesaria, se sugiere para evitar posibles recalentamientos en el dispositivo. ü ¿En qué formato transmite los datos obtenidos? • Formato de datos ASCII ü ¿Requiere algún dispositivo adicional para transmitir datos al computador? • Tarjeta de adquisición de datos con conexión USB. ü ¿Tiene la capacidad de medir diferentes variables en el sistema? • Corriente, voltaje, resistencia y se pueden adaptar diferentes tipos de sensores para tener un control total sobre el sistema ü ¿Qué variables se pueden controlar desde la interfaz? • Modo en el cual se desea trabajar (cronoamperometría, cronopotenciometría o voltamperometría cíclica), cantidad de potencial (potencial o corriente), duración del proceso electroquímico, lazo abierto o lazo cerrado. De las preguntas anteriores se concluyó que los potenciostatos comerciales y de marcas reconocidas en el mercado son muy costosos tanto en hardware como software, es por esto que surge la importancia de implementar este tipo de dispositivos a precios más asequibles y que permitan realizar las actividades básicas de electrodeposición para la investigación en materiales. Además, del desarrollo de una interfaz hombre – máquina que permita interactuar con Universidad Católica de Pereira 64 las variables controladas por el potenciostato y guardar los datos obtenidos en el proceso para un posterior análisis. Al ser un dispositivo de uso frecuente, debe presentar un sistema robusto para minimizar las posibles fallas tanto del dispositivo como humanas. 2) Los “QUÉ” ü El dispositivo permite trabajar a diferentes rangos en las variables eléctricas ü El dispositivo admite realizar experimentos sin electrodo de referencia ü El dispositivo es liviano ü El dispositivo permite una comunicación en tiempo real y confiable con el computador ü El dispositivo protege al usuario además de orientarlo para su manejo contribuyendo a su propia protección B. Etapa II: determinar las funciones y sus estructuras En esta etapa se analizan las posibles soluciones o mecanismos que sirvan para cumplir con los requerimientos: ü El sistema debe permitir una conexión fácil de los electrodos. ü Debe ser fabricado en forma óptima para reducir componentes, costos, tamaño y peso. ü Comunicación cableada hacia el computador, agregando la componente de tiempo en el computador. ü Transmisión de datos en tiempo real hacia el computador, generando las gráficas en tiempo real de la medida del dispositivo. ü Diseño agradable a la vista. ü Marcas en los lugares de conexión que orienten el uso correcto del dispositivo. ü Se requiere una interfaz gráfica en el computador para capturar, graficar y registrar los datos recolectados. ü Debe tener aislamiento entre electrodos para evitar la contaminación de la información. Tomando la anterior información se procede a obtener los “CÓMOS” o características que debe tener finalmente este dispositivo 1. El dispositivo es liviano. 2. El dispositivo transmite los datos en tiempo real en forma serial por cable USB. 3. El software de adquisición y control se hace a través de una interfaz simple en la plataforma de LabView®. la cual permite tener acceso a las variables del sistema. 4. Medición constante de las variables y actualización inmediata de ajuste de potencial con datos adquiridos. 5. Marcas visibles informativas. C. Etapa III: buscar principios de solución y sus variantes En esta etapa se muestra la solución a las características del dispositivo (Tabla I Tabla i. Entre Ciencia e Ingeniería No. 1 2 Solución a características del dispositivo Característica Cómo hacerlo Métrica Ancho: 27 cm Liviano y Base en lámina de acero Alto: 10 cm resistente inoxidable Profundo: 39 cm Transmisión Cable USB de datos en Cableado serial USB estándar de 350 tiempo real cm 3 Interfaz simple Interfaz gráfica en el programa LabView® 4 Medición constante de variables Tarjeta de adquisición de datos NI-USB 6009 de la empresa National Instruments© Ancho: 8 cm Alto: 8 cm Profundo: 2 cm 5 Marcas visibles informativas Calcomanías en pines para conexión de los electrodos Ancho: 1 cm Alto: 0,5 cm D. Etapa IV: dividir en módulos realizables Se especifica la solución dependiendo del área correspondiente, desde el punto de vista del usuario y teniendo en cuenta las siguientes características: üFuncionamiento (A) üRobustez (B) üCosto (C) üReciclaje (D) üManufactura (E) üMantenimiento (F) üPuesta en marcha (G) üEnsamble (H) De esta forma se tiene en cuenta el ciclo de vida del producto. En el siguiente cuadro sólo se dará la importancia a cada característica del producto, con base en cada uno de los parámetros anteriores, para de esta forma saber en qué se debe hacer énfasis en el momento de desarrollar el dispositivo. La importancia se dará con una calificación en la escala 1 a 10, donde 1 es menos importante y 10 lo máximo de importancia del parámetro. Tabla II. Relevancia de las características Como se puede apreciar, las características más importantes 65 son funcionamiento, robustez, costo y puesta en marcha, estos son los factores que se deben contemplar con mayor interés a la hora de desarrollar el plan de ejecución del dispositivo. I. Resultados La implementación del potenciostato se conforma de dos fases principales: hardware y software. La fase del hardware está compuesta por el sistema de control, el sistema de potencia y el sistema de adquisición de datos. A su vez, el sistema de control y el sistema de adquisición de datos hacen parte de la fase del software. El sistema de control y adquisición de datos para el potenciostato, permite generar un potencial variable con corriente constante, o permite generar un potencial constante con corriente variable, para generar estímulos en procesos electroquímicos. Teniendo en cuenta las necesidades encontradas en la metodología QFD para el desarrollo del potenciostato, se tomaron como características principales del diseño del hardware: ü Salida de potencial máximo: 20 V DC ü Salida de corriente máxima: 2 A ü Impedancia de salida: igual o menor a 1 Ω ü Impedancia de entrada: igual o mayor a 10 MΩ ü Resolución del sistema de adquisición: 14 bits ü Velocidad de muestreo en el sistema de adquisición. 48 kS/s para 8 canales. ü Canales análogos de entrada al sistema de adquisición: 8 ü Resolución del sistema de control: 12 bits ü Canales análogos de entrada al sistema de control: 4 ü Todo el sistema es controlado por un microcontrolador de 32 bits de última generación Cortex-M. ü Se realiza comunicación con PC mediante puerto USB No aislado. Fig. 2. Diagrama de bloques potenciostato. F. Módulo de control El sistema de control (Figura 4.) efectúa todo el mando del proceso de forma autónoma, recibiendo las señales de ajuste desde el módulo de adquisición (Figura 3.). La tarjeta de control STM32F4-Discovery es instalada sobre una tarjeta que realiza todo el acondicionamiento de las señales análogas a procesar. Las funciones realizadas son: ü Configura el oscilador del sistema para operar a 168 MHz, según cristal de 8 MHz. ü Configura los puertos de entrada - salida. ü Configura el temporizador, para generar retardos programados. ü Configura el puerto, para realizar lectura de los canales análogos. ü Ajusta la resolución del convertidor ADC a 12 bits. ü Genera una salida análoga. ü La resolución del generador es de 12 bits, realizando actualizaciones por software. E. Módulo de Potencia Los materiales principales utilizados en la construcción del módulo de potencia fueron: ü Acero inoxidable ü Fuente industrial de 24 V DC y 3 A ü Tarjeta desarrollada en fibra de vidrio simple capa, que contiene el sistema de control, el sistema de acondicionamiento de señales y la unidad de potencia ü Cable USB tipo B. Fig. 3. Distribución de módulos en potenciostato. En la Figura 2 se puede observar el diagrama de desarrollo de hardware del potenciostato. Universidad Católica de Pereira 66 Tabla III. Diagrama de datos para visualización en interfaz. Se desarrolla adicionalmente una interfaz para realizar el control del potenciostato mediante voltamperometría cíclica, permitiendo entregar al proceso señales de onda triangular (Figura 6), senoidal (Figura 7) y cuadrada (Figura 8); en esta interfaz, además del control del tiempo de electrodeposición y la cantidad de potencial, se ingresan los ciclos por segundo y frecuencia de las señales de excitación. Fig. 4. Módulo de control potenciostato. G. Módulo de adquisición de datos El módulo de adquisición de datos (Figura 4.) se compone de un sistema de adquisición NI USB-6009, el cual realiza una toma de datos en tiempo real durante el transcurso del proceso electroquímico y guarda los datos en formato *.tdms a una velocidad de hasta 48 kS/s. Fig. 6. Señal Onda Triangular El desarrollo de una interfaz en el programa LabView® (Figura 5) permite al usuario determinar si desea trabajar con cronoamperometría o cronopotenciometría, controlando el tiempo de deposición y el porcentaje de operación del modo elegido (cantidad de potencial o corriente), permite trabajar en lazo abierto o lazo cerrado y finalmente, elegir la ubicación del archivo *.tdms en el cual se guardarán los datos obtenidos durante el proceso. Fig. 7. Señal onda senoidal. Fig. 5. Interfaz Gráfica en LabView® En la tabla 3 se observa el color de cada una de las ondas que se visualizan en la interfaz gráfica, además de los valores equivalentes en porcentaje a corriente y voltaje: Entre Ciencia e Ingeniería Fig. 8. Señal onda cuadrada. Finalmente, con los datos obtenidos en los procesos de voltamperometría cíclica, se pueden obtener las curvas de histéresis características de los procedimientos desarrollados, graficando los voltajes en el electrodo de trabajo con respecto a las corrientes que se presentaron durante el proceso. 67 Los análisis de voltamperometría cíclica permiten observar los cambios en la transferencia de iones y sugieren valores de voltajes ideales de trabajo; para el ejemplo de aplicación, en la obtención de recubrimientos de fosfatos de calcio sobre acero 316L se encontró un rango de voltajes ideales de trabajo entre -0,5 V a -3,0 V, estos resultados se pueden evidenciar en la figura 10, potenciostato UAM y la figura 11, potenciostato comercial. Fig. 9. Voltamperometría cíclica. H. Aplicación del prototipo de potenciostato en un proceso de electrodeposición Una de las aplicaciones del potenciostato desarrollado es la obtención de recubrimientos biocompatibles de fosfatos de calcio sobre acero 316L. La obtención de biomateriales con las características adecuadas para la restauración o sustitución del tejido óseo en los seres humanos, en el recubrimiento de metales como el titanio puro y sus aleaciones es uno de los grandes temas de investigación en el campo de los biomateriales, los fosfatos de calcio hacen parte de este gran grupo y durante los últimos años se ha estudiado la forma de obtener una respuesta apropiada con respecto al medio fisiológico. El estudio de la biocompatibilidad de los fosfatos de calcio sobre el cuerpo humano ya ha sido tema de investigación [6], comprobándose su biocompatibilidad debido a que son unos de los principales componentes de los huesos; las características de biocompatibilidad [7] se basan en que no debe inducir la separación, reacción inflamatoria o de cuerpo extraño, como también provocar una respuesta del sistema inmunológico, no debe ser tóxico originalmente ni los productos de su descomposición, no debe ser bioabsorbible al extremo de su destrucción en el medio biológico, ni debe alterar genéticamente las células adyacentes. Los métodos utilizados en la actualidad, para obtener los recubrimientos de estos materiales cerámicos, incluyen equipos sofisticados, protocolos de elevados costos y grandes cantidades de energía tales como pulverización por plasma y ablación laser entre otras. Otras técnicas como solgel [8] y electrodeposición [9] se están empleando debido no sólo a su bajo costo y simplicidad, sino porque además, permiten obtener materiales a bajas temperaturas con buena cristalinidad y baja solubilidad en fluidos corporales. Como una aplicación del desempeño del potenciostato desarrollado en la Universidad Autónoma de Manizales, con el apoyo de la empresa Gamatec S.A., se realizaron procesos de electrodeposición, los cuales presentan resultados comparables con un potenciostato comercial. Las funciones principales en las que se basó el ejemplo de aplicación fueron las curvas de voltamperometría cíclica y la cronoamperometría. Fig. 10. Voltamperometría cíclica potenciostato UAM. Fig. 11. Voltamperometría cíclica potenciostato comercial. Teniendo en cuenta el análisis realizado mediante voltamperometría cíclica se decide trabajar con un potencial de crecimiento de la película de -1.2 V tanto en el potenciostato comercial como en el implementado, obteniendo películas de características similares tanto en adherencia como en uniformidad. Las películas obtenidas son sometidas a caracterización estructural mediante Espectroscopia Infrarroja por Transformada de Fourier (FTIR) (Figura 12), en la cual se pueden observar bandas entre 500 y 600 cm-1 asignadas a modos de flexión asimétrica (O-P-O v4) y entre 1000 y 1100 cm-1 que de acuerdo a la literatura son características de apatita, y están asociadas a modos vibracionales de estiramiento asimétrico (P-O v3). Una banda alrededor de 980 cm-1 asociada a modos vibracionales de estiramiento simétrico (P-O v1) y otra alrededor de 863 cm-1 asignada a modos vibracionales de grupos (HPO4 v5), se evidencia además una banda alrededor de 3500 cm-1, asignada a modos vibracionales de estiramiento de agua absorbida (O-H-, H2O) y un pico en 1635 cm-1 asociada a flexión de grupos H-O-H [8,9]. Adicionalmente, se presenta un desdoblamiento en dos picos de las bandas asociadas a los iones PO43- en 525 cm-1, 575 cm-1 y un desdoblamiento en tres picos para 978 cm-1, Universidad Católica de Pereira 68 1058 cm-1, 1127 cm-1, este desdoblamiento es característico de la presencia de la forma de apatita DCPD (Dicalcio Fosfato Dihidratado o DCPD) identificado en ambos espectros. teniendo en cuenta las herramientas y materiales con los que se cuenta, y llevar de manera planeada un proyecto a la realidad. El uso del potenciostato permite tener el control sobre los procesos electroquímicos desarrollados, interviniendo en variables del proceso tales como el tiempo, el potencial, la corriente, el número de repeticiones de la voltamperometría cíclica, entre otras. La obtención de las curvas de voltamperometría y de las características de los procesos electroquímicos realizados con el prototipo de potenciostato desarrollado en la Universidad Autónoma de Manizales y con el potenciostato comercial, permitieron evidenciar la calidad del equipo construido, al obtener resultados comparables. Fig. 12. Análisis FTIR de películas crecidas a -1,2V. Como complemento a la caracterización FTIR se realiza caracterización estructural mediante Difracción de Rayos X (XRD) (Figura 13), en la cual se pueden observar picos asociados a la fase DCPD (ICDD: 72-1240), y algunos picos para los sustratos de acero 316L. La función cronoamperométrica de ambos potenciostatos demostró ser apta para la obtención de fosfatos de calcio sobre sustratos de acero 316L, los cuales tienen potenciales aplicaciones en implantes. Agradecimientos Los autores de este trabajo agradecen a la Universidad Autónoma de Manizales, a los grupos de investigación en automática y física y matemáticas con énfasis en la formación de ingenieros, a la empresa Gamatec S.A. por el apoyo constante en el desarrollo del prototipo del potenciostato y a la Universidad Nacional de Colombia sede Manizales por su disponibilidad para la caracterización de las películas. Referencias Fig. 13. Análisis XRD de películas crecidas a -1,2V. Lo anterior demuestra un adecuado funcionamiento del prototipo de potenciostato desarrollado en la Universidad Autónoma de Manizales, a la hora de obtener recubrimientos de fosfatos de calcio, en comparación con potenciostatos comerciales. Estas características serán objeto de análisis en un trabajo posterior. I. Conclusiones Se desarrolló un prototipo de potenciostato usando la metodología QFD, la cual permitió identificar las necesidades y expectativas del equipo, además, de dar solución a éstas Entre Ciencia e Ingeniería [1] Skoog, Leary. Análisis Instrumental. Vol I. Ed. Mc Graw Hill. Sexta Edición. 2008 [2] J. Heyrovsky, “Practical Applications of the Polarographic Method in Chemistry” Enlarged Russian Edition. 1937. [3] D. Monroy, S. Zabala, “Repotenciación y actualización de un potenciostato galvanostato princeton modelo 363 para el laboratorio de corrosión de la escuela de ingeniería metalúrgica y ciencia de materiales”, Tesis de maestría dirigida por A. Acevedo, D. Peña, Facultad de Ingenierías Físico-Mecánicas, Universidad Industrial de Santander, 16, sep, 2005. [4] J. Amaya, “Instrumentación electroquímica: Fundamentación teórica para la construcción de prototipos para el laboratorio de corrosión de la escuela de ingeniería metalúrgica”, Tesis de maestría dirigida por J. Barrero, C. Vásquez, Facultad de Ingenierías Físico-Mecánicas, Universidad Industrial de Santander, 29, ene, 2009. [5] L.-K. Chan and M.-L. Wu, “Quality function deployment: A literature review,” Eur. J. Oper. Res., vol. 143, no. 3, pp. 463–497, Dec. 2002. [6] D. Gopi, J. Indira, and L. Kavitha, “A comparative study on the direct and pulsed current electrodeposition of hydroxyapatite coatings on surgical grade stainless steel,” Surf. Coatings Technol., vol. 206, no. 11–12, pp. 2859–2869, Feb. 2012. [7] D. Gopi, S. Ramya, D. Rajeswari, and L. Kavitha, “Corrosion protection performance of porous strontium hydroxyapatite coating on polypyrrole coated 316L stainless steel,” Colloids Surfaces B Biointerfaces, 2013. [8] D. Gopi, S. Ramya, D. Rajeswari, and L. Kavitha, “Corrosion protection performance of porous strontium hydroxyapatite coating on polypyrrole coated 316L stainless steel,” Colloids Surfaces B Biointerfaces, 2013. [9] M. Asadi-Eydivand, M. Solati-Hashjin, A. Farzadi, and N. A. A. Osman, “Artificial neural network approach to estimate the composition of chemically synthesized biphasic calcium phosphate powders,” Ceram. Int., vol. 40, no. 8, pp. 12439–12448, Sep. 2014. [10] X. Zhang, F. Geng, X. Huang, and M. Ma, “Acceleration of the 69 initial phase transformation of mineralization by phosvitin,” J. Cryst. Growth, vol. 409, pp. 44–50, Jan. 2015. Belarmino Segura Giraldo nació en Manizales, Caldas, Colombia, el 24 de Enero de 1968. Se graduó en la Universidad Nacional de Colombia sede Manizales como Ingeniero Electricista, Especialista en Docencia Universitaria, realizó su Magister en Ciencias Físicas y Doctor en ingeniería-Línea Automática de la Universidad Nacional de Colombia, actualmente se desempeña como docente en el departamento de Electrónica y Automatización de la Universidad Autónoma de Manizales y en la Universidad Nacional de Colombia sede Manizales como docente catedrático titular en el Departamento de Física y Química. Sus principales intereses de investigación son el procesamiento digital de registros, las técnicas espectroscópicas de impedancia eléctrica y óptica de fluorescencia, la biofísica, los procesos electroquímicos, entre otros. Francy Nelly Jiménez García nació en Manizales, Caldas, Colombia, el 1 de Marzo de 1970. Se graduó en la Universidad Nacional de Colombia en el pregrado de ingeniería química, posteriormente realizó la especialización en computación para la docencia en la Universidad Antonio Nariño. Alcanzó los títulos de Magister en Ciencias Física y Doctora en Ingeniería también en la Universidad Nacional, Sede Manizales. Ejerció profesionalmente en varias Universidades de su ciudad Natal tales como: la Universidad de Caldas y la Universidad Antonio Nariño. Actualmente es docente titular en dedicación de catedra de la Universidad Nacional Sede Manizales y docente titular de tiempo completo en la Universidad Autónoma de Manizales (UAM). Cuenta con 22 años de experiencia docente 20 de ellos a nivel universitario. Entre sus campos de interés están los procesos de enseñanza y aprendizaje tanto de física como de la matemática así como el estudio de materiales de ingeniería. La ingeniera Jiménez ha sido beneficiaria de becas en algunas de las Universidad donde ha estudiado así como de Colciencias para adelantar sus estudios de posgrado. Recibió el título de mejor docente en la facultad de ingenierías de la Universidad Autónoma de Manizales en el 2008 y Mención por sus logros académicos e investigativos en el 2015. Se ha desempeñado como coordinadora del departamento de física y Matemáticas, como docente e investigadora del mismo y pertenece al grupo de investigación en física y matemática con énfasis en la formación de ingenieros, el cual se encuentra en categoría B en COLCIENCIAS, al que actualmente lidera. Laura Rocío Giraldo Torres nació en Cali, Colombia el 21 de junio de 1992. Se graduó como Ingeniera Biomédica en la Universidad Autónoma de Manizales. Es estudiante actualmente de la Maestría en Bioinformática y Biología Computacional con una beca otorgada por la institución. Ejerció profesionalmente como joven investigadora durante los dos años siguientes a su promoción de pregrado y labora actualmente en la Universidad Autónoma de Manizales como docente adscrita al Departamento de Física y Matemática, perteneciendo activamente a los grupos de Investigación en Automática y en Física y Matemática con énfasis en la formación de Ingenieros. Universidad Católica de Pereira 70 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 70-80 Métodos para determinar el factor de intensidad de esfuerzos1 Methods to determine the stress intensity factor Métodos para determinar o fator de intensidade de esforços J. A. Grajales y L. V. Vanegas Recibido Agosto 22 de 2015 – Aceptado Febrero 19 de 2016 Resumen— En este trabajo se presenta una breve revisión de los métodos existentes para determinar el factor de intensidad de esfuerzos. Se presentan algunos aspectos históricos de la mecánica de fractura. Luego se exponen algunos de los métodos clasificándolos en tres grupos: métodos analíticos, de elementos finitos y experimentales. Para cada grupo se presentan algunos métodos, su desarrollo y características principales, incluyendo algunas ventajas, desventajas y restricciones. Se evidencian las razones de la comunidad científica de avanzar en la aplicación de los elementos finitos, debido a su enorme versatilidad, y se aprecia el enorme esfuerzo que implica aprender, dominar y aplicar cualquiera de los métodos. Palabras Clave— factor de intensidad de esfuerzos, mecánica de fractura, métodos analíticos, método de elementos finitos, métodos experimentales. Abstract— This paper presents a brief review of the existing methods to determine the stress intensity factor. Some historical aspects of fracture mechanics are presented. Then some of the methods are described, classifying them into three groups: analytical, finite element, and experimental methods. For each method, its characteristics, advantages, disadvantages, and restrictions are discussed. The reasons for the scientific community to advance in the application of the finite element method, due to its great versatility, are evident. It is clear that learning, mastering, and applying any of the methods entails a great effort. 1 Este trabajo es producto del proyecto de investigación “Modelado de crecimiento de grietas por fatiga por ludimiento”, perteneciente al grupo de investigación Procesos de Manufactura y Diseño de Máquinas, vinculado a la Facultad de Ingeniería Mecánica de la Universidad Tecnológica de Pereira. J.A. Grajales, Ingeniero Mecánico, Candidato a M.Sc. en Ingeniería Mecánica y Profesor Catedrático, Facultad de Ingeniería Mecánica, Universidad Tecnológica de Pereira, Pereira (Colombia); correo e.: [email protected]. L.V. Vanegas, Ingeniero Mecánico, M.Sc., Ph.D., Profesor Titular de la Facultad de Ingeniería Mecánica, Universidad Tecnológica de Pereira, Pereira (Colombia); correo e.: [email protected]. Entre Ciencia e Ingeniería Key words— stress intensity factor, fracture mechanics, analytical methods, finite element method, experimental methods. Resumo – Neste trabalho se apresenta uma breve revisão dos métodos existentes para determinar o fator de intensidade de esforços. Apresentam-se alguns aspectos históricos da mecânica de fratura. Logo se expõem alguns métodos classificandoos em três grupos: métodos analíticos, de elementos finitos e experimentais. Para cada grupo apresentam-se alguns métodos, seu desenvolvimento, e características principais, incluindo algumas vantagens, desvantagens e restrições. Evidenciam-se as razões da comunidade cientifica de avançar na aplicação dos elementos finitos, devido a sua enorme versatilidade e se aprecia o enorme esforço que implica aprender, dominar e aplicar qualquer dos métodos. Palavras chave: fator de intensidade de esforços, mecânica de fratura, métodos científicos, método de elementos finitos, método de elementos experimentais. E I. Introducción n el desarrollo de estructuras y elementos de máquinas se desea siempre garantizar el adecuado funcionamiento de todas las piezas. Es por esto que se desarrollan metodologías de diseño con las cuales se pueda calcular un valor de carga a aplicar, que se pueda comparar con un valor límite (definido por el material y la geometría), asegurando el diseño realizado. A principios del siglo pasado se pensaba que el diseño basado en los esfuerzos de operación de los elementos, comparado con los esfuerzos límite de los materiales, era condición suficiente para su operación satisfactoria. Sin embargo, han ocurrido diversos accidentes (fallas prematuras) con elementos que se pensaban bien diseñados. Este es el caso del buque Titanic (1912), un tanque de melaza en Boston que estalló por la presión de la melaza (1919), 71 muchos barcos de la época de la 2da guerra mundial que se partieron en dos (1940s) y tres aviones Comet británicos que se desintegraron en el aire en menos de un año (19531954). En muchos casos, las fallas ocurrían en presencia de pequeñas deformaciones y poca fluencia en las zonas de falla, es decir, tenían comportamiento frágil [1]. Éstos y muchos otros incidentes motivaron el desarrollo de lo que hoy se conoce como mecánica de fractura [2]. A manera de ejemplo, la Fig. 1 muestra una placa plana agrietada de material dúctil sometida a un esfuerzo de tracción. En muchos casos, la fractura total puede ocurrir con una pequeñísima deformación plástica, la cual se presenta en las cercanías a la punta de la grieta. Por tanto, el material parece tener una fractura frágil. para la determinación del factor de intensidad de esfuerzos en diferentes piezas y solicitaciones de carga, siguiendo la mayor clasificación que los agrupa: métodos analíticos, métodos numéricos (como el análisis de elementos finitos) y métodos experimentales. Por otro lado, [5] clasifica los métodos de acuerdo a su complejidad y tiempo requerido para su aplicación (Tabla I). Para geometrías sencillas, la primera opción es recurrir a los compendios [6,7]. Los métodos de la clase II son relativamente simples, proporcionan una estimación rápida de K y aportan una aproximación de los principios de la mecánica de fractura; en [5] se presenta una descripción de estos métodos. Tabla I Algunos métodos para evaluar k [5] Clase I Compendios a Zona plástica Fig. 1. Placa plana con grieta de borde de tamaño a sometida a un esfuerzo remoto s. En la mecánica de fractura se trata de explicar el comportamiento de un material agrietado cuando está sometido a esfuerzos. Se pretende explicar por qué un material, en aparentemente buenas condiciones, presenta falla prematura en condiciones de carga inferiores a los límites de fluencia y rotura, reconociendo que todos los materiales tienen pequeñas imperfecciones que actúan como grietas, modificando la distribución de los esfuerzos [3]. Es así que aparece un nuevo criterio de falla que considera los defectos mecánicos, presentes en los materiales de ingeniería. La mecánica de fractura muestra que los parámetros tenacidad del material, tamaño de grieta y nivel de esfuerzo pueden ser relacionados para predecir la posibilidad de una fractura frágil [3]. El parámetro que caracteriza los esfuerzos en la zona que rodea la punta (o mejor, el frente) de una grieta se denomina factor de intensidad de esfuerzos K y depende de la geometría de la pieza y del caso de carga al que está sometida [1,4]. La determinación de este parámetro tiene un nivel de complejidad elevado y ha sido abordado en las últimas cinco décadas por diferentes investigadores, siguiendo diferentes caminos para tratar de facilitar el proceso. En el presente documento se pretende realizar una recopilación de algunos de los métodos que se utilizan Clase II Superposición M Concentrador de esfuerzos Distribución local de esfuerzos Funciones de Green Funciones de peso Composición de contornos Clase III étodo de colocación Método de elementos finitos (FEM) Método de elementos finitos extendido (X-FEM) Método de elementos de contorno (BEM) Método de colocación discontinua Método de las funciones de borde Método de fuerzas másicas Los métodos de la clase III son más complejos y requieren de una solución numérica. El método de colocación fue popular en los años 60, pero en los años 70 comenzó a dominar el Método de Elementos Finitos (FEM) [8-14], debido a su versatilidad y simplicidad. Hoy en día se está usando mucho la variante X-FEM, la cual simplifica el mallado (especialmente para problemas de crecimiento de grieta) [15]. El método de elementos de contorno (BEM) surgió como una poderosa alternativa por sus menores exigencias en cuanto a discretización. El método de las fuerzas másicas y el de las funciones de borde tienen ciertas similitudes al ser comparadas con BEM. El método de las líneas aplica técnicas de solución de ecuaciones diferenciales ordinarias. [16] II. Conceptos introductorios Los primeros resultados que evidenciaban el efecto de la concentración de esfuerzos en grietas fueron obtenidos por Inglis [17], después de analizar el efecto de la presencia de agujeros elípticos de longitud 2a y ancho 2b en placas planas (Fig. 2), con la condición de que el agujero no es influenciado por las condiciones de contorno (la placa es mucho más grande que el agujero). Para estas condiciones, el valor del esfuerzo en el extremo del eje mayor está dado por Universidad Católica de Pereira 72 2a 1+ , A = b (1) donde s es el esfuerzo remoto aplicado. Si esta ecuación es llevada al extremo para simular una grieta, es decir, si el eje menor de la elipse, b, tiende a cero, el valor del esfuerzo se vuelve infinito. y r 2b ! x A 2a Sin embargo, fue Irwin, quien a partir de la teoría de la elasticidad, obtuvo expresiones para los esfuerzos en la cercanía de una grieta, en coordenadas polares (r,q) con centro en el frente de grieta: K 2 r I fij ( ), ij = donde r es la distancia del punto de análisis a la punta de la grieta, q es el ángulo que forma r con respecto al eje x (el cual va en la dirección de la grieta) y fij es una función. Es así que se introduce el término factor de intensidad de esfuerzos KI (el subíndice indica el modo de deformación de grieta: modo I o modo de abertura o tracción, que es el más común en la práctica y por ende es el que más atención ha recibido). El factor K depende de la geometría del elemento y del tipo y magnitud de la carga y está dado por: KI = a, Fig. 2. Placa infinita con agujero elíptico pasante. Este resultado causó preocupación en la comunidad científica, dado que significaba que en la presencia de grietas, hasta un esfuerzo infinitesimal lograría dañar cualquier material. Motivado por esto, Griffith [18] desarrolla una teoría de la fractura basada en energía en vez de la concentración de esfuerzos [17]; es así que en 1921 estableció la teoría que sustenta y dio origen a la mecánica de fractura: un crecimiento de grieta puede ocurrir si la energía requerida para formar un incremento de grieta da puede ser justamente liberada por el sistema, es decir, si el proceso origina una disminución de la energía total o ésta permanece constante. A partir de la relación entre el cambio en la energía superficial del cuerpo (propagación de la grieta) y la energía disponible, Griffith obtiene expresiones para el esfuerzo de rotura para una placa infinita con una grieta pasante central de tamaño 2a: 2 E' s f = donde: E' = 1 E' = E E 2 a (deformación plana) , (2) (3) (esfuerzo plano) gs es la energía de superficie libre por unidad de área de superficie, E es el módulo de elasticidad y v es la relación de Poisson. Esta expresión resultó ser aplicable a materiales frágiles, mas no correspondía al comportamiento de los metales. En 1952, Orowan [19] modificó la expresión de Griffith, para incluir el comportamiento plástico del material (fluencia): 2 E' ( s + p) , f = a (6) donde b es un parámetro que depende de la geometría del elemento y de la grieta, s es el esfuerzo remoto aplicado y a es la longitud de una grieta de borde o la mitad de la longitud de una grieta central. Prontamente se reconoce que el factor de intensidad de esfuerzos es el factor que caracteriza unívocamente el estado de esfuerzos en el frente de una grieta, dado por: (7) donde s y t son los esfuerzos normal y cortante respectivamente, en el punto de análisis, y las direcciones x y y se muestran en la Fig. 2. Si K alcanza cierto valor crítico (la tenacidad a la fractura del material Kc), ocurre fractura súbita. Se da inicio entonces a la mecánica de fractura elástica lineal (LEFM, por sus siglas en inglés). Crece entonces la necesidad de tener expresiones para K para elementos en diversas condiciones geométricas y de carga. Como se dijo, los métodos pueden clasificarse como analíticos, numéricos y experimentales. Los métodos analíticos tienen utilidad para casos en los que la geometría es relativamente sencilla. Para casos con geometrías o sistemas de esfuerzos complejos, los métodos de elementos finitos superan a los analíticos, por su versatilidad; por tanto, este trabajo se concentra principalmente en los métodos de elementos finitos. Las bases para determinar K se pueden encontrar en la literatura [20,21]. III. Métodos analíticos (4) donde gp es el trabajo de deformación plástica por unidad de área de superficie creada (gp >> gs en metales). Entre Ciencia e Ingeniería (5) Los métodos analíticos son importantes, ya que han sido la base de la mecánica de fractura y suministran las ecuaciones 73 parar calcular los campos de esfuerzos y desplazamientos [22]. En estos métodos, se trata de determinar las denominadas funciones de esfuerzo de Airy para hallar K. Westergaard realizó uno de los primeros acercamientos al problema [1], utilizando las funciones de Airy, en las cuales se dice que, para que se cumplan las ecuaciones de equilibrio, se tiene que cumplir la ecuación de compatibilidad: d4 d4 d 4 + 2 2 2 + 4 = 0, dx 4 dx dy dy (8) o 2 ( 2 ) = 0, (9) La función se llama la función de esfuerzo de Airy. A partir de ésta se pueden determinar los valores de esfuerzos y deformaciones mediante derivaciones parciales. Por ejemplo, para esfuerzo plano: d d d = , = , = . 2 x dy 2 2 y dx 2 2 xy dxdy (10) Es así que se busca entonces una función de Airy que cumpla con las ecuaciones para poder hallar los valores de los esfuerzos. Esta función de esfuerzos se estima sobre la base de resultados experimentales o conocimiento previo, para cada problema en particular [17]. la determinación de los parámetros de la expansión en serie de la distribución de esfuerzos y utilizando el “Boundary Collocation Method” (en español, método de colocación en la frontera) [23,24]. Para darle uso a la serie infinita, resultado de la función de esfuerzo de Airy, ésta debe ser truncada en el N-ésimo término (valor que debe ser correctamente seleccionado). Es así que se obtienen 2N coeficientes desconocidos, los cuales se determinan igualando las expresiones de esfuerzo y deformación, obtenidas a partir de la serie, con las condiciones de frontera específicamente seleccionadas, en un cierto número de puntos de colocación ubicados sobre dicha frontera. Para un número de puntos de colocación N + 1 se obtendría un sistema de 2(N + 1) ecuaciones que permiten calcular 2(N + 1) coeficientes. Para reducir el gasto computacional, se puede seleccionar un gran número de puntos de colocación, que permita resolver luego el sistema sobre determinado mediante el uso de mínimos cuadrados. A modo de ejemplo, en la Fig. 3 se presenta la ubicación de algunos puntos de colocación en un problema de grieta de borde en una placa finita, para los cuales se tendrían entonces las siguientes condiciones de frontera: Si x = 0, entonces sx = 0, txy = 0. Si y = H, entonces sy = s, txy = 0. Si x = W, entonces sx = 0, txy = 0. En 1957, Wigglesworth propone una solución analítica para una placa semi-infinita con grieta de borde en presencia de una presión constante en las caras de la grieta o de un esfuerzo remoto [23]. En esta se calculan los coeficientes de una expansión en serie de la distribución de esfuerzos alrededor de la grieta (expansión en serie con base en las funciones de Airy). Wigglesworth mostró que los coeficientes An y Bn se pueden determinar a partir de la expansión asintótica de una función para números enteros grandes : q(m) = 2h(1) (3 /2 ) (m /2 ) h(m), (m /2 + 3/ 2) (11) siendo m (V ) log(h(m)) = dV , (12) (V ) = log[1/ (1 V 2 csc h 2 ( V /2 ))]. (13) 0 m 2 +V 2 Fig. 3. Placa finita con grieta de borde. A partir de la relación entre las expansiones asintóticas del log(h(m)) y de h(m) se obtienen valores de An y Bn , que luego se operan para obtener de forma iterativa mejores valores de An y Bn , los cuales se utilizan para calcular An y Bn que son los coeficientes usados en la expansión en series de la distribución de esfuerzos [23]. Alrededor de 1965 se propone una solución simple para Otra herramienta fuerte para la determinación de factores de intensidad de esfuerzos es el principio de superposición, el cual permite encontrar soluciones de casos relativamente complejos, a partir de resultados conocidos de configuraciones sencillas (para los cuales se conozcan los valores mediante tablas o expresiones). Si el material en las condiciones requeridas tiene comportamiento elástico-lineal, las componentes del esfuerzo (normal en cada dirección, cortante en cada dirección), deformación y desplazamiento (en cada dirección) son sumas. De igual forma los factores de intensidad de esfuerzos pueden ser sumados, siempre y cuando el modo de fractura en el que fueron calculados sea el mismo. Es decir: Universidad Católica de Pereira 74 K = K + K + K +... total a b c I I I I (14) Para entender el principio de superposición, considere el ejemplo de la Fig. 4, en la cual se cumple que: a K I = K Ib = 0 = K Ic + K Id . (15) Fig. 4. Placa finita con grieta central. Otro método analítico que ha sido propuesto se basa en distribuciones continuas de dislocaciones [25,26]. La grieta es representada por una discontinuidad de desplazamiento que resulta de un arreglo de dislocaciones (ver [26]). IV. Métodos de Elementos Finitos A.Introducción Por la elevada complejidad matemática de los métodos analíticos y su reducida versatilidad (debido a la gran cantidad de simplificaciones requeridas, y a la necesidad de trabajar geometrías sencillas), se han desarrollado numerosos métodos numéricos. Algunos son: una técnica de mapeo de conformación (en inglés: conformal mapping technique), la cual fue usada por [27] para tratar el problema de una grieta que emana de un agujero. En [28], se desarrolla un procedimiento de mapeo-colocación (mapping-collocation procedure) para analizar una placa ortotrópica, la cual es una combinación de la técnica de mapeo de conformación y del método de colocación en la frontera, ya mencionados. Sin embargo, el método más usado para determinar K es el método de elementos finitos (FEM) y sus variantes. Tras el establecimiento de las bases de estos métodos, alrededor de 1970, se extendió su aplicación a la LEFM y creció la cantidad de métodos para mejorar su precisión y eficiencia. Algunos programas computacionales que usan FEM son Ansys [29], Abaqus [30], Samcef [31], Morfeo/Crack [32] y StressCheck [33]. En general, estos programas permiten determinar los factores de intensidad de esfuerzos y predecir el crecimiento de grietas por fatiga usando funciones de enriquecimiento. Estos programas han sido usados, por ejemplo, por [34-39]. El resto de esta sección se concentra en las diferentes variantes usadas para implementar el FEM. Entre Ciencia e Ingeniería B. Refinamiento de malla El primer acercamiento del FEM a la LEFM fue la aplicación directa (con refinamiento de malla) del análisis sobre un elemento agrietado. Conociendo que la distribución de esfuerzos en la cercanía del frente de grieta es la zona de importancia para la mecánica de fractura, se optó por utilizar mallas muy refinadas en esta zona. De esta forma el planteamiento del análisis de elementos finitos permanecía sin modificaciones, pero presentaba una muy baja eficiencia computacional, ya que el mallado tiene que refinarse mucho. C. Elementos singulares Para evitar el refinado excesivo de la malla se han propuesto diversas soluciones, una de las primeras soluciones implica el uso de elementos singulares, los cuales reemplazan los elementos normalmente utilizados en elementos finitos; de éstos se reconocen cinco tipos: elementos con funciones de forma especiales, híbridos, basados en transformaciones geométricas, enriquecidos y elementos de transición [4042]. Cada tipo de elemento singular presenta sus ventajas y desventajas que los hacen preferibles en determinadas condiciones y problemas (ver [12,43,44]). Por ejemplo, los elementos híbridos ofrecen una mayor precisión, pero los elementos basados en transformaciones geométricas (como los elementos tipo “quarter point”) son los más sencillos de implementar. Por ejemplo, [34] usan el método de elementos finitos con elementos singulares, para modelar una placa 2D mediante el software Ansys [29]. [37] determinan factores de intensidad de esfuerzos, usando Abaqus [30], para una pieza con una grieta de borde sometida a carga de modos I y II; se usan elementos singulares con nodos “quarter point”. D. X-FEM El método de los elementos finitos extendido (X-FEM, por sus siglas en inglés), propuesto por Belytschko y Black [45] y Moës [15], surgió como respuesta al análisis de propagación de la grieta, debido a que cada vez que crece la grieta se requeriría de un nuevo mallado, ya que ésta debe estar alineada con la topología de la discontinuidad. Se propuso un nuevo tipo de malla, donde los nodos pertenecientes a elementos intersecados por la ubicación geométrica de la grieta son “enriquecidos”, permitiendo el uso de una malla mucho más sencilla, que se extiende sobre la pieza supuesta sin grieta, y manteniendo la malla constante; así, se trata la grieta como una entidad geométrica independiente. Los nodos son “enriquecidos” mediante la adición de grados de libertad de manera que puedan representar la discontinuidad y mejorar la representación de la singularidad del extremo de grieta. Este enriquecimiento se puede realizar de dos formas diferentes: enriquecimiento de extremo de grieta (para los nodos del elemento donde se encuentra el frente de grieta, los cuales tienen 10 grados de libertad) y el enriquecimiento Heaviside (para los nodos de los demás elementos intersecados por la grieta, los cuales tienen 4 grados de libertad). En la Fig. 5 se muestra un ejemplo de un mallado en X-FEM y la representación de los nodos enriquecidos. 75 Otro método que se apoya en el análisis de elementos finitos y que es comúnmente utilizado en la determinación de los factores de intensidad de esfuerzo es el método de la función de peso [4,16,23,53-55]. A partir de la distribución de esfuerzos en la pieza sin grieta, a lo largo de la línea donde ésta debería estar, el factor K se calcula como: Enriquecimiento de Extremo de grieta Enriquecimiento Heaviside Fig. 5. Malla para X-FEM, con nodos enriquecidos. La función Heaviside está dada por: 1, (x x*) e n > 0 H (x) = , 1, (x x*) e n < 0 (16) KI = 2 a 0 w(s, a) n (s)ds , (17) donde sn(s) es el esfuerzo calculado en la pieza sin grieta (a lo largo de la zona donde debería estar la grieta), w(s,a) es la función de peso, la cual es específica para cada problema y no depende de la distribución de esfuerzos, sino de la geometría del elemento. Una de las formas de determinar esta función de peso es a partir de la relación: E ' Vr (s, a) w(s, a) = , (18) donde x es un punto del dominio, x* es el punto más cercano K Ir (a) a sobre la grieta y en es un vector normal a la grieta. Con el fin de que uno de los grados de libertad calculados mediante X-FEM sea la solución física del desplazamiento nodal, se ha implementado [46-48] una variante llamada formulación “shifted”. Otras soluciones propuestas para el FEM son la superposición de malla y la sustitución local de malla [9]. E.Métodos de extracción Una vez hallada la distribución de esfuerzos y deformaciones alrededor de la grieta, es necesario calcular el valor del factor de intensidad de esfuerzos. Para esto se pueden aplicar diferentes métodos de extracción. Los métodos locales o directos permiten realizar una estimación del factor de intensidad de esfuerzos directamente a partir de los resultados de esfuerzos y deformaciones obtenidos en el análisis de elementos finitos [16,49]; por tal motivo, estos métodos se usan casi siempre en combinación con elementos singulares. Uno de estos métodos propone el reemplazo de los valores calculados y conocidos de las ecuaciones de Irwin para los esfuerzos alrededor de una grieta (en coordenadas polares) para despejar el valor de K, obteniendo varios valores que permitan obtener la relación con la distancia al frente de grieta. Este método presenta muchas dificultades y sus resultados son generalmente poco confiables [49]. Hay formas de mejorar su exactitud como el refinamiento de la malla o el uso de elementos singulares, los cuales son la opción más apropiada y utilizada en conjunto con los métodos directos [16]. Existen otros métodos locales, entre los cuales los más utilizados son [16]: extrapolación de desplazamientos y esfuerzos [29, 34. 50], técnica de correlación de desplazamientos [12], técnica de desplazamiento en los nodos “quarter-point” [51], método de las fuerzas nodales [14] y ajuste por mínimos cuadrados [52]. donde E’ está dado por (3), el subíndice r se refiere a los casos de referencia, que deben ser evaluados. Se puede evaluar esta ecuación utilizando un par de perfiles de apertura de grieta (de longitudes ligeramente diferentes a y a + da) numéricamente definidos a partir del “boundary collocation method” y sus correspondientes expansiones en serie. Para minimizar los cálculos, normalmente en la literatura se utilizan métodos aproximados. Además de los métodos de extracción locales o directos, para el cálculo de K existen también métodos de extracción indirectos o energéticos que se basan en la relación entre K y el contenido de energía elástica de la estructura [34,49]. La gran ventaja de estos métodos es que no se requiere un modelado preciso de la discontinuidad. En éstos, ciertas magnitudes energéticas se evalúan a partir de datos obtenidos en elementos alejados del frente de la grieta. Sus desventajas son la dificultad de aislar las contribuciones de los diferentes modos de apertura de grieta (si en el problema existe más de un modo) y su uso para problemas 3D. Algunos métodos energéticos son la integral de contorno J, la integral de contorno en modo mixto y la integral de dominio. [56] La aplicación de la integral de contorno J (propuesta por Rice [57]) permite la correcta estimación de las deformaciones en la parte más cercana a la grieta. En un sólido homogéneo, elástico, no necesariamente lineal, en ausencia de fuerzas por unidad de volumen y contorno de la entalla libre de fuerzas por unidad de superficie aplicadas [16,17,58,59], la integral J se define como (Fig. 6): u J = Wdy T d , (19) x donde G es cualquier camino o recorrido alrededor del frente de grieta, desde una cara de ella hasta la otra en sentido antihorario, T es el vector de tracciones en el contorno G y u es el vector de desplazamientos. La densidad de energía de deformación W para el caso elástico se define como: Universidad Católica de Pereira 76 d , W= ij 0 ij (20) donde eij es el tensor de deformaciones infinitesimales. Fig. 7. Representación del área, integral de dominio. Fig. 6. Representación del contorno, integral J. A partir de este resultado, si se tienen condiciones en las cuales pueda ser aplicada la mecánica de fractura elástica lineal, es decir, si se tiene una zona de deformación plástica lo suficientemente pequeña, se puede demostrar que: K I2 J = . E' (21) Una de las mayores ventajas del cálculo de la integral J es que su valor no depende del camino tomado para la integración, por lo que se puede hacer uso de un camino un poco más alejado de la grieta, donde la distribución de esfuerzos es calculada por los elementos finitos con una mayor precisión [16]. Para la solución de problemas más generales, y en condiciones donde la integral J no pueda ser aplicada (problemas dinámicos, en 3D, con efectos térmicos, fuerzas por unidad de volumen, etc. o donde la integral de contorno no es independiente del camino escogido), se utiliza una formulación diferente denominada integral de dominio [58,59]. Esta integral de dominio, propuesta por Li et al. [60], es superior por su facilidad de cómputo y mayor precisión (especialmente en problemas 3D) y está definida como: u x1 q x1 j 1 J= W 1i dA, ij A* (22) donde dA es un diferencial de área, A* está definido de acuerdo a la Fig. 7, y la función q1 es: 0, si (x1, x2 ) q1 (x1, x2 ) = 1, si (x1, x2 ) Entre Ciencia e Ingeniería 1 3 . (23) Además de las integrales de contorno y de dominio, otros métodos de extracción energéticos o indirectos son: diferencias finitas, funciones de extracción, derivada de la matriz de rigidez y cierre virtual de grieta [9]. A manera de ejemplo, [36] usan FEM para calcular mediante Abaqus [30] factores de intensidad de esfuerzos de una unión simple agrietada (con tornillo y con tornillo más adhesivo) con elementos singulares quarter point, y extraen los valores mediante el método de la integral de contorno. [38] determinan factores de intensidad de esfuerzos, usando Abaqus [30] y la integral J para grietas emanando de agujeros elípticos en placas planas. V. Métodos Experimentales A.Galgas extensiométricas Una de las primeras técnicas experimentales desarrolladas para la medición de los factores de intensidad de esfuerzos se basa en el uso de galgas extensiométricas, con el objetivo de determinar las deformaciones en la distribución de esfuerzos alrededor del frente de grieta [3,61,62]. Los métodos que utilizan galgas usan formulaciones analíticas que determinan las deformaciones en el área cercana al frente de grieta, por ejemplo, en [61] se utiliza la expresión desarrollada por Irwin: KI E 2 r f ( ), rr (r, ) = (24) donde f(q) es una función que depende del ángulo q que no solamente brinda la ubicación en coordenadas polares de la galga, sino que también es su orientación. Como en este caso particular se utiliza una galga de tipo paralela, se usa una corrección del gradiente de deformación mediante integración. En otros casos, por ejemplo [3,62], se utilizan las ecuaciones generalizadas de Westergaard, las cuales están basadas en las expansiones en serie de las funciones de Airy. De esta forma se obtienen expresiones para las deformaciones en términos de coeficientes Ai, Bi (los diferentes autores, como puede verse en [3,62], utilizan expresiones de diferentes 77 extensiones), permitiendo calcular el factor de intensidad de esfuerzos como: K I = 2 A0 . (25) En general, los métodos que utilizan galgas se basan en la teoría de Dally y Berger para seleccionar una zona sobre la cual ubicar las galgas alrededor del frente de grieta, dividiendo el área en tres partes (Fig. 8). La zona I se considera demasiado cercana a la grieta y puede inducir errores debido a la zona de deformación plástica, y la zona III es demasiado alejada, por lo que la representación en serie requeriría de muchos coeficientes, razones por las cuales se elige la zona II para la ubicación de los elementos de medida [62]. Dado que todas las ecuaciones utilizadas en estos métodos dependen de los ángulos de ubicación de las galgas y su orientación, una correcta selección de los mismos permite la simplificación de los cálculos, e inclusive la reducción del número de mediciones [3,61,62]. En estos métodos generalmente se utiliza la probeta compacta de tensión, similar a la utilizada para los ensayos de determinación de la tenacidad a la fractura Kc. los patrones característicos de este tipo de análisis, llamados patrones isocromáticos. El patrón isocromático se relaciona con el sistema de esfuerzos mediante la expresión [63,64]: f t N, 1 2 = (26) donde f es el coeficiente esfuerzo-óptico, que depende del material y la longitud de onda de la luz utilizada, t es el espesor del modelo y N es el retardo relativo de los rayos que forman el patrón. Este retardo se puede medir contando el número de cambios en un punto de la pieza, mientras se aplica la carga paulatinamente, entre una franja oscura y una franja clara (cada cambio de claro a oscuro y oscuro a claro cuenta como 1/2). Dependiendo de la pieza y las condiciones de carga, el patrón isocromático puede no ser tan claro o preciso, por lo que se puede realizar una multiplicación de franjas, que consiste en hacer que el rayo de luz pase en varias ocasiones por la pieza, obteniendo mayor cantidad de franjas que así podrán brindar más y mejor información [63]. Aprovechando esta propiedad se utiliza una variedad del método en materiales no transparentes, como los metales de ingeniería. A una pieza de un material no transparente se la pinta de un color que permita reflejar la luz y se le cubre con una capa de material transparente con propiedades fotoelásticas, permitiendo así ver las condiciones de esfuerzo, en especial para piezas que ya están en uso en alguna estructura o máquina. C. Método de las cáusticas Fig. 8. Zonas alrededor del frente de grieta. B.Método fotoelástico Otros métodos experimentales se basan en las propiedades de ciertos materiales transparentes para desviar la luz cuando se encuentran sometidos a esfuerzos. Uno de ellos se denomina fotoelasticidad. La fotoelasticidad es una propiedad única de algunos materiales transparentes, en particular ciertos plásticos [63]. Debido a esta propiedad, un rayo de luz que incide en un material fotoelástico sometido a condiciones de esfuerzo, en una de las direcciones de los esfuerzos principales, es dividido en dos componentes, cada una con un plano de vibración paralelo a los otros dos planos de esfuerzos principales, y velocidades diferentes que dependen de la magnitud de dichos esfuerzos. Debido a las diferentes velocidades, las dos componentes salen del material con un retardo relativo entre ellas, luego son capturadas mediante un polariscopio fotoelástico, para permitirles entrar en interferencia óptica. De acuerdo al retardo relativo, medido en términos de ciclos, se producen zonas de alta intensidad lumínica o zonas de interferencia destructiva, generándose Otro de los métodos que aprovechan las propiedades de los materiales transparentes es el método de las cáusticas [64-66], en el cual se aprovecha el hecho de que la presencia de grandes esfuerzos (como es el caso del frente de grieta) provocan un cambio en el ancho de la pieza y en las propiedades refractivas del material, por lo que la luz que pasa por esa zona se ve desviada, generando figuras y patrones que responden directamente a la geometría de la figura y las condiciones de carga. Las sombras que se generan y sus dimensiones se pueden calcular para cada elemento y condición de carga. VI. Conclusiones En esta breve revisión de los métodos para la determinación de los factores de intensidad de esfuerzos, se puede apreciar la variedad de opciones y métodos existentes para enfrentar dicho problema (Fig. 9 y 10). En el pasado, fueron fundamentales los métodos analíticos, ya que éstos permitieron obtener expresiones para K para diversos casos, relativamente sencillos, y entender mejor la mecánica de la fractura. Sin embargo, los métodos analíticos tienden a ser difíciles de usar para casos relativamente complejos. Se hizo evidente que en la actualidad hay un gran énfasis Universidad Católica de Pereira 78 en la utilización de métodos de elementos finitos, debido a su gran versatilidad, a que no requieren fundamentos matemáticos tan profundos como los métodos analíticos y a que con las variantes propuestas, se pueden lograr resultados rápidos y de manera sencilla y exacta. Por otro lado, la aplicación de métodos experimentales es de gran utilidad como comprobación de los resultados obtenidos mediante algún otro método, en particular porque están altamente condicionados y su aplicación es muy laboriosa. Se hizo evidente que la aplicación de cualquiera de los métodos aquí presentados requiere de un estudio dedicado y minucioso, para poder ser utilizado adecuadamente. Fig. 9. Métodos analíticos y experimentales para determinar el factor de intensidad de esfuerzos. Fig. 10. Métodos numéricos para determinar el factor de intensidad de esfuerzos. Entre Ciencia e Ingeniería 79 Referencias [1] R. W. Hertzberg, Deformation and Fracture Mechanics of Engineering Materials. U.S.A.: Jon Wiley & Sons, 1996. [2] W. Schütz, “A history of fatigue,” Eng. Fracture Mech., vol. 54, pp.263-300, 1996. [3] L. Parnas, Ö. Bilir, E. Tezcan, “Strain gage methods for measurement of opening mode stress intensity factor,” Eng. Fracture Mech., vol. 55, pp. 485-492, 1996. [4] T. Fett, Stress Intensity Factors and Weight Functions for Special Crack Problems. Karlsruhe: Forschungszentrum Karlsruhe GmbH, 1998. [5] M. Aliabadi y D. Rooke, Numerical Fracture Mechanics Computational Mechanics Publications: Solid Mechanics and its Applications. UK: Kluwer Academic Publishers, 1991. [6] H. Tada, P. Paris y G. Irwin, The Stress Analysis of Cracks Handbook. 2a edición, St. Louis, Missouri: Paris Productions, Inc., 1985. [7] Y. Murakami, Stress Intensity Factors Handbook. Oxford: Pergamon Press, 1987. [8] V. Watwood, Jr., “The finite element method for prediction of crack behaviour,” Nuclear Eng. and Des., vol. 11, pp. 323-332, 1969. [9] J. R. Dixon y L. P. Pook, “Stress intensity factors calculated generally by the finite element technique,” Nature, vol. 224, pp. 166-167, 1969. [10] J. Rice y D. Tracey, “Computational fracture mechanics,” en Numerical and Computer Methods in Structural Mechanics, S. Fenves, N. Perrone, A. Robinson y W. Schnobrich, directores, New York: Academic Press, pp. 585-623, 1973. [11] R. A. Gallagher, “Review of finite element techniques in fracture mechanics,” en Num. Meth. Frac. Mech., Proc. 1st Conf., Swansea: Pineridge Press, pp. 1-25, 1978. [12] D. Owen y A. Fawkes, Engineering Fracture Mechanics: Numerical Methods and Applications. Swansea, UK: Pineridge Press Ltd., 1983. [13] S. Atluri, Computational Methods in the Mechanics of Fracture, Vol. 2 de Computational Methods in Mechanics. North-Holland, Amsterdam: Elsevier Science, 1986. [14] I. Raju y J. Newman, Jr., “Methods for analysis of cracks in threedimensional solids,” J. Aero. Soc. India, vol. 36, pp. 153-172, 1984. [15] N. Moës, J. Dolbow y T. A. Belytschko, “Finite element method for crack growth without remeshing,” Int. J. for Num. Meth. in Eng., vol. 46, no. 1, pp. 131-150, 1999. [16] M. Sabsabi, “Modelado de grieta y estimación de vida en fretting fatiga mediante el método de los elementos finitos extendido X-FEM,” tesis doctoral, Dep. Ing. Mec. y Mat., Univ. Pol. Val., Valencia, Esp., 2010. [17] J. L. Arana, J. J. González, Mecánica de Fractura. España: Servicio Editorial de la Universidad del País Vasco, 2002. [18] A.A. Griffith, “The phenomena of rupture and flow in solids,” Philos. Trans. Roy. Soc. London, Series A, vol. 221, pp. 163-198, 1921. [19] E. Orowan, “Fundamentals of brittle behavior of metals,” en Fatigue and Fracture of Metals, New York: Wiley, W.M. Murray. Ed., pp. 139167, 1952. [20] G. Sih, Methods of Analysis and Solutions of Crack Problems, Vol. 1 de Mechanics of Fracture. Leyden, Holanda: Noordho International Publishing, 1973. [21] D. Rooke, “The development of stress intensity factors,” en Fretting Fatigue, R. Waterhouse y T. Lindley, directores, ESIS 18, Londres: Mechanical Engineering Publications, 1994, pp. 23-58. [22] D. Broek, Elementary Engineering Fracture Mechanics. The Netherlands: Martinus Nijhoff Publishers, 1984. [23] T. Fett, Stress Intensity Factors T-Stresses Weight Functions. Karlsruhe: Universitätsverlag Karlsruhe, 2008. [24] B. Gross, J. E. Srawley, W. F. Brown, Jr, Stress Intensity Factors for a Single-Edge Notch Tension Specimen by Boundary Collocation of a Stress Function. Washington: National Aeronautics and Space Administration, 1964. [25] B. A. Bilby, A. H. Cottrell, E. Smith y K. H. Swinden, “Plastic yielding from sharp notches,” Proc. Roy. Soc., vol. A 279, pp. 1-9, 1964. [26] B. A. Bilby y J. D. Eshelby, Dislocations and the Theory of Fracture - Fracture I. Liebowitz: Ed. Academic Press, 1969. [27] O. L. Bowie, “Analysis of an infinite plate containing radial cracks originating at the boundary of an internal circular hole,” J. Math. and Phys., vol. 25, pp. 60-71, 1956. [28] O. L. Bowie y D. M. Neal, “Modified mapping-collocation technique [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] for accurate calculation of stress intensity factors,” Int. J. Fract. Mech., vol. 6, pp. 199-206, 1970. ANSYS, Inc. (2016) USA. ANSYS Simulation driven producto development. [En línea] Disponible: http://www.ansys.com/ Dassault Systemes (2016). Abaqus Unified FEA. [En línea] Disponible: http://www.3ds.com/products-services/simulia/products/ abaqus/, consultado: febrero 2016. Siemens Product Lifecycle Management Software, Inc. (2016). LMS Samcef Fracture Mechanics. [En línea] Disponible: http://www.plm. automation.siemens.com/en_us/products/lms/samtech/samcef-solversuite/fracture-mechanics.shtml Cenaero. (2016). Morfeo/Crack: A High-Fidelity Crack Propagation Software. [En línea] Disponible: http://www.cenaero.be/Page.asp? docid=27328&langue =EN, consultado: febrero de 2016. ESRD, Inc. (2015) Fracture and Damage Tolerance [En línea] Disponible: http://www.esrd.com/Solutions/Fracture.aspx, consultado: febrero de 2016. G. Kastratovic, A. Grbovic y N. Vidanovic. “Approximate method for stress intensity factors determination in case of multiple site damage,” App. Math. Modelling, vol. 39, pp. 6050-6059, 2015. E. Giner, N. Sukumar y F. J. Fuenmayor, “An Abaqus implementation of the extended finite element method,” Eng. Fracture Mechanics, vol. 76, pp. 347-368, 2009. M. Samaei, M. Zehsaz y T. N. Chakherlou. “Experimental and numerical study of fatigue crack growth of aluminum alloy 2024-T3 single lap simple bolted and hybrid (adhesive/bolted) joints,” Eng. Failure Analysis, vol. 59, pp. 253-268, 2016. S. Pirmohammad y A. Kiani. “Study on fracture behavior of HMA mixtures under mixed mode I/III loading,” Eng. Fracture Mechanics, vol. 153, pp. 80-90, 2016. P. Weißgraeber, J. Felger, D. Geipel y W. Becker. “Cracks at elliptical holes: stress intensity factor and finite fracture mechanics solution,” Eur. J. Mechanics A/Solids, vol. 55, pp. 192-198, 2016. M. J. Hammond y S. A. Fawaz. “Stress intensity factors of various size single edge-cracked tension specimens: A review and new solutions,” Eng. Fracture Mechanics, vol. 153, pp. 25-34, 2016. H. Liebowitz y E. T. Moyer, Jr., “Finite element methods in fracture mechanics,” Comp. & Stru., vol. 31, no. 1, pp. 1-9, 1989. E. Giner, “Estimación del error de discretización en el cálculo del factor de intensidad de tensiones mediante elementos finitos,” tesis doctoral, Dep. Ing. Mec. y Mat., Univ. Pol. Val., Valencia, España, 2001. S. Lo y C. Lee, “Solving crack problems by an adaptive refinement procedure,” Eng. Fracture Mech., vol. 43, no. 2, pp. 147-163, 1992. F. Michavila y L. Gavete “Métodos numéricos para el estudio de singularidades en elasticidad lineal,” en Métodos Numéricos Aplicados a Mecánica de la Fractura, J. Oliver, M. Elices, E. Oñate y M. Astiz, directores, Barcelona: CIMNE, 1988, pp. 1-25. G. Carey y J. Oden, Finite Elements: A Second Course, Vol. II de The Texas Finite Element Series. NJ: Prentice-Hall, Englewood Cliffs, 1983. T. Belytschko y T. Black, “Elastic crack growth in finite elements with minimal remeshing,” Int. J. Num. Meth. Eng., vol. 45, no. 5, pp. 601620, 1999. G. Ventura, E. Budyn y T. Belytschko, “Vector level sets for description of propagating cracks in finite elements,” Int. J. Num. Meth. Eng., vol. 58, pp. 1571-1592, 2003. E. Giner, N. Sukumar, F. Denia y F. Fuenmayor, “Extended finite element method for fretting fatigue crack propagation,” Int. J. Solid Struc., vol. 45, pp. 5675-5687, 2008. G. Zi y T. Belytschko, “New crack-tip elements for XFEM and applications to cohesive cracks,” Int. J. Num. Meth. Eng., vol. 57, pp. 2221-2240, 2003. Afgrow. (2013, Oct.). Methodology For Determining Stress Intensity Factors. [En línea] Disponible: http://www.afgrow.net/applications/ DTDHandbook/pdfs%5CSec11_2_0.pdf> , consultado: octubre 2013. S. Chan, I. Tuba y W. Wilson, “On the finite element method in linear fracture mechanics,” Eng. Frac. Mech., vol. 2, pp. 1-17, 1970. S. Pu, M. Hussain y W. Lorensen, “The collapsed cubic isoparametric element as a singular element for crack problems,” Int. J. Num. Meth. Eng., vol. 12, pp.1727-1742, 1978. S. Ju, “Simulating three-dimensional stress intensity factors by the Universidad Católica de Pereira 80 [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] least-squares method,” Int. J. Num. Meth. Eng., vol. 43, pp. 14371451, 1998. C. E. Freese y F.I. Baratta, “Single edge-crack stress intensity factor solutions,” Eng. Fracture Mech., vol. 73, pp. 616-625, 2006. H. Bueckner, “A novel principle for the computation of stress intensity factors,” ZAMM, vol. 50, pp. 529-546, 1970. J. Rice, “Some remarks on elastic crack-tip stress fields,” Int. J. Solid Struc., vol. 8, pp. 751-758, 1972. A. Vercher, “Mejora de los elementos de transición en XFEM aplicado a Mecánica de la Fractura Elástica Lineal,” tesis doctoral, Dep. Ing. Mec. y Mat., Univ. Pol. Val., Valencia, España, 2010. J. Rice, “A path independent integral and the approximate analysis of strain concentration by notches and cracks,” J. Applied Mech., vol. 35, pp. 379-386, 1968. D. A. Fattori, “Evaluación de la integral J2 y aplicación a problemas en modo mixto 2D de la mecánica de la fractura elástico-lineal,” tesis de maestría, Dep. Ing. Mec. y Mat., Univ. Pol. Val., Valencia, Esp., 2009. C. Cueto-Felgueroso, “Implantación del método de cálculo de la integral J sobre un dominio,” Anales de Mec. Frac., vol. 18, pp. 388394, 2001. F. Li, C. Shih y A. Needleman, “A comparison of methods for calculating energy release rates,” Eng. Frac. Mech., vol. 21, no. 2, pp. 405-421, 1985. J. H. Kuang y L.S. Chen, “A single strain gage method for Ki measurement,” Eng. Frac. Mech., vol. 51, pp. 871-878, 1995. H. Sarangi, K. S. R. K. Murthy y D. Chakraborty, “Optimum strain gage locations for accurate determination of the mixed mode stress intensity factors,” Eng. Fracture Mech., vol. 88, pp. 63-78, 2012. J. F. Doyle, J. W. Phillips, Manual on Experimental Stress Analysis. Society for Experimental Mechanics, 5th edition. G. A. Papadopoulos, “Study of concentrated vertical load at the apex of a wedge by the experimental methods of caustics and photoelasticity,” Adv. and App. in Mech. Eng. and Tech., vol. 3, pp. 59-81, 2011. S. Shen, T. Nishioka, “Theoretical development of the method of caustics for intersonically propagating interfacial crack,” Eng. Fracture Mech., vol. 70, pp. 643-655, 2003. E. E. Gdoutos. “The optical method of caustics,” Optics and Lasers in Engineering, vol. 79, pp. 68–77, 2016. Jairo Andrés Grajales Herrera nació en Cali, Valle del Cauca, el 10 de octubre de 1988. Se graduó como Ingeniero Mecánico en la Universidad Tecnológica de Pereira, Pereira (Colombia) en 2012, en la cual obtuvo mención como estudiante distinguido y la beca Jorge Roa Martínez. Ha trabajado en diversos proyectos de investigación en el área de vibraciones mecánicas, monitoreo de fallas y modelado de componentes mecánicos, además de proyectos en el área de transporte automotor de pasajeros por carretera. Es investigador activo en el área de análisis de vibraciones en motores de combustión interna y estudiante de la Maestría en Ingeniería Mecánica de la Universidad Tecnológica de Pereira, institución en la cual se desempeña como profesor catedrático Libardo Vicente Vanegas Useche nació en Pereira, Risaralda, el 20 de mayo de 1972. Se graduó como Ingeniero Mecánico en la Universidad Tecnológica de Pereira, Pereira (Colombia) en 1994. Obtuvo el grado de M.Sc. en Advanced Manufacturing Technology and Systems Management en la University of Manchester, Manchester (Reino Unido) en 1999. Obtuvo el grado de Ph.D. en Mechanical Engineering en la University of Surrey, Guildford (Reino Unido) en 2008. Fue Ingeniero de Fábrica en el Ingenio Central Sicarare S.A. y se desempeñó como Docente de Laboratorio y Elaborador de Páginas Web Educativas en la University of Surrey. Actualmente es Profesor Titular en la Facultad de Ingeniería Mecánica de la Universidad Tecnológica de Pereira, La Julita, Pereira (Colombia). Fue Director del Primer Congreso Internacional sobre Tecnologías Avanzadas de Mecatrónica, Diseño y Manufactura AMDM en el año 2012. Ha publicado más de 55 trabajos científicos. Sus intereses de investigación incluyen mecánica de fractura, fatiga, diseño mecánico y modelado de elementos mecánicos mediante el método de elementos finitos. Entre Ciencia e Ingeniería 81 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 81-88 Índice para medir la situación digital rural: caso de jóvenes escolarizados1 Index to measure the rural digital situation: case of young students Índice para medir a situação digital rural: caso de jovens escolarizados O. A. Vega Recibido Septiembre 22 de 2015 – Aceptado Febrero 19 de 2016 Resumen — El artículo presenta un índice para evaluar la situación digital de jóvenes rurales escolarizados, llamado insidir-jes, que integra tres índices (de acceso, de uso y de factores favorables). Para ello, después de hacer un corto esbozo de lo digital en el sector rural, se aborda la brecha digital y su medición, para terminar con un bosquejo del índice, acompañado de una prueba realizada con 78 estudiantes de cinco instituciones educativas rurales. La novedad del índice es que, además de estar diseñado para un segmento poblacional específico, señala una relación estrecha y utilitaria entre educación y TIC, superando el simple acceso y uso, al considerar la apropiación y los factores favorables para la inclusión digital. Resumo – O artigo apresenta um índice para avaliar a situação digital de jovens rurais escolarizados, chamado INSIDIR-JES, que integra três índices (acesso, de uso e de fatores favoráveis). Para este, depois de fazer um curto esboço do digital no setor rural, se trata a brecha digital e sua medição, para terminar com um esboço do índice, acompanhado de uma prova realizada com 78 estudantes de cinco instituições educativas rurais. A novidade do índice é que além de estar projetado para um seguimento populacional especifico, sinala uma relação estreita e utilitária entre educação e TIC, superando o simples acesso e uso, a considerar a apropriação e os fatores favoráveis para a inclusão digital. Palabras clave — brecha digital, índice compuesto, insidirjes, joven estudiante rural. Palavras chave: brecha digital, índice composto, INSIDIRJET, jovem estudante rural. Abstract— This article presents an index to evaluate the digital situation of young rural students, entitled insidirjes, which integrates three aspects (access, use and favorable factors). For this purpose, after making a short outline of the digital component in the rural sector, the digital divide and its measurement is discussed, ending with a sketch of the index, accompanied by a test with 78 students from five rural schools. The new index is that, besides being designed for a specific population segment, focus on a narrow and utilitarian relationship between education and ICT, overcoming the simple access and use, and considering the favorable factors for digital inclusion. Key words— digital divide, composite index, insidir-jes, young rural students. Producto derivado del proyecto de investigación ‘Estrategia de educación para el desarrollo humano y el trabajo dirigido a jóvenes escolarizados habitantes del sector rural’, componente del programa de investigación ‘Construcción de ambientes innovadores e inclusivos para el aprendizaje en escenarios virtuales’, ejecutado mediante la alianza temporal Universidad de Manizales – CHEC EPM, dentro de la convocatoria Colciencias-MEN 578-2012. O.A. Vega. Profesor titular, Facultad de Ciencias e Ingeniería, Universidad de Manizales (Manizales, Caldas, Colombia). email: oavega@ umanizales.edu.co, [email protected] 1 I. Introducción L a incorporación de las Tecnologías de la Información y las Comunicaciones (TIC) en los diferentes aspectos de la vida actual no puede desconocerse, al punto de modificar comportamientos de personas2, empresas y la sociedad misma. Es por ello que debe mirarse hacia el sector rural, especialmente en países cuya economía tiene una alta participación agropecuaria, donde la incorporación adecuada de TIC en los procesos sociales y productivos, señalará la dirección diferenciadora y competitiva de las comunidades que logren transformarse positivamente a partir de ellas. Sin embargo, ese fenómeno tecnológico sucede de manera diferente entre personas, comunidades, sectores, países y regiones, en la denominada brecha digital y su 2 Algunos cambios son: independencia, mayor exigencia por una disminución del tiempo de respuesta, cambio en el funcionamiento de las políticas y formas de trabajo de las instituciones de servicio, surgimiento de nuevos puntos de acceso a internet, y la entrada en escena de los gobiernos y la empresa privada ofreciendo conectividad a internet y servicios y productos en la web [1]. Universidad Católica de Pereira 82 enfrentamiento, mediante iniciativas de inclusión digital, también es diversa y en ocasiones no atienden a un proceso planeado y fundamentado en la realidad de la población objeto de la intervención. Por ello, la medición de la situación digital se inicia con la detección de desigualdades en el acceso tecnológico, mediante diferentes metodologías e índices para determinar, mayoritariamente, la brecha digital internacional (que señala las diferencias entre países), y algunos la brecha digital doméstica (diferencias al interior de cada país). Aunque se ha pretendido tener indicadores estandarizados y generalizados, la diversidad en la constitución de la(s) sociedad(es) de la información y el conocimiento implica la adaptación de las mediciones, para que sean pertinentes y flexibles sin perder la posibilidad de hacer comparaciones. No obstante, es claro que “existen pocos trabajos que efectúen una revisión de los principales enfoques metodológicos, indicadores y consensos de las principales organizaciones promotoras de la medición de las TIC” [2]. La mayoría de estudios se han orientado a cuantificar la infraestructura (especialmente en cuando a cobertura), con cierto énfasis en el uso, con poca focalización en la apropiación social de las TIC (entendida como herramientas que facilitan transformaciones sociales, económicas y, en general, de desarrollo integral). El artículo entonces, considerando lo anterior, pretende ofrecer una mirada del sector rural en cuanto a lo digital, especialmente desde sus instituciones educativas (IE), para comprender la importancia de identificar la situación digital tanto de los estudiantes como de las instituciones, al momento de plantear estrategias de inclusión digital para comunidades específicas. Por ello, se hace un paneo de diversos índices e indicadores utilizados, fruto de múltiples iniciativas, para terminar haciendo la presentación de insidir-jes, orientado a medir la situación digital en un momento dado de un sector poblacional específico: jóvenes estudiantes en IE rurales. II. Lo digital en el sector rural El contexto rural, y el concepto de ruralidad, ha evolucionado con procesos como la globalización y la tecnificación: “En general, se están produciendo cambios sociales, económicos, políticos y ecológicos que afectan a la agricultura y al medio rural y que definen también nuevas demandas de la sociedad y el surgimiento de una nueva estructura de oportunidades, la cual es percibida de manera distinta en cada uno de los países, en especial, atendiendo a las diferencias que marcan los distintos niveles de desarrollo”[3]. El avance de las TIC es diferencial, en cuanto a su infraestructura y servicios, en los sectores rurales y urbanos, marcando una clara brecha digital. No se ignora que existen diversas iniciativas de inclusión digital para la población rural, pero “tal vez no sea realista hablar de acceso universal a las TIC en las zonas rurales [ya que] las TIC sólo son Entre Ciencia e Ingeniería útiles en la medida en que habilita sistemas. (…) Con todo, la población y las instituciones rurales no pueden utilizar con eficacia ni contribuir a los recursos mundiales de conocimientos e información si no se mejora su capacidad de acceso a los mismos [pues] con frecuencia las deficiencias no están en la infraestructura ni en los instrumentos, sino en el proceso de su adopción y empleo” [3]. Al observar hacia las IE, se repite la situación, favorecida por la infraestructura tecnológica existente, la preparación y la actitud de los docentes hacia las TIC, y la falta suficiente de contenidos pertinentes para el medio, ya que a pesar de la incorporación progresiva de las TIC en el sector educativo, la cual origina un escenario que “transforma la educación al crear nuevas industrias culturales que facilitan la introducción de cambios en las pedagogías y gestan una enorme expansión y transformación de lo que tradicionalmente se ha llamado educación a distancia, al favorecer una educación virtual global y en red” [4], aún no alcanza los niveles deseables, y menos en las instituciones del sector rural. Adicionalmente, no puede ignorarse que la incorporación de las TIC en la educación va más allá del equipamiento de aulas con computadores y su conexión a Internet3, ya que la oferta en aplicativos y opciones de servicio, para la población en general y las instituciones educativas en específico, debería mejorar la experiencia y aprendizaje de los alumnos, en busca de una formación integral4, “a partir de reingenierías de las tradicionales modalidades de la educación a distancia de la primera y segunda generación, que se reorientaban hacia una dinámica con componentes digitales, interactivos y deslocalizados y en la aparición de nuevos modelos institucionales totalmente virtualizados, tanto con docentes interactuando dentro de las plataformas, como, inclusive, sin interacción como se promueven los MOOCs5” [4]. 3 “Si bien estos logros en cobertura son positivos, sólo revelan parte de la realidad puesto que estos indicadores de acceso no muestran la oportunidad real de uso que tienen los estudiantes, aspecto central toda vez que un uso cotidiano y relevante de la tecnología es fundamental para el desarrollo de habilidades vinculadas al mundo digital. En este sentido, el indicador que marca la cantidad de estudiantes que deben compartir los equipos computacionales disponibles en los centros escolares (nº de alumnos por computador) muestra una realidad no tan auspiciosa como los datos de cobertura discutidos anteriormente. […] Otro indicador relevante de la oportunidad real de uso en los centros escolares es la proporción de computadores conectados a Internet al interior de cada centro” [5]. 4 “Desde la perspectiva social, la formación integral es entendida como un proceso continuo, permanente y participativo que busca desarrollar armónica y coherentemente todas y cada una de las dimensiones del ser humano a fin de lograr su realización plena en la sociedad (…). Por tanto, con base en estos aportes, el ser humano aprende para la vida, aprende a ser ciudadano y ciudadana responsables con sus actos; aprende a hacer y proponer, aprende a contribuir con la sociedad y, por ende, con el progreso y el bienestar de la gente” [6]. 5 “MOOC es el acrónimo en inglés de Massive Online Open Courses (o Cursos online masivos y abiertos) Es decir, se trata de un curso a distancia, accesible por internet al que se puede apuntar cualquier persona y prácticamente no tiene límite de participantes. […] Además de los materiales de un curso tradicional, como son los vídeos, lecturas y cuestionarios, los MOOC proporcionan forums de usuarios interactivos que ayudan a construir una comunidad para los estudiantes, profesores y los teaching assistants” [7]. 83 III. La medición de la situación digital La brecha digital es probablemente uno de los primeros conceptos con que se inicia la reflexión alrededor del tema del impacto social de las TIC, al percibirse que ellas producen diferencias en las oportunidades de desarrollo de las poblaciones y establecen una distancia entre aquellas que tienen o no acceso a las mismas, al igual que resaltan inequidades previamente existentes, entre ellas de acceso a la educación y la información. La incorporación de TIC en la sociedad conlleva consecuencias diferentes, pues “al igual que en su día el ferrocarril, generaron desigualdades, ahora son las TIC. El ferrocarril llevó la riqueza a los pueblos en los que se pusieron estaciones, pero esa riqueza se perdió en las poblaciones que quedaron aisladas” [8]. No obstante las diversas aproximaciones a una definición, en el presente documento la Brecha Digital se considera como: “la distancia entre países, comunidades, familias e individuos, manifestada por la desigualdad de posibilidades para acceder y utilizar las nuevas tecnologías de la información y la comunicación (TIC) como parte rutinaria de sus actividades, de manera consciente y sistemática. Tal brecha, que está en constante evolución, no se refiere solamente a la tecnología, sino que abarca aspectos culturales, socioeconómicos, políticos y de infraestructura” [9], pues “la centralidad de Internet en muchas áreas de la actividad social, económica y política se convierte en marginalidad para aquellos que no tienen o que tienen un acceso limitado a la red, así como para los que no son capaces de sacarle partido” [10]. La medición, a partir de indicadores confiables, es fundamental para la toma de decisiones oportunas y adecuadas, especialmente en cuanto a la planeación e implementación de estrategias y políticas. Sin embargo “el ejercicio de la medición no es un ejercicio de fácil comprensión: usualmente requiere tiempos de maduración y asimilación de temas y preguntas, sobre todo por parte de quienes diseñan, recolectan y responden a estas últimas” [11]. El Observatorio para la Sociedad de la Información en América Latina y el Caribe (OSILAC), ha construido un sistema de información que busca integrar indicadores de acceso y uso de TIC en hogares, acceso y uso de TIC en empresas, así como otros indicadores de monitoreo sobre la sociedad de la información (infraestructura, sector público, educación, salud, etc.) [14]. ArCo es un indicador de capacidades tecnológicas, basado en el TAI (Technology Achievement Index, presentado por las Naciones Unidas en 2001), aunque tiene tres categorías (creación de tecnología, infraestructura tecnológica y habilidades personales), en vez de las cuatro originales [15]. En Uruguay, la Unidad Reguladora de Servicios de Comunicaciones (URSEC), calcula un Indicador de Oportunidad Digital (IOD o DOI), utilizando la propuesta de la Unión Internacional de Telecomunicaciones (UIT o ITU), con tres categorías de indicadores: oportunidad (cobertura y tarifas de telefonía móvil celular, tarifas de acceso a internet), infraestructura (proporción de hogares con telefonía fija, suscriptores a telefonía móvil, proporción de hogares con acceso a internet, proporción de hogares con computadoras) y utilización (proporción de individuos que usan internet), suscriptores de banda ancha) [16]. El índice Ares de Brecha Digital Regional, que usa como base la metodología del DOI, toma valores entre 0 y 1, con categorías secuenciales (oportunidad para participar en la sociedad de la información; infraestructura; utilización; conocimiento; políticas públicas), que contienen subcategorías, a las cuales se les asigna pesos conceptuales diferenciales [17]. Una propuesta para medir la e-preparación en municipios colombianos, plantea cuatro componentes básicos de una sociedad de la información (infraestructura; interés de la comunidad por participar de los procesos; apropiación de la tecnología; capacidad individual para generar, consumir, analizar y transmitir información), para aplicar una encuesta que permita evaluar la situación de la población en cuanto al interés, apropiación y capacidad frente a las TIC, considerando las categorías: Demografía, Fuerza de trabajo, Gobierno, Educación, Salud y - Servicios públicos [18]. En cuanto a la medición de la brecha digital, “la mayoría de contribuciones existentes no pasan de ser visiones meramente descriptivas y sin adentrarse en los procesos de medición de los determinantes que lo provocan” [12], lo cual se ratifica con que “existe una gran cantidad de índices compuestos en el ámbito de las nuevas tecnologías. La mayoría de ellos tratan de medir, a grandes rasgos, el grado comparativo de preparación de los países para participar y beneficiarse de los desarrollos en las TIC. (…) Todos ellos se componen a partir de baterías de indicadores, los cuales —organizados o no en dimensiones/categorías— se agregan ponderadamente para obtener un valor final comparable” [13]. El Índice de Desarrollo de las TIC (IDI) de la UIT clasifica 157 países en función de su nivel de acceso, utilización y conocimientos de las TIC, y compara las clasificaciones anuales. Para el informe del año 2012, incorpora un nuevo modelo que permite evaluar la población mundial de nativos digitales6 (entendido como un joven conectado de 15 a 24 años de edad con cinco o más años de experiencia en línea) [19]. A continuación se presenta un listado de iniciativas tendientes a medir la brecha digital, donde se incluyen algunas dirigidas al campo académico: 6 En 2012 había unos 363 millones de nativos digitales en una población mundial de unos 7000 millones, lo que equivale al 5,2% del total y 30% de los jóvenes [19]. Universidad Católica de Pereira 84 En Costa Rica se realiza una evaluación de la brecha digital entre estudiantes de secundaria, a partir de una encuesta, con cinco módulos. “El módulo general incluye información básica: tal aspectos personales, familiares, condición económica y preguntas generales sobre las TIC. Los restantes cuadro módulos contienen las consultas sobre aspectos específicos de tenencia, uso y actitud hacia las tecnologías” [20]. En Cuba, se diseña un instrumento para medir el peso que tiene, en el desempeño académico de los estudiantes universitarios, el nivel de uso y acceso a las TIC; aplicado en la Facultad de Economía de la Universidad de La Habana, para lo cual se construyeron 15 indicadores que permiten establecer el nivel de acceso y uso de algunas TIC por parte de estos estudiantes [21]. En México, con el objetivo de explorar la influencia de la posesión de dispositivos digitales portátiles y la literacidad digital académica, con el área terminal de los estudiantes de la Facultad de Pedagogía, se utiliza un instrumento con 44 preguntas cerradas, de tipo Likert (muy de acuerdo, de acuerdo, indeciso, en desacuerdo, muy en desacuerdo, por mencionar un ejemplo), y dicotómicas (si o no), además de dos preguntas abiertas, organizado en 11 secciones (literacidad digital académica, ciudadanía digital, programas y sistemas de información relativos a tu área de conocimiento, dispositivos, archivos, socialización y colaboración, creación y manipulación de texto y texto enriquecido, contenido multimedia, manejo de datos, comunicación, y afinidad tecnológica), contemplando cinco secciones: dispositivos; socialización y colaboración; comunicación; literacidad digital académica; y nivel socioeconómico [22]. En el mismo país, se realiza un estudio, donde “el instrumento y la escala de medición se diseñaron entonces, de manera tal que reflejaran el modelo conceptual simplificado con sus cinco dimensiones [uso, acceso, apropiación, empoderamiento e innovación] y su naturaleza lineal y aditiva, es decir que siguiera la representación del siguiente modelo: Cibercultura estudiantil = f (Acceso a las TIC + Uso de las TIC + Apropiación tecnológica y social de las TIC + Empoderamiento + Innovación social y desarrollo humano)” [23]. - En 2014 se hace una propuesta de un índice para medir la situación rural en dichas comunidades, denominada insidir [9], que sirve de base para el desarrollo del planteado en el presente documento. Aunque se han iniciado análisis para aspectos específicos, no se ha encontrado una metodología o sistema de medición de brecha digital dirigido a comunidades rurales (excepto insidir), y menos a medirla con miras a ser una herramienta para la toma de decisiones respecto a la educación rural, aunque proporcionen categorías, indicadores y procedimientos que pueden ser adaptados en un nuevo índice. Entre Ciencia e Ingeniería IV. Índice de situación digital rural – jóvenes Escolarizados, insidir-jes Es claro que la incorporación de las TIC en la cotidianidad, se da en los diferentes grupos poblaciones con una amplia diversidad de situaciones. Entre los grupos donde se presenta un crecimiento continuo en la relación con estas tecnologías, corresponde a los jóvenes y adolescentes. “La permeabilidad de los jóvenes hacia las tecnologías en general obedece a dos factores: el primero está relacionado con una exposición temprana a las TIC. (…) Es una generación que ha invertido muchas horas en la manipulación de aparatos de tecnología digital, lo que hace que el salto a las computadoras y a la Internet, se configure como algo prácticamente “natural”. El segundo factor es el conocimiento. En la familia, los y las jóvenes son los mejor informados sobre las innovaciones tecnológicas y de la amplia gama de productos multimedia que sistemáticamente salen al mercado; en esta condición orientan la compra familiar. Igualmente, son los que mejor conocen las cualidades y la operación de los equipos” [20]. Acorde con lo anterior, “cabe preguntarse cómo los jóvenes, señalados como protagonistas principales de la era digital, se enfrentan al desafío de ser el objeto de políticas públicas específicas que promueven su inclusión en el mundo digital, cuando sus oportunidades y capacidades de apropiación son muy distintas según el sector social, capital tecnológico y capital cultural. Otra pregunta es si la escuela, con la incorporación de las tecnologías digitales en las aulas, ofrece nuevas oportunidades para que los estudiantes produzcan conocimiento relevante, sean autónomos, discriminen fuentes confiables y trabajen colaborativamente” [24]. El diseño del índice de situación digital rural – jóvenes escolarizados, insidir-jes, tiene como punto de partida la propuesta de Índice de situación digital rural, insidir [9] y comprende dos aspectos fundamentales: - proceso de adquisición de la información y - organización de los datos para obtenerlo. Para la adquisición de la información, se parte de un instrumento tipo encuesta, que consideran aspectos utilizados en los índices consultados, que se complementan con algunos propios del contexto rural (Tabla 1). La obtención de información para la prueba presentada se realiza en línea, a estudiantes de grados 9 a 11 de IE ubicadas en zonas rurales de los departamentos de Caldas, Huila, Cauca y Nariño. Para la presentación de este artículo se utilizan los datos suministrados por 78 estudiantes de siete IE. Una vez obtenida la información, se organiza en una matriz ubicando las diferentes variables consideradas, y se hacen los cálculos respectivos, mediante fórmulas que acogen los valores adjudicados a cada ítem. El diseño del índice parte de considerar que se trata de un indicador compuesto con ponderación de los indicadores, donde se recogen los 85 datos obtenidos con la aplicación del instrumento, dándole pesos diferentes de acuerdo con su incidencia e importancia en la determinación del índice, soportado en la revisión documental, la opinión de expertos y un proceso de varios años haciendo pruebas y ajustes para consolidarlos. De esa manera se establecen tres subíndices: Tabla i. Categorías consideradas en el instrumento para recolección de Información Aspectos Categoría Datos del encuestado Telefonía móvil celular TIC, en parte favorecido por situaciones relacionadas con el estamento educativo, como: - es común priorizar la infraestructura sobre los procesos que lleven a su apropiación, - la brecha generacional entre docentes y estudiantes es palpable, - suele presentarse la prohibición del uso de dispositivos en clase, en vez de aprovechar sus potencialidades. Tabla II. Insidir-Jes y sus subíndices de 78 jóvenes estudiantes Código IFFTIC IATIC IUTIC INSIDIR-JES AFBP-824 0,619 0,608 0,394 0,492 Conformación familiar Edad / Sexo ALLQ-170 0,596 0,000 0,000 0,089 Ubicación de la vivienda Escolaridad AMOV-294 0,623 0,457 0,190 0,335 Servicios residenciales Datos de los padres ATLG-312 0,623 0,603 0,372 0,478 Tiempo histórico de uso Tipo de servicio BFCH-626 0,613 0,425 0,187 0,322 BSBG-607 0,765 0,651 0,337 0,495 Frecuencia de uso Tipo de uso CQM-671 0,582 0,627 0,262 0,419 Tipo de dispositivo Dificultades de uso CRP-571 0,631 0,476 0,208 0,352 Tiempo histórico de uso Tipo de servicio DAAA-561 0,713 0,000 0,000 0,107 Lugar de acceso Frecuencia de uso DAGG-696 0,541 0,000 -0,002 0,080 Tipo de uso Tipo de dispositivo DCC-724 0,592 0,374 0,266 0,347 Tecnología acceso internet Dificultades de uso DCCP-996 0,583 0,640 0,244 0,414 Tiempo histórico de uso Tipo de servicio DCSP-503 0,621 0,427 0,185 0,323 Lugar de acceso Frecuencia de uso DGCC-787 0,556 0,662 0,289 0,441 Tipo de uso Tipo de dispositivo DJGB-349 0,585 0,000 0,000 0,088 Tecnología acceso internet Dificultades de uso DLAC-934 0,564 0,138 0,097 0,179 DLM-880 0,660 0,383 0,290 0,373 DLRL-774 0,599 0,140 0,101 0,188 DYLG-150 0,578 0,582 0,282 0,416 DZM-792 0,670 0,199 0,119 0,226 EACT-220 0,632 0,000 0,000 0,095 EDSG-801 0,717 0,442 0,338 0,426 EFSB-561 0,651 0,706 0,546 0,610 EJL-742 0,591 0,499 0,160 0,327 EMO-749 0,586 0,241 0,190 0,265 EXCC-058 0,588 0,662 0,364 0,487 GAAB-925 0,594 0,646 0,412 0,509 GARA-802 0,606 0,187 0,092 0,198 HFCF-397 0,600 0,384 0,149 0,287 – IFFTIC o índice de factores favorables hacia TIC, con un peso de 0.150, aborda aquellas circunstancias determinantes para que los jóvenes accedan y utilicen las TIC, que incluyen aspectos familiares, económicos, geográficos y personales. HLCL-336 0,603 0,177 0,157 0,230 HLQC-187 0,547 0,558 0,281 0,404 HMT-012 0,585 0,000 0,000 0,088 JAB-984 0,620 0,000 0,000 0,093 Luego de realizar el procedimiento de organización y análisis, que permite obtener los mencionados subíndices y el índice compuesto, en la Tabla II se resumen los resultados obtenidos. JAG-367 0,580 0,000 0,000 0,087 JAGL-907 0,605 0,498 0,223 0,363 JAGM-326 0,638 0,248 0,087 0,218 JAM-172 0,671 0,677 0,528 0,594 En ellas puede verse que a pesar de existir factores que favorecerían el acceso y uso de las TIC (ifftic promedio= 0.613), que no se materializan (insidir-jes promedio= 0,313) debido especialmente al uso dado a las JAPA-255 0,615 0,531 0,206 0,365 JCRA-745 0,642 0,335 0,248 0,333 JDDB-518 0,598 0,199 0,132 0,222 JESV-608 0,747 0,615 0,358 0,493 Computadora Tableta - IATIC o índice de acceso a TIC, con peso de 0.300, se relaciona con los servicios e infraestructura, tanto en la institución educativa, el hogar y sitios públicos, a que tiene acceso el joven. - IUTIC o índice de uso de TIC, con peso de 0.550, recoge qué, para qué y cómo se utilizan las TIC (a partir de computadoras y dispositivos móviles), la frecuencia con que se usa y las dificultades que se tienen al momento de hacerlo, lo que permite valorar el uso y la apropiación (entendida como el uso con valor agregado, que transforma), lo que se convierte en factor diferencial de la propuesta. Universidad Católica de Pereira 86 JEVL-505 0,563 0,454 0,177 0,318 JFCP-902 0,529 0,158 0,075 0,168 JILO-463 0,646 0,441 0,234 0,358 JLSS-617 0,599 0,570 0,249 0,397 JLTT-660 0,598 0,000 0,000 0,090 JSAL-171 0,572 0,000 0,000 0,086 JSFR-260 0,618 0,138 0,104 0,191 JSPT-255 0,666 0,729 0,580 0,638 KACG-788 0,620 0,711 0,358 0,503 KVM-363 0,565 0,366 0,156 0,280 LAGG-839 0,602 0,000 -0,002 0,089 LMHC-018 0,769 0,661 0,519 0,599 LVCC-795 0,579 0,640 0,221 0,400 MACP-750 0,759 0,366 0,239 0,355 MACU-799 0,575 0,242 0,133 0,232 MATL-663 0,599 0,138 0,097 0,184 MCBM-590 0,567 0,571 0,269 0,405 MCC-730 0,574 0,606 0,327 0,448 MEBL-643 0,572 0,360 0,098 0,247 MEP-445 0,509 0,187 0,057 0,164 METT-679 0,513 0,162 0,107 0,184 MJHM-841 0,606 0,138 0,101 0,188 MMBG-703 0,731 0,710 0,369 0,525 MYMV-014 0,640 0,518 0,255 0,392 NSH-514 0,662 0,402 0,317 0,394 PCTT-483 0,590 0,349 0,190 0,297 RAAP-913 0,561 0,150 0,164 0,219 VAAB-227 0,614 0,665 0,186 0,394 VLB-193 0,655 0,187 0,138 0,230 VPV-904 0,589 0,417 0,228 0,339 WBV-057 0,673 0,484 0,347 0,437 WSLL-302 0,599 0,199 0,122 0,217 YBD-213 0,563 0,150 0,096 0,182 YBD-230 0,551 0,207 0,133 0,218 YBUG-992 0,687 0,694 0,276 0,463 YPBO-598 0,613 0,624 0,219 0,400 YSQC-909 0,605 0,396 0,260 0,353 Promedio 0,613 0,369 0,201 0,313 Dado que el índice permite determinar la situación digital personal en un momento dado, y a partir de estos datos se pueden establecer índices colectivos, en la Fig. 1 se presentan los INSIDIR-JES y sus subíndices de las siete instituciones educativas consideradas, que muestran las diferencias entre ellas en cuanto al acceso y uso de las TIC, a pesar de tener similitud en los factores favorables. Entre Ciencia e Ingeniería Fig. 1. Subíndices e índice compuesto insidir-jes, de siete instituciones educativas rurales. De igual manera, es posible hacer comparativos históricos, lo cual señala su utilidad en proyectos tipo serie cronológica, donde se establezca la situación de manera previa (pretest) y puedan realizarse diferentes mediciones en el trascurso de la intervención (postest), e inclusive a posteriori, para identificar los impactos alcanzados por la intervención, como puede verse en la Fig. 2, calculado para cuatro de las IE participantes. Fig. 2. Subíndices e índice compuesto insidir-jes, de cuatro instituciones educativas rurales, en el momento inicial y final de la intervención realizada. INSIDIR-JES, a diferencia de índices consultados, considera características específicas del grupo humano (jóvenes estudiantes del sector rural), que permiten mediciones ‘a la medida’ en función de un entorno dado, las cuales posibilitan la toma de decisiones pertinentes, además de considerar aspectos específicos de uso académico relacionados de manera directa con el grupo poblacional. 87 V. Conclusiones La brecha digital es una realidad debido a diversos factores socioeconómicos y geográficos que ocasionan diferencias en las oportunidades de desarrollo individual y colectivo. Una adecuada medición de ella, señala opciones más adecuadas para tomar las decisiones oportunas y pertinentes, en busca de que las TIC puedan ayudar a mejorar la calidad de vida de sus usuarios. INSIDIR-JES es un índice compuesto, orientado al segmento poblacional de los jóvenes escolarizados del sector rural, buscando identificar su realidad digital, considerando su relación con el proceso académico que vive. Adicionalmente, permite hacer seguimiento histórico, tanto a escala individual como colectivo. A toda iniciativa de inclusión digital debe anteceder un proceso de identificación amplia de la realidad de la comunidad a la cual se dirige el proyecto, lo cual es facilitado con la aplicación de índices como el propuesto. Sin embargo, la información recolectada y analizada no se restringe a lo digital y puede ser útil para otros procesos, de índole público o privado, orientados al bienestar comunitario. Dado que la inclusión digital corresponde a un proceso continuo de los estadios: acceso a las TIC, uso de las TIC y apropiación de las TIC, que se hace diferencialmente en personas y comunidades, el estamento educativo entra a ser un factor fundamental en su consecución… es pertinente recordar que el niño o el joven normalmente accede a los dispositivos de manera informal, pero es debido al potencial de las TIC que es necesario el surgimiento del docente como “un guía que permite a los estudiantes, desde la primera infancia y durante toda la trayectoria de su aprendizaje, desarrollarse y avanzar en el laberinto cada vez más intrincado del conocimiento” [25], y así prevenir que “la escolaridad obligatoria no cumpliese su función básica de alfabetizar, entendida ésta como preparación para la vida en la sociedad digital” [26]. Referencias [1] M.D. Muñoz y R. Nicaragua, (2014, ene.). “Un acercamiento a la brecha digital en Costa Rica desde el punto de vista del acceso, la conectividad y la alfabetización digital”, E-Ciencias de la Información, 4(1,1), pp. 1-29. Disponible en: http://revistas.ucr.ac.cr/ index.php/eciencias/article/view/12866 [2] M.V. Alderete (2012, jul-dic.). “Medición de las tecnologías de la información y la comunicación en empresas de servicios de Colombia”. Cuadernos de Administración 25(45), pp. 39-62. Disponible en: http:// www.redalyc.org/articulo.oa?id=20524844003 [3] Programa Sociedad de la Información y el Conocimiento, Prosic. “Capítulo 8: Información y Comunicación en el mundo rural”. En: Informe 2010: Hacia la Sociedad de la Información y el Conocimiento en Costa Rica, cap. 8, San José: Prosic, 2010, pp. 253-274. Disponible en: http://www.prosic.ucr.ac.cr/sites/default/files/documentos/ capitulo_08_3.pdf [4] C. Rama. “El contexto de la Reforma de la Virtualización en América Latina”. En Arboleda, N y Rama, C. (eds.), La Educación Superior a Distancia y Virtual en Colombia: Nuevas realidades, N. Arboleda y C. Rama, eds., Bogotá, ACESAD/Virtual Educa, 2013, pp. 21-29. [5] M. Claro, A. Espejo, I. Jara y D. Trucco, D. (2011). Aporte del sistema educativo a la reducción de las brechas digitales: Una mirada desde las mediciones PISA. Documento de proyecto. Santiago de Chile: Comisión Económica para América Latina y el Caribe (CEPAL). 39 p., 2011. Disponible en: http://repositorio.cepal.org/bitstream/ handle/11362/3958/S1100916_es.pdf?sequence=1 [6] E. Quirós Meneses y X. Jiménez Sánchez (2013, may-ago.). “La actitud hacia la docencia, la formación integral en la educación secundaria y a su proyecto de vida: una visión desde los estudiantes de colegios en áreas rurales”, Revista Electrónica Educare, 17(2), pp. 91-109. Disponible en: http://www.revistas.una.ac.cr/index.php/EDUCARE/ article/download/5022/4805 [7] Universitat Autònoma de Barcelona (2015). ¿Qué es un curso MOOC?. Disponible en: http://www.uab.cat/web/estudiar/mooc/-que-es-uncurso-mooc-1345668281247.html [8] M. Barrenetxea y A. Cardona (2002). “La brecha digital como fuente de nuevas desigualdades en el mercado de trabajo”, VIII Jornadas de Economía Crítica: Globalización, Regulación Pública y Desigualdades. Valladolid, España, febrero 28-marzo 02, 2002. Disponible en: http:// pendientedemigracion.ucm.es/info/ec/jec8/Datos/documentos/ comunicaciones/Laboral/Barrenetxea%20Miren.PDF [9] O.A. Vega. “Inclusión digital de comunidades rurales colombianas”, Tesis doctoral dirigida por L. Rodríguez Baena, Facultad de Informática, Universidad Pontificia de Salamanca, Madrid, 2014. [10] M. Castells. La galaxia Internet, Barcelona: Plaza & Janés Editores, 2001. [11] D. Olaya y F. Peirano (2007, ago.). “El camino recorrido por América Latina en el desarrollo de indicadores para la medición de la sociedad de la información y la innovación tecnológica”, Revista Iberoamericana de Ciencia Tecnología y Sociedad, CTS, 3(9), pp. 153185. Disponible en: http://www.scielo.org.ar/scielo.php?pid=S185000132007000200010&script=sci_arttext [12] L. Cerno y T. Pérez Amaral (2006). “Medición y determinantes de la Brecha Tecnológica en España”, Documentos de Trabajo del Instituto Complutense de Análisis Económico, (0601), pp. 1-44. Disponible en: http://eprints.ucm.es/7909/1/0601.pdf [13] C. Castaño, J. Martín y J.L. Martínez (2011, oct-dic.). “La brecha digital de género en España y Europa: medición con indicadores compuestos”, REIS: Revista Española de Investigaciones Sociológicas, (136), pp. 127-140. Disponible en: http://www.reis.cis.es/REIS/PDF/ REIS_136_061318594338821.pdf [14] Comisión Económica para América Latina y el Caribe, CEPAL. “Observatorio para la Sociedad de la Información en América Latina y el Caribe OSILAC”, Cuarto Taller sobre la Medición de la Sociedad de la Información en América Latina y el Caribe, San Salvador, feb. 11-12, 2008. Disponible en: http://www.cepal.org/socinfo/noticias/ noticias/7/32357/ConclusionesTallerElSalvador-EspUV.pdf [15] D. Archibugi y A. Coco (2004, apr.). “A New Indicator of Technological Capabilities for Developed and Developing Countries (ArCo)”, World Development, 32(4), pp. 629–654. Disponible en: http://www. sciencedirect.com/science/article/pii/S0305750X04000051 [16] Instituto Nacional de Estadística, INE. Encuesta Nacional de Hogares Ampliada 2006: Utilización de las Tecnologías de la Información y las Comunicaciones en el Uruguay. Montevideo: INE. 29 p. 2007. [17] J.I. Araya Morales y H. Estay Jara. “Brecha digital regional de Chile”, Seminario de título Ingeniero Comercial mención Economía, dirigido por J. Katz Spliniac, Universidad de Chile, Facultad de Economía y Negocios, Santiago de Chile, 2006. [18] D.A. Chavarro, M. García, D. Lucio, J. Lucio, C. Avendaño, E. Suárez, L. Orozco y V. Bucheli. Construcción de una metodología para medir la e-preparación en municipios colombianos. Aplicación de una prueba piloto en Castilla la Nueva (Meta) y Guaduas (Cundinamarca). Bogotá: Observatorio Colombiano de Ciencia y Tecnología, OCyT. 2004. Disponible en: https://www.academia.edu/1069946/ Construcci%C3%B3n_De_Una_Metodolog%C3%ADa_Para_ Medir_La_E-Preparaci%C3%B3n_En_Municipios_Colombianos_ Aplicaci%C3%B3n_De_Una_Prueba_Piloto_En_Castilla_La_ Nueva_Meta_Y_ [19] Unión Internacional de Telecomunicaciones, UIT (2013, oct. 7). “La UIT publica las cifras técnicas y clasificaciones mundiales más Universidad Católica de Pereira 88 recientes”, Comunicado de prensa. Disponible en: http://www.itu.int/ net/pressoffice/press_releases/2013/41-es.aspx#.VQSK7I6G840 [20] F. Cuevas y V. Álvarez. Brecha digital en la Educación Secundaria: El caso de los estudiantes costarricenses, San José: Prosic. 2009. [21] Y. Pérez Cárdenas (2012, dic.) “Herramienta para medir el impacto del nivel de uso y acceso a algunas TIC en el promedio académico de estudiantes de la Facultad de Economía de la Universidad de La Habana”. Atlante, Cuadernos de Educación y Desarrollo (2da época) (30), pp. 1-17. Disponible en: http://atlante.eumed.net/wp-content/ uploads/wp-post-to-pdf-cache/1/herramienta-para-medir-el-impactodel-nivel-de-uso-y-acceso-a-algunas-tic-en-el-promedio-academicode-estudiantes-de-la-facultad-de-economia-de-la-universidad-de-lahabana.pdf [22] J.L. Aguilar Trejo, A. Ramírez Martinell y R. López González (2014, ene.). “Literacidad digital académica de los estudiantes universitarios: un estudio de caso”. Revista Electrónica de Investigación y Docencia (REID), (11), pp. 123-146. Disponible en: http://revistaselectronicas. ujaen.es/index.php/reid/article/download/1257/1083 [23] J.R. Romo González, J. Tarango Ortiz, G. Ascencio Baca y P. Murguía Jáquez. (2014). “Medición de la cibercultura estudiantil, confiabilidad y validez de una escala aplicada: caso de la Universidad Autónoma de Chihuahua”. Anales de Documentación, 17(1):1-13. Disponible en: http://dx.doi.org/10.6018/analesdoc.17.1.173011 [24] S. Lago Martínez (2012, jul-dic.). “Los jóvenes y la cultura digital: Nuevos desafíos de la educación en Argentina”, Diálogos sobre Educación, 3(5), pp. 1-17. Disponible en: http://www.revistadialogos. cucsh.udg.mx/sites/default/files/dse_a3_n5_jul-dic2012_lago.pdf [25] Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, Unesco. Hacia las sociedades del conocimiento: Informe Mundial de la Unesco. París (Francia): Unesco. 2005. Disponible en: http://unesdoc.unesco.org/images/0014/001419/141908s.pdf [26] A. Gutiérrez Marín y K. Tyner (2012, mar.). “Educación para los medios, alfabetización mediática y competencia digital”. Comunicar: Revista Científica de Educomunicación, 19(38), pp. 31-39. Disponible en: http://www.revistacomunicar.com/verpdf. php?numero=38&articulo=38-2012-05 Omar Antonio Vega nació en Victoria (Caldas, Colombia). Se graduó como Ingeniero Agrónomo en la Universidad de Caldas (Manizales, Colombia) en 1987. Como posgrados, alcanzó los títulos de Especialista en Informática y Computación de la Universidad de Manizales (Manizales, Colombia) en 2010; Magíster en Orientación y Asesoría Educativa por las Universidades Externado de Colombia y Católica de Manizales (Manizales, Colombia) en 1997; Magíster en Educación.Docencia en la Universidad de Manizales (Manizales, Colombia), en 2004 y Doctor en Ingeniería Informática: Sociedad de la Información y el Conocimiento por la Universidad Pontificia de Salamanca (Madrid, España) en 2015. Ha ejercido como docente en las universidades de Manizales y de Caldas, así como en el Ceres Chinchiná. Actualmente es Profesor titular en la Facultad de Ciencias e Ingeniería de la Universidad de Manizales, donde además es integrante del grupo de investigación ‘Sociedad de la investigación y el conocimiento’, en el cual lidera la línea en Inclusión digital, así como editor/director de la revista Ventana Informática. Entre Ciencia e Ingeniería 89 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 89-98 Tecnología de membranas: desarrollo histórico1 Membrane technology: historical development Tecnologia de membranas: desenvolvimento histórico C.A. Solís, C.A. Vélez y J.S. Ramírez Recibido Septiembre 26 de 2015 – Aceptado Febrero 19 de 2016 Resumen— La Tecnología de Membrana permite separar materiales de distinto peso molecular, lo que hace que su desarrollo haya sido muy importante a través de la historia, reduciendo costos energéticos y preservando los recursos no renovables entre otros factores. Hoy en día tiene múltiples aplicaciones, como es el caso de la obtención de las proteínas del lactosuero, la desalinización del agua de mar, la limpieza de aguas residuales, la obtención de componentes volátiles a partir del café soluble, etc. Esta revisión presenta una descripción del desarrollo de las tecnologías de membranas y sus más importantes aplicaciones. Palabras clave— Tecnologías de Membrana, componentes volátiles, proteínas del lactosuero. Abstract— Membrane Technology allows to separate materials of different molecular weight, and that is why this technology has been very important through history, reducing energy cost and preserving natural resources. Nowadays it has a lot of applications such as obtaining whey proteins, desalination of seawater and wastewater cleanup, obtaining volatile components from soluble coffee, among others. In this review a description of Membrane Technology development and its critical applications is introduced. Key words—Membrane Technologies, volatile component, whey protein. 1 Producto de investigación del Grupo de Investigación Ingeniería de Procesos Agroalimentarios y Biotecnológicos (GIPAB), de Escuela de Ingeniería de Alimentos de la Universidad del Valle. C.A. Solís Carvajal, es Ingeniero de Alimentos, Escuela de Ingeniería de Alimentos, de la Universidad del Valle, Cali (Colombia). C.A. Vélez Pasos, es Director de la Escuela de Ingeniería de Alimentos, de la Universidad del Valle, Cali (Colombia). J.S. Ramírez es Docente en la Escuela de Ingeniería de Alimentos, de la Universidad del Valle, Cali (Colombia). email: juan. sebastian.ramirez@ correounivalle.edu.co Resumo – A tecnologia de Membrana permite separar materiais de distinto peso molecular, o que torna seu desenvolvimento muito importante através da historia, reduzindo custos energéticos e preservando os recursos não renováveis entre outros fatores. Hoje em dia tem múltiplas aplicações, como é o caso da obtenção das proteínas do lactosoro, a dessalinização da agua do mar, a limpeza de aguas residuais, a obtenção de componentes voláteis a partir do café solúvel, etc. Esta revisão apresenta uma descrição do desenvolvimento das tecnologias de membranas e suas mais importantes aplicações. Palavras chave: Tecnologias de Membrana, componentes voláteis, proteínas do lacto-soro. I. Introducción A l proceso mediante el cual se separan dos o más componentes de una corriente utilizando una membrana (o filtro) se denomina filtración[1]. En este proceso los fluidos se hacen circular sobre superficies semipermeables que los componentes de dichos fluidos atraviesan de manera selectiva sin experimentar alteraciones químicas ni físicas. La membrana actúa como una barrera semipermeable y la separación ocurre porque la membrana controla la cantidad de movimiento de varias moléculas entre las fases. Las dos fases fluidas suelen ser miscibles y la barrera de la membrana impide el flujo hidrodinámico normal [2-4]. Universidad Católica de Pereira 90 La Tecnología de Membranas (TM) es un método de filtración de solutos disueltos en un fluido, cuyo fundamento es la separación por la diferencia de los pesos moleculares y el tamaño de partícula [5]. El desarrollo que ha tenido la TM estas últimas décadas se evidencia en los numerosos trabajos de investigación que se realizan en la materia, abarcando tanto el desarrollo de nuevos materiales para membranas, como la modelización de diversos procesos de separación por membranas y en el análisis de las variables de dichos procesos [6]. La TM ha sido el foco de atención de muchas industrias, lo que ha generado un sólido y creciente mercado. Estudios reportados por The Freedonia Group, Inc. (http:// www.freedoniagroup.com), proyectan una demanda con un incremento anual en las ventas de membranas de un 8,7% para Estados Unidos, y un 8,6% a nivel mundial. Se espera, en este siglo 21, que la TM junto a las nuevas tecnologías incremente su rendimiento y permita resolver los problemas de abastecimiento de agua, mediante la desalinización [7]. Según un informe reciente de SBI Energía (http://www.sbireports.com) la industria de la separación por membranas, con la desalinización de agua, alcanzará los 54,2 billones de dólares en 2020, mientras que en 2010 alcanzó $12,5 billones de dólares y en 1988 los $4,4 billones de dólares [8, 9]. El desarrollo de las membranas, debido a su gran capacidad para seleccionar según el peso molecular los solutos disueltos en una corriente liquida, ha optimizado diversos procesos industriales, tal como la desalinización del agua de mar, el aprovechamiento de los componentes de leche y lactosuero, el mejoramiento de las pinturas, la obtención de compuestos activos en la industria farmacéutica, entre otros. El fin de la presente revisión es presentar al lector una visión general de la tecnología de membranas abarcando su desarrollo histórico y sus aplicaciones. II. Desarrollo histórico En la antigüedad ya se utilizaban de manera empírica los procesos de filtración para separar y mejorar la calidad de mezclas líquidas. En el poema filosófico De natura rerum (60 a.C.) el poeta latino Tito Lucrecio Caro cuenta como el hombre aprendió a purificar el agua filtrándola a través de la tierra o la arena [10]. Durante muchos siglos para separar las sustancias en suspensión de un líquido se utilizaron arcillas, gelatinas, resinas, pergaminos y membranas intestinales [11, 12]. Los primeros trabajos científicos con membranas fueron realizados por M. La Hire en 1688, quien evaluó la permeabilidad de vejigas de cerdo con relación al agua y al alcohol [13], encontrando que era más permeable al agua [11]. Desde 1748 hasta inicios del siglo XX, las investigaciones se centraron en estudiar las propiedades de “barrera física”; periodo conocido como “la edad de la inocencia Entre Ciencia e Ingeniería de la membrana”. Donde se desarrollaron teorías y leyes fenomenológicas relacionadas con los procesos de membrana [14] y como herramientas de laboratorio para desarrollar teorías físicas y químicas. En 1752, el físico francés Jean Antoine Nollet, estableció los principios básicos de “osmosis” [13]. En 1827, el médico, biólogo y fisiólogo francés René Joachim Henri de Dutrochet Neones descubrió que al someter líquidos de diferentes densidades a través de membranas (usando material inorgánico muy fino de forma cilíndrica, dispuesto en un capilar vertical), uno de ellos tiende a ascender más que los otros, evidenciando así los fenómenos de endosmosis y exosmosis, concluyendo que hay una relación directa entre la permeabilidad preferente de un determinado fluido y la altura que éste alcanza en el medio filtrante [15-17]. En 1855, Adolf Eugen Fick expuso por primera vez las leyes que rige el transporte de masa a través de medios de difusión [18]. En 1861, Thomas Graham demostró que existían membranas semipermeables, que permitían el paso de sustancias disueltas de bajo peso molecular, pero impedían el de las partículas coloidales, también demostró que la velocidad de difusión de un gas es inversamente proporcional a la raíz cuadrada de su densidad, relación conocida como ley de Graham [19]. En 1864, Moritz Traube construyó la primera membrana semipermeable artificial, él empleó su tamiz molecular para el desarrollo de la primera teoría fisicoquímica del crecimiento de células de la planta [20-22]. En 1887, van’t Hoff desarrolló la ley límite y la ecuación que lleva su nombre, que explican el comportamiento de soluciones diluidas ideales [23], basándose en las mediciones realizadas por Traube y Pfeffer. Paralelamente, Maxwell [24] y otros investigadores desarrollaron gran parte de la teoría cinética de los gases, empleando el concepto de una membrana semipermeable perfectamente selectiva. Durante este periodo, las membranas no tuvieron usos industriales o comerciales. En el siglo XX se destacan varios trabajos. Bechhold [25] desarrolló la primera membrana sintética de ultrafiltración (nitrocelulosa), y fue el primero en medir puntos de burbuja de membrana y también acuño el término “ultrafiltro”. En 1920, Zsigmondy y Bachmann, Ferry y Elford hicieron importantes avances en membranas de ultrafiltración y microfiltración a escala piloto [26-28]. En 1950 Gerald Hassler introdujo el primer concepto de la desalinización del agua empleando membranas [29]. En 1958, Sidney Loeb y Srivasa Sourirajan comenzaron a trabajar en un proyecto conjunto sobre membranas y dos años después presentaron la primera membrana asimétrica de acetato de celulosa. En la Tabla I se resumen los principales acontecimientos históricos ocurridos desde los trabajos de Nollet. En la Figura1 se muestra una línea de tiempo que resume la evolución de la TM. 91 Tabla I Desarrollo de teorías y leyes relacionadas con el proceso de separación por membranas Año Ecuación Fenomenológica Modelo Teórico membranas compuestas de capa fina adicionando grupos funcionales químicos a la superficie de la membrana, tales como grupos carboxílicos o sulfónicos, para mejorar la retención de determinadas impurezas [34]. Los trabajos mencionados permitieron la evolución de los métodos de filtración, tal como se describe a continuación: 1748 Ósmosis Nollet 1803 Electroósmosis Reus 1816 Electroósmosis Porret 1855 Difusión Fick 1861 Diálisis Graham Procesos con membrana País Año Aplicación 1887 Presión osmótica Van`tHoff Microfiltración Alemania 1920 Uso en laboratorio (filtro de bacterias) 1889 Transporte de electrolitos Nernst-Plank Ultrafiltración Alemania 1930 Uso de laboratorio 1905 Presión osmótica Einstein 1907 Potencial de membrana Henderson Hemodiálisis Holanda 1950 Riñón artificial 1911 Equilibrio de membrana Donnan 1930 Osmosis anómala 1936 Tabla II Desarrollo (técnico) de los procesos con membranas Electrodiálisis USA 1955 Desalinización Sollner Osmosis inversa USA 1960 Membranas iónicas Meyer, Siever USA 1981 1937 Membranas iónicas Teorell Separación de gases 1950 Modelo de poro Schmid Pervaporación AlemaniaHolanda 1982 Desalinización de agua de mar Concentración de soluciones acuosas Deshidratación de solventes orgánicos 1956 Modelo de poro Meares 1964 Irreversibilidad Termodinámica Kedem, Katchalsky 1965 Modelo de difusión – solución Londale Fuente: Mulder [31] III. Tecnología de membranas En 1970, Cadotte mejoró las membranas integrales al depositar una película delgada de polímero sobre un soporte poroso por la técnica de solución-evaporación, mejorando la permeo-selectividad de las membranas [33]. No es fácil dar una definición completa y precisa de una membrana que cubra todos sus aspectos [11]. Sin embargo, una de las definiciones más completas y precisas fue propuesta por Lonsdale [35] “una membrana es un sistema de espesor muy pequeño comparado con su superficie que, cuando se interpone entre dos fases fluidas macroscópicas, ejerce un control selectivo de las transferencias de materia o de energía entre ellas”. En 1990, se mejoró la membrana de microfiltración, que permitió la remoción de esporas en leches y lactosuero, se logró controlar la deposición de partículas mediante discos rotatorios, vibración, vórtices de Dean`s, logrando extender la vida útil de la leche. Finalmente, se desarrollaron membranas de intercambio iónico que permitieron fraccionar hidrolizados a través de membranas de ultrafiltración/ nanofiltración. En la actualidad, los investigadores fabrican Los procesos de separación por membrana se clasifican de acuerdo al tamaño de las partículas o moléculas que son capaces de retener (ver Fig. 2), en el caso de los líquidos se tiene microfiltración, ultrafiltración, nanofiltración, osmosis inversa y pervaporación, electrodiálisis [36], en el caso de los gases existen diferentes tipos de separación a través de membranas de microporos de diferentes tamaños de poro y películas poliméricas [37]. Fuente:Barbari [30], Mulder [31] Fig 1. Evolución de las membranas Modificado deGonzales Rivas [32] Universidad Católica de Pereira 92 Fig. 2. Representación esquemática del tamaño de poro nominal de los procesos de separación de membrana Modificado de Baker [37], Cui, et al. [38] Tabla III Desarrollo histórico de la membrana de microfiltración A. Microfiltración (MF) Separa partículas con un tamaño comprendido entre 0,05 y 10 µm, a presiones comprendidas entre los 0,5 y 3 bar. Usualmente se usa para retener sólidos en suspensión: por lo tanto, se emplea como etapa de limpieza, de concentración o como pretratamiento para la nanofiltración o a la ósmosis inversa [36]. El origen de este método se remonta al año de 1920 cuyo material de construcción fue la nitrocelulosa, y a partir de entonces muchas compañías de la época iniciaron la producción en masa de éstas. No obstante la primera aplicación más relevante se dio en Alemania durante la segunda guerra mundial, como un método rápido para monitorear el agua de consumo y hacerla libre de microorganismos. Posteriormente muchas compañías y entidades del gobierno siguieron su interés por desarrollar y aplicar este método dentro de las cuales se encuentra la Armada de USA, donde buscaron mejorar prototipos de membranas explorando numerosos materiales celulósicos como PolivinilFluorideno, Poliamidas, Poliolefinas y Poli Tetra Fluorideno, especialmente con la compañía Millipore [39-41]. En la Tabla III se presentan algunos de los avances más destacados de la MF a través de la historia. Fuente: Baker [37] B. Ultrafiltración (UF) Es una membrana de poros muy finos cuyo rango está entre 10-1000 Å y su principal función es separar macromoléculas y coloides de una corriente liquida. La primera membrana de UF fue desarrollada por Bechhold (nitrocelulosa) quien Entre Ciencia e Ingeniería Año Desarrollo 1918 Zsigmondy y Bachmann patentarón las membranas de colodión 1926 Nacimiento de la compañía Membran Filter GmbH 1944 Aplicación del Test de Pantalla de agua (ScreenWater) para reducir la contaminación bacterial del agua en Alemania 1947 Goetz desarrolló membranas de microfiltración de acetatonitrato de celulosa en la compañía CalTech 1950 Fundación de la Corporación Millipore 1963 Se usó la MF para esterilizar por primera vez la cerveza en frio 1971 Descripción de la filtración de flujo cruzado 1972 Introducción de los filtros de membranas de cartucho plisado para MF 1985 Membralox produce módulos cerámicos y tubulares de MF 1990 Instalación de las primeras plantas de tratamiento de agua municipal usando MF fue el primero en medir sus puntos de burbuja y utilizo el término “ultrafiltro” [37, 39]. J.D. Ferry [27] realizó una recopilación muy interesante acerca de la UF, describiendo su empleo para la concentración de enzimas, análisis de bacteriófagos y virus y preparación de ultrafiltrados libres de células y proteínas a partir de soluciones biológicas, sin embargo, era un proceso restringido a escala de laboratorio debido a las dificultades que su escalamiento implicaban. Sin embargo, Sidney y Srinivasa [42] desarrollaron la tecnología y crearon un sistema de membranas a escala industrial. En la Tabla IV se presentan algunos de los avances más destacados de la UF a través de la historia. 93 Tabla IV Desarrollo histórico de la ultra filtración Año Desarrollo en soluciones alcohólicas concentradas y la remoción de pequeñas cantidades de componentes orgánicos volátiles (VOC) de aguas contaminadas. [37, 39, 48]. En la Tabla VI se presentan algunos de los avances más destacados de la PV a través de la historia. 1845 Investigación sobre la anisotropía de las membranas naturales 1907 Bechhold prepara membranas de colodión para medir puntos de burbuja y usa el término “ultrafiltro” 1926 Membrane Filter GmbH comercializa membranas de UF 1966 Amicon desarrolla membranas de UF en material de Polisulfona, PVDF a escala de laboratorio Año Desarrollo 1967 Amicon desarrolla la primera membrana de fibra hueca de UF 1959 1969 Abcor instala una planta comercial de membranas tubulares de UF Demostración de la capacidad de desalinización de las películas de acetato de celulosa por Breton y Reid 1962 1970 primeras aplicaciones industriales de ultrafiltración en la pintura electroforética Desarrollo de las membranas asimétricas de Acetato de Celulosa por Loeb y Sourirajan 1963 Primer módulo en espiral General Atomics 1973 Romicon desarrolla membranas capilares de fibras huecas en su planta 1963 Loeb-Sourirajan desarrollan las membranas anisotropicas de OI 1967 Primer éxito comercial del módulo de fibra hueca por Du Pont 1980 Abcor comercializa módulos de UF en espiral 1972 Desarrollo del material de membrana compuesto interfacial 1988 Primera membrana cerámica de UF a nivel comercial 1975 Primer planta comercial para membranas compuestas 1978 Primer película aromática (FT-30) por Cadotte 1998 Primer planta para separar solventes refinería Beaumont Texas C. Nanofiltración (NF) Tabla V. Desarrollo histórico de la osmosis inversa Proceso de separación que usa membranas con un diámetro de poro inferior a 0,001µm (1nm). Retiene lactosa y otros componentes de gran tamaño, permitiendo permear solo iones minerales monovalentes y agua [43]. El origen de la NF se remonta a 1970, como tecnología alterna a la OI, caracterizada por ser más permeables y utilizar presiones bajas. Los más grandes desarrollos de la NF se dieron entre 1900 y 2000, con la mejora de las características de las membranas y el incremento de sus aplicaciones [44, 45]. D. Ósmosis Inversa (OI) Se define como la concentración de soluciones por eliminación de agua; el tamaño del poro se encuentra entre 5 – 15 A permitiendo obtener retenidos con un contenido máximo de sólidos del 30% [46]. El método consiste en el uso de membranas que son solubles en agua e impermeables para la sal, por ello se usan para desalinizar agua [39, 41, 47]. La OI tiene un costo energético elevado debido a las altas presiones usadas, no obstante sus resultados son óptimos. En la Tabla V se presentan algunos de los avances más destacados de la OI a través de la historia. E. Pervaporacion (PV) Es un proceso para separar mezclas gaseosas en líquidos, ya que una mezcla liquida entra en contacto con un lado de la membrana y el permeado se remueve como un vapor en el otro lado, el transporte a través de la membrana se hace por diferencia de presión de vapor. El termino Pervaporación fue dado por Kober en 1917, posteriormente el proceso fue desarrollado por las industrias de petróleos principalmente, siendo sus aplicaciones más relevantes la remoción de agua Tabla VI Desarrollo histórico de la pervaporación Año Desarrollo 1950-1960 Binning y Lee de la industria Norteamérica de aceites publicaron el primer estudio sistemático. 1970-1980 Neel y Aptel en Toulouse realizaron estudios de Pervaporación en laboratorio 1982 GFT construye la primera planta comercial de deshidratación de etanol 1996 Primera planta comercial de Pervaporación para remover Componentes orgánicos volátiles F.Electrodiálisis (ED) Es un proceso de membrana en el cual la separación de iones cargados eléctricamente resulta de la aplicación de un campo eléctrico [43]. Los iones son transportados, de una solución a otra, a través de la membrana de intercambio iónico, bajo la influencia de un potencial eléctrico. Las cargas eléctricas de los iones permiten su conducción a través de las soluciones y la membrana cuando se aplica un voltaje a través de estos medios. El énfasis del diseño de una ED se dirige hacia el mantenimiento de una distribución uniforme del flujo de la solución y la minimización de la resistencia eléctrica y la fuga de corriente [49]. En la Tabla VII se presentan algunos de los avances más destacados de la ED a través de la historia. Universidad Católica de Pereira 94 Tabla VII Desarrollo histórico de la electrodiálisis Año Desarrollo 1900 Ostwald, Donnan entre otros estudiaron la primer membrana de intercambio iónico 1939 Manegold y Kalauch (1939) y Meyer y Strauss (1940) describieron la electrodiálisis 1940 Kressman, Murphy (1940) y Juda y McRae (1950) produjeron la primer membrana de intercambio iónico 1950 IONICS instala la primer planta exitosa de electrodiálisis 1970 IONICS introduce la polaridad inversa al proceso 1977 Liu y Allieddesarrollana la primer membrana bipolar 1980 DiamondShamrock/Du Pont introducen las perfluoromembranas para las plantas de cloro –álcali G. Separación de Gas (SG) Aunque la industrialización de este método data de hace aproximadamente 20 años, la tecnología ha sido estudiada desde hace muchos años atrás iniciando con los trabajos de Thomas Graham quien midió la tasa de permeación de gases a través del diafragma, cuyo trabajo se conoce como el origen de la síntesis de gases [37, 39, 50]. La eficiencia de la SG depende esencialmente de dos parámetros: la pureza y la fracción del gas producto. Éstos parámetros, a su vez dependen de las propiedades intrínsecas, tales como la permeabilidad y la selectividad de la membrana, y por factores operativos tales como presiones totales y parciales de la alimentación y permeado, el caudal de alimentación y la caída de presión a ambos lados de la membrana [51]. En la Tabla 8 se presentan algunos de los avances más destacados de la SG a través de la historia Tabla VIII Desarrollo histórico de la separación de gas Año Desarrollo 1850 Ley de Difusión de Graham 1950 Primer medición sistemática de la permeabilidad por van Amerongen 1960-1970 Desarrollo de los módulos de fibra hueca y espiral para Osmosis Inversa 1980 Avances en los materiales de membranas N2/O2 y H2/CH4 1990 Primer planta comercial de separación de vapor GKSS, NittoDenko 1994 Instalación de membranas de fibra hueca de CO2/CH4 1996 Primer planta de separación de propileno/N2 IV. Aplicaciones industriales En la actualidad se conocen diversas aplicaciones tales como, la concentración de leche para mejorar el rendimiento quesero, la elaboración de bebidas de lactosuero, la clarificación y preconcentración de jugos de frutas, la elaboración de nutracéuticos, la elaboración de alimentos funcionales, la purificación de aguas, la concentración de clara de huevo, la concentración y extracción de cenizas Entre Ciencia e Ingeniería de gelatina porcina, vacuna o de hueso, la clarificación de la salmuera de carne para la remoción de bacterias y re-uso de la salmuera, la concentración de proteínas de vegetales y plantas tales como soja, canola y avena, y la desalcoholización de vino y cerveza, entre otras. La MF tiene diversas aplicaciones, algunas de ellas son: el tratamiento de aguas residuales y la esterilización de leche [52]; la separación y purificación de componentes de coproductos de industria de alimentos, por ejemplo de los caldos de fermentación de arroz [53]; la remoción e inactivación de virus [54], clarificación y recuperación de biomasa, entre otros. En el caso de los lácteos, la MF es una forma alternativa para producir proteínas de suero de leche [43, 55]. Las proteínas séricas solubles, recuperadas en el permeado, tienen el mismo pH que la leche, a diferencia de suero de queso tradicional, que es relativamente ácido. Por lo tanto, el valor tecnológico y económico del obtenido por MF es mayor que el tradicional, ya que la solución de proteínas de lactosuero no contienen péptidos de caseína, enzimas, grasas y proteínas de suero desnaturalizadas [56]. La UF se ha empleado para el fraccionamiento de leche, suero y proteínas [57-59], la recuperación de biomoléculas a partir de salmueras [60], el tratamiento de agua para consumo humano [61]; la concentración de proteínas y anticuerpos solubles [62]. Es un proceso atractivo para la reducción de hasta un 10% de la lactosa en la leche [63]. Las grasas y las proteínas quedan en el retenido, mientras que la lactosa, algunos minerales y sales pueden pasar fácilmente a través de la membrana La NF se ha usado en; el pretratamiento en la desalinación del agua de mar [64], la retención de iones en solución acuosa [65], la separación y concentración de componentes bioactivos para su posterior uso en la fortificación de alimentos [66], el desmineralizado, remoción de color, y desalinización, entre otros. La OI es especialmente adecuada para procesos de deshidratación, concentración/separación de sustancias, o tratamiento de residuos líquidos [67], ejemplo de esto son: la separación y purificación de componentes de soluciones salinas [68]; el tratamiento de efluentes residuales de los procesos de irrigación agrícola [69, 70], la remoción de patógenos del agua para consumo humano [70], entre otros. La PV tiene diversas aplicaciones, tales como: la producción de bioetanol [71], la concentración de componentes aromáticos del café [72], la remoción de fuertes componentes volátiles del agua[48]. Un gran número de compuestos aromáticos, que producen diferentes atributos sensoriales, se han identificado en derivados lácteos. Entre ellos, hay más de 30 compuestos responsables del sabor típico de algunos productos lácteos que se han extraído por pervaporación [73]. 95 La capacidad de separar los electrolitos ofrece diversas aplicaciones a la ED en la industria alimentaria. La ED se ha utilizado en procesos como la remoción y recuperación de volátiles de ácidos grasos de mezcla de fermentaciones ácidas [74], la limpieza de aguas residuales [75], la desalinización [76]. Su mayor uso ha sido en la desmineralización de suero de leche [77-80]. El lactosuero contiene cantidades útiles de proteínas, lactosa y ácido láctico. Sin embargo, el alto contenido de minerales hace que sea inaceptable para el consumo humano o como alimento para animales. El tratamiento del suero por ED permite la remoción de los minerales y la posterior producción de suero comestible en polvo. Otro interesante uso ha sido la desalación de la leche de vaca, para utilizarla en fórmulas infantiles [81, 82]. La SG se ha empleado con éxito para separar cadmio en el tratamiento de aguas residuales [83], separar alcanos lineales, solventes polares, isómeros estructurales, mezcla de gases [84], fraccionar aceites y gases. La SG también permite la producción de hidrógeno, la purificación de aire y la concentración del contenido de oxígeno en el aire [51]. Un interesante ejemplo de aplicación de las TM son las posibilidades de aprovechamiento de los componentes del lactosuero. Entre los derivados del suero se pueden citar: lactosuero en polvo, proteínas aislados de suero WPI (Whey Protein Isolates), proteínas concentradas de suero WPC (Whey Protein Concentrates), suero deslactosado, suero reducido en lactosa RLW (Reduced Lactose Whey), suero desmineralizado y deslactosado, lactalbumina, suero permeado WP (Whey Permeate), lactosa en polvo, entre otros [85-87]. Un esquema de los procesos y operaciones unitarias empleadas para la obtención de estos ingredientes se muestran en la Figura 3 [88]. Fig 3. Procesamiento para la obtención de derivados de lactosuero en diferentes formas comerciales. Fuente: Posada, et al. [88]. Universidad Católica de Pereira 96 V. Conclusiones La aplicabilidad de la tecnología de membranas ha permitido su uso en muchos campos de las ciencias y la industria a saber: en la industria petrolera, la industria de pinturas, la industria láctea y en la purificación de agua, principalmente. Siendo relevante su aporte a la conservación de los recursos no renovables puesto que no requiere de altas temperaturas para su uso. Este tipo de tecnologías plantea retos para la sociedad científica actual teniendo en cuenta la necesidad de generar productos y servicios. Referencias [1] K. S. Sutherland and G. Chase, Filters and Filtration Handbook. Oxford, UK: Elsevier Science, 2008. [2] S. K. Sharma, S. J. Mulvaney, and S. S. H. Rizvi, Food process engineering : theory and laboratory experiments. New York, USA: Wiley-Interscience, 2000. [3] C. J. Geankoplis, Transport processes and separation process principles, 4th ed. Upper Saddle River, NJ, USA: Prentice Hall Professional Technical Reference, 2003. [4] H. Strathmann, “A Random Walk through Membrane Science—From Water Desalination and Artificial Kidneys to Fuel Cell Separators and Membrane Reactors,” in Advances in membrane science and technology, T. Xu, Ed., ed New York, USA: Nova Biomedical Books, 2009, pp. 1-20. [5] A. M. Sastre, A. K. Pabby, and S. S. H. Rizvi, “Membrane Applications in Chemical and Pharmaceutical Industries and in Conservation of Natural Resources: Introduction,” in Handbook of Membrane Separations: Chemical, Pharmaceutical, Food, and Biotechnological Applications, A. K. Pabby, S. S. H. Rizvi, and A. M. Sastre, Eds., ed Boca Raton, FL, USA: CRC Press, Taylor & Francis Group, 2009, pp. 3-6. [6] H. Muñoz Guerrero, “Gestión medioambiental de salmueras de desalado de bacalao. Tratamiento mediante tecnología de membranas,” Tesis doctoral, Universitat Politècnica de València, València, España, 2010. [7] T. Uemura and M. Henmi, “Thin-Film Composite Membranes for Reverse Osmosis,” in Advanced membrane technology and applications, N. N. Li, A. G. Fane, W. S. W. Ho, and T. Matsuura, Eds., ed Oxford, UK: Wiley-Blackwell, 2008, pp. 3-20. [8] N. Hilal, A. F. Ismail, and C. Wright, Membrane fabrication. Boca Raton, FL, USA: CRC Press, Taylor & Francis Group, 2015. [9] S. Periera-Nunes and K.-V. Peinemann, Membrane technology : in the chemical industry. Weinheim; Cambridge, UK: Wiley-VCH, 2001. [10] Lucrecio, De rerum natura. De la naturaleza. España: El Acantilado, 2012. [11] J. Aguilar Peris, “Fenómenos de transporte a través de membranas,” Revista portuguesa de química, vol. 25, pp. 11-26, 1983. [12]J. J. Gomilla Villalonga, “Tecnología de electromembrana cerámica para la desinfección de aguas,” Tesis doctoral, Universitat Politècnica de Catalunya, Barcelona, España, 2015. [13] J. A. Nollet, “Recherches sur les causes du Bouillonnement des Liquides,” Histoire de l’Acadmie Royale des Sciences, pp. 57-104, 1752. [14] A. Sotto Díaz, “Aplicación de la tecnología de membranas de nanofiltración y ósmosis inversa para el tratamiento de disoluciones acuosas de compuestos fenólicos y ácidos carboxílicos,” Doctorado, Departamento de Tecnología Quimica y Ambiental, Universidad Rey Juan Carlos, Madrid, España, 2008. [15] R. J. H. Dutrochet, “Nouvelles Observations sur l’Endosmose et l’Exosmose, et sur la cause de ce double phénomène,” Annales de Chimie et de Physique, vol. 35, pp. 393–400, 3/31/ 1827. [16] K. W. Böddeker, “Commentary: Tracing membrane science,” Journal of Membrane Science, vol. 100, pp. 65-68, 3/31/ 1995. [17] H. S. Muralidhara, “Challenges of Membrane Technology in the XXI Century,” in Membrane Technology: A Practical Guide to Membrane Technology and Applications in Food and Bioprocessing, Z. F. Cui Entre Ciencia e Ingeniería and H. S. Muralidhara, Eds., ed Oxford, UK: Elsevier Science, 2010, pp. 19-32. [18] A. Fick, “Ueber Diffusion,” Annalen der Physik, vol. 170, pp. 59-86, 1855. [19] T. Graham, “Liquid Diffusion Applied to Analysis,” Philosophical Transactions of the Royal Society of London, vol. 151, pp. 183-224, 1861. [20] M. Traube, “Experimente zur Theorie der Zellenbildung und Endosmose,” Archiv für Anatomie und Physiologie und wissenschaftliche Medizin, pp. 87-165, 1867. [21] M. Traube, “Über homogene Membranen und deren Einfluss auf die Endosmose,” Centralblatt für die medicinischen Wissenschaften, vol. 4, pp. 97-100, 1866. [22] M. Traube, “Experimente zur Theorie der Zellenbildung,” Centralblatt für die medicinischen Wissenschaften, vol. 2, pp. 609-615, 1864. [23]J. v. t. Hoff, “The Function of Osmotic Pressure in the Analogy between Solutions and Gases,” Proceedings of the Physical Society of London, vol. 9, pp. 307-334, 1887. [24] J. C. Maxwell, “A Treatise on the Kinetic Theory of Gases,” Nature, vol. 16, pp. 242-246, 1877. [25] H. Bechhold, Kolloidstudien mit der Filtrationsmethode. Leipzig: Engelmann, 1907. [26] R. Zsigmondy and W. Bachmann, “Über neue Filter,” Zeitschrift für anorganische und allgemeine Chemie, vol. 103, pp. 119-128, 1918. [27] J. D. Ferry, “Ultrafilter Membranes and Ultrafiltration,” Chemical Reviews, vol. 18, pp. 373-455, 1936/06/01 1936. [28] W. J. Elford, “Principles governing the preparation of membranes having graded porosities. The properties of “gradocol” membranes as ultrafilters,” Transactions of the Faraday Society, vol. 33, pp. 10941104, 1937. [29] Y. Cohen and J. Glater, “A tribute to Sidney Loeb —The pioneer of reverse osmosis desalination research,” Desalination and Water Treatment, vol. 15, pp. 222-227, 2012. [30] T. Barbari, “Basic principles of membrane technology : Marcel Mulder (Ed.), Kluwer Academic Publishers, Dordrecht, The Netherlands, 1991; hardbound, Dfl. 200, ISBN 0-7923-0978-2; paperback, Dfl. 70, ISBN 0-7923-0979-0; 400 pp,” Journal of Membrane Science, vol. 72, pp. 304-305, 9/16/ 1992. [31]M. Mulder, Basic Principles of Membrane Technology, 2nd ed. London, UK, 1996. [32] M. Gonzales Rivas, “Separación y purificación del ácido lactobiónico,” Master en Biotecnología Alimentaria Master en Biotecnología Alimentaria, Biotenología Alimentaria, Universidad de Oviedo, Oviedo, España, 2013. [33]J. E. Cadotte, R. J. Petersen, R. E. Larson, and E. E. Erickson, “A new thin-film composite seawater reverse osmosis membrane,” Desalination, vol. 32, pp. 25-31, 1// 1980. [34] H. Ozaki and H. Li, “Rejection of organic compounds by ultra-low pressure reverse osmosis membrane,” Water Research, vol. 36, pp. 123-130, 1// 2002. [35] H. K. Lonsdale, “What is membrane? Part II,” Journal of Membrane Science, vol. 43, pp. 1-3, // 1989. [36] R. Ibañez Lorente, “Estudio de la Ultrafiltación de Proteínas Modelo con Membranas Cerámicas,” Tesis de Doctorado, Universidad de Granada, Granada, España, 2007. [37] R. W. Baker, Membrane Technology and Applications: John Wiley & Sons, Ltd, 2004. [38] Z. F. Cui, Y. Jiang, and R. W. Field, “Fundamentals of Pressure-Driven Membrane Separation Processes,” in Membrane Technology: A Practical Guide to Membrane Technology and Applications in Food and Bioprocessing, Z. F. Cui and H. S. Muralidhara, Eds., ed Oxford, UK: Elsevier Science, 2010, pp. 1-18. [39] R. Singh, “Chapter 1 - Introduction to membrane technology,” in Hybrid Membrane Systems for Water Purification, R. Singh, Ed., ed Amsterdam: Elsevier Science, 2005, pp. 1-56. [40] L. Fernández García, S. Álvarez Blanco, and F. A. Riera Rodríguez, “Microfiltration applied to dairy streams: removal of bacteria,” Journal of the Science of Food and Agriculture, vol. 93, pp. 187-196, 2013. [41] A. Al Ashhab, O. Gillor, and M. Herzberg, “Biofouling of reverseosmosis membranes under different shear rates during tertiary wastewater desalination: Microbial community composition,” Water Research, vol. 67, pp. 86-95, 12/15/ 2014. 97 [42] L. Sidney and S. Srinivasa, “Sea Water Demineralization by Means of an Osmotic Membrane,” in Saline Water Conversion?II. vol. 38, ed: AMERICAN CHEMICAL SOCIETY, 1963, pp. 117-132. [43] A. F. de Carvalho and J. L. Maubois, Engineering Aspects of Milk and Dairy Products. Boca Raton, 2010. [44] B. Van der Bruggen and J. Geens, “Nanofiltration,” in Advanced Membrane Technology and Applications, ed: John Wiley & Sons, Inc., 2008, pp. 271-295. [45] S. Zhu, S. Zhao, Z. Wang, X. Tian, M. Shi, J. Wang, and S. Wang, “Improved performance of polyamide thin-film composite nanofiltration membrane by using polyetersulfone/polyaniline membrane as the substrate,” Journal of Membrane Science, vol. 493, pp. 263-274, 11/1/ 2015. [46] A. Chacón-Villalobos, “- Tecnologías de membranas en la agroindustria lácteaJF - Agronomía Mesoamericana,” vol. - 243-263, 2006. [47] Y.-X. Sun, Y. Gao, H.-Y. Hu, F. Tang, and Z. Yang, “Characterization and biotoxicity assessment of dissolved organic matter in RO concentrate from a municipal wastewater reclamation reverse osmosis system,” Chemosphere, vol. 117, pp. 545-551, 12// 2014. [48] J. Kujawa, S. Cerneaux, and W. Kujawski, “Removal of hazardous volatile organic compounds from water by vacuum pervaporation with hydrophobic ceramic membranes,” Journal of Membrane Science, vol. 474, pp. 11-19, 1/15/ 2015. [49] T. A. Davis, “Electrodialysis,” in Handbook of industrial membrane technology, M. C. Porter, Ed., ed Park Ridge, N.J, USA: Noyes Publications, 1990, pp. 482-510. [50] F. Ahmad, K. K. Lau, S. S. M. Lock, S. Rafiq, A. U. Khan, and M. Lee, “Hollow fiber membrane model for gas separation: Process simulation, experimental validation and module characteristics study,” Journal of Industrial and Engineering Chemistry. [51] A. K. Fritzsche and J. E. Kurz, “The Separation of Gases by Membranes,” in Handbook of industrial membrane technology, M. C. Porter, Ed., ed Park Ridge, N.J, USA: Noyes Publications, 1990, pp. 559-593. [52] M. C. Almandoz, C. L. Pagliero, N. A. Ochoa, and J. Marchese, “Composite ceramic membranes from natural aluminosilicates for microfiltration applications,” Ceramics International, vol. 41, pp. 5621-5633, 5// 2015. [53] X. Li, Y. Wang, J. Pan, Z. Yang, Y. He, A. N. Mondal, and T. Xu, “The preparation and application of a low-cost multi-channel tubular inorganic–organic composite microfiltration membrane,” Separation and Purification Technology, vol. 151, pp. 131-138, 9/4/ 2015. [54] B. Guo, E. V. Pasco, I. Xagoraraki, and V. V. Tarabara, “Virus removal and inactivation in a hybrid microfiltration–UV process with a photocatalytic membrane,” Separation and Purification Technology, vol. 149, pp. 245-254, 7/27/ 2015. [55] L. V. Saboyainsta and J.-L. Maubois, “Current developments of microfiltration technology in the dairy industry,” Lait, vol. 80, pp. 541-553, 2000. [56] K. Hu, J. M. Dickson, and S. E. Kentish, “Microfiltration for casein and serum protein separation,” in Membrane Processing for Dairy Ingredient Separation, K. Hu and J. M. Dickson, Eds., ed Oxford, UK: John Wiley & Sons, Ltd, 2015, pp. 1-34. [57] E. D. Bastian, S. K. Collinge, and C. A. Ernstrom, “Ultrafiltration: Partitioning of Milk Constituents into Permeate and Retentate1,” Journal of Dairy Science, vol. 74, pp. 2423-2434. [58] F. V. Kosikowski and R. Jimenez-Flores, “Removal of Penicillin G from Contaminated Milk by Ultrafiltration,” Journal of Dairy Science, vol. 68, pp. 3224-3233. [59] N. Rajagopalan and M. Cheryan, “Total Protein Isolate from Milk by Ultrafiltration: Factors Affecting Product Composition,” Journal of Dairy Science, vol. 74, pp. 2435-2439. [60] N. Gringer, S. V. Hosseini, T. Svendsen, I. Undeland, M. L. Christensen, and C. P. Baron, “Recovery of biomolecules from marinated herring (Clupea harengus) brine using ultrafiltration through ceramic membranes,” LWT - Food Science and Technology, vol. 63, pp. 423429, 9// 2015. [61] W. Yu and N. J. D. Graham, “Performance of an integrated granular media – Ultrafiltration membrane process for drinking water treatment,” Journal of Membrane Science, vol. 492, pp. 164-172, 10/15/ 2015. [62] R. Ghosh and R. Sadavarte, “A technique for drying and storing a protein as a soluble composite thin film on the surface of an ultrafiltration membrane,” Journal of Membrane Science, vol. 490, pp. 256-265, 9/15/ 2015. [63] Shakeel-Ur-Rehman, “Reduced Lactose and Lactose-Free Dairy Products,” in Advanced dairy chemistry. Volume 3: Lactose, Water, Salts and Minor Constituents. vol. 3, P. F. Fox and P. L. H. McSweeney, Eds., 3rd. ed New York ; London: Kluwer Academic/ Plenum, 2009, p. 794. [64] C. Kaya, G. Sert, N. Kabay, M. Arda, M. Yüksel, and Ö. Egemen, “Pre-treatment with nanofiltration (NF) in seawater desalination— Preliminary integrated membrane tests in Urla, Turkey,” Desalination, vol. 369, pp. 10-17, 8/3/ 2015. [65] C.-V. Gherasim, K. Hancková, J. Palarčík, and P. Mikulášek, “Investigation of cobalt(II) retention from aqueous solutions by a polyamide nanofiltration membrane,” Journal of Membrane Science, vol. 490, pp. 46-56, 9/15/ 2015. [66] Y. Li, B. Qi, J. Luo, R. Khan, and Y. Wan, “Separation and concentration of hydroxycinnamic acids in alkaline hydrolyzate from rice straw by nanofiltration,” Separation and Purification Technology, vol. 149, pp. 315-321, 7/27/ 2015. [67] R. Garud, S. Kore, V. Kore, and G. Kulkarni, “A short review on process and applications of reverse osmosis,” Universal journal of Environmental research and technology, vol. 1, pp. 233-238, 2011. [68] S. M. Ibrahim, H. Nagasawa, M. Kanezashi, and T. Tsuru, “Robust organosilica membranes for high temperature reverse osmosis (RO) application: Membrane preparation, separation characteristics of solutes and membrane regeneration,” Journal of Membrane Science, vol. 493, pp. 515-523, 11/1/ 2015. [69] S. Bunani, E. Yörükoğlu, Ü. Yüksel, N. Kabay, M. Yüksel, and G. Sert, “Application of reverse osmosis for reuse of secondary treated urban wastewater in agricultural irrigation,” Desalination, vol. 364, pp. 68-74, 5/15/ 2015. [70] N. Nguyen, C. Fargues, W. Guiga, and M. L. Lameloise, “Assessing nanofiltration and reverse osmosis for the detoxification of lignocellulosic hydrolysates,” Journal of Membrane Science, vol. 487, pp. 40-50, 8/1/ 2015. [71] M. A. Sosa, D. A. Figueroa Paredes, J. C. Basílico, B. Van der Bruggen, and J. Espinosa, “Screening of pervaporation membranes with the aid of conceptual models: An application to bioethanol production,” Separation and Purification Technology, vol. 146, pp. 326-341, 5/26/ 2015. [72] T. A. Weschenfelder, P. Lantin, M. C. Viegas, F. de Castilhos, and A. d. P. Scheer, “Concentration of aroma compounds from an industrial solution of soluble coffee by pervaporation process,” Journal of Food Engineering, vol. 159, pp. 57-65, 8// 2015. [73] B. Zhang, P. Sampranpiboon, and X. Feng, “Pervaporative extraction of dairy aroma compounds,” in Membrane Processing for Dairy Ingredient Separation, K. Hu and J. M. Dickson, Eds., ed Oxford, UK: John Wiley & Sons, Ltd, 2015, pp. 176-229. [74] R. J. Jones, J. Massanet-Nicolau, A. Guwy, G. C. Premier, R. M. Dinsdale, and M. Reilly, “Removal and recovery of inhibitory volatile fatty acids from mixed acid fermentations by conventional electrodialysis,” Bioresource Technology, vol. 189, pp. 279-284, 8// 2015. [75] S. Caprarescu, M. C. Corobea, V. Purcar, C. I. Spataru, R. Ianchis, G. Vasilievici, and Z. Vuluga, “San copolymer membranes with ion exchangers for Cu(II) removal from synthetic wastewater by electrodialysis,” Journal of Environmental Sciences, vol. 35, pp. 2737, 9/1/ 2015. [76] C. Xue, Q. Chen, Y.-Y. Liu, Y.-L. Yang, D. Xu, L. Xue, and W.-M. Zhang, “Acid blue 9 desalting using electrodialysis,” Journal of Membrane Science, vol. 493, pp. 28-36, 11/1/ 2015. [77] H. Šímová, V. Kysela, and A. Černín, “Demineralization of natural sweet whey by electrodialysis at pilot-plant scale,” Desalination and Water Treatment, vol. 14, pp. 170-173, 2012. [78] L. Diblíková, L. Čurda, and K. Homolová, “Electrodialysis in whey desalting process,” Desalination and Water Treatment, vol. 14, pp. 208-213, 2012. [79] G. Q. Chen, F. I. I. Eschbach, M. Weeks, S. L. Gras, and S. E. Kentish, “Removal of lactic acid from acid whey using electrodialysis,” Separation and Purification Technology, vol. 158, pp. 230-237, 2016. Universidad Católica de Pereira 98 [80] J. Ečer, J. Kinčl, and L. Čurda, “Using foil membranes for demineralization of whey by electrodialysis,” Desalination and Water Treatment, pp. 1-5, 2014. [81] H. R. Mueller and M.-C. Secretin, “Infant milk formula and process for its manufacture,” USA Patent Patent, 1980. [82] L. Bazinet, “Electrodialysis applications on dairy ingredients separation,” in Membrane Processing for Dairy Ingredient Separation, K. Hu and J. M. Dickson, Eds., ed Oxford, UK: John Wiley & Sons, Ltd, 2015, pp. 241-266. [83] T. Dong, L. Yang, M. Zhu, Z. Liu, X. Sun, J. Yu, and H. Liu, “Removal of cadmium(II) from wastewater with gas-assisted magnetic separation,” Chemical Engineering Journal, vol. 280, pp. 426-432, 11/15/ 2015. [84] K. Yusuf, A. Y. Badjah-Hadj-Ahmed, A. Aqel, and Z. A. Alothman, “Fabrication of zeolitic imidazolate framework-8-methacrylate monolith composite capillary columns for fast gas chromatographic separation of small molecules,” Journal of Chromatography A, vol. 1406, pp. 299-306, 8/7/ 2015. [85] K. R. Marshall and W. J. Harper, “Whey protein concentrates,,” IDF Bulletin, vol. 233, pp. 21-32, 1988. [86] U. Kulozik, “Structuring dairy products by means of processing and matrix design,” in Food Materials Science - Principles and Practice, J. M. Aguilera and P. J. Lillford, Eds., ed New York: Springer, 2008, pp. 439-473. [87] S. Young. (2007, Whey Products in Ice Cream and Frozen Dairy Desserts. Applications Monograph, 1-12. Available: http://www.usdec. org/files/PDFs/2008Monographs/WheyIceCreamandDairyDesserts_ English.pdf [88] K. Posada, D. M. Terán, and J. S. Ramírez-Navas, “Empleo de lactosuero y sus componentes en la elaboración de postres y productos de confitería,” La Alimentación Latinoamericana, vol. 292, pp. 66-75, 2011. Carlos Andrés Solís Carvajal, es Ingeniero de Alimentos de la Universidad del Valle (Colombia). Carlos Antonio Vélez Pasos, es Ingeniería Agrícola de la Universidad Nacional de Colombia - Sede Medellín. Master en Ingeniería Agrícola de la Universidade Estadual De Campinas (Brasil). Doctor en Ingeniería de Alimentos de la Universidade Estadual De Campinas (Brasil). Es investigador del Grupo de Investigación Ingeniería de Procesos Agroalimentarios y Biotecnológicos (GIPAB). Actualmente es Director de la Escuela de Ingeniería de Alimentos de la Universidad del Valle (Colombia). Juan Sebastián Ramírez Navas es Ingeniero Químico de la Universidad Central del Ecuador. Doctor en Ingeniería (énfasis en Ingeniería de Alimentos) de la Universidad del Valle (Colombia). Es investigador del Grupo de Investigación Ingeniería de Procesos Agroalimentarios y Biotecnológicos (GIPAB). Actualmente es Profesor Asistente (DOMT) en la Escuela de Ingeniería de Alimentos de la Universidad del Valle (Colombia) Entre Ciencia e Ingeniería 99 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 99-107 Cálculo del factor de concentrador de esfuerzos en placas planas utilizando diferentes elementos de discretización por medio del método de elementos finitos1 Calculation of stress concentrator factor in flat plates using different elements of discretization by the finite element method Cálculo do fator de concentrador de esforços em placas planas utilizando diferentes elementos de discretização através do método de elementos finitos J.S. Clavijo, C.D. Montoya y L.C. Flórez Recibido Octubre 15 de 2015 – Aceptado Febrero 19 de 2016 Resumen— En este trabajo, haciendo uso del método de elementos finitos (MEF) en elasticidad bidimensional, se calculan los cambios en el factor de concentración de esfuerzos generados cuando se utilizan diferentes elementos de aproximación (CST, LST, Q4 y Q8) en placas planas, además, es objeto de estudio si el refinamiento de la malla en las cercanías al concentrador, afecta el valor del factor de concentrador de esfuerzos. Este análisis se realizó por medio de un algoritmo desarrollado en Matlab y sus resultados se comparan con los generados por el método analítico y las simulaciones de Comsol Multiphysics. Palabras clave—deformación, elasticidad, esfuerzo, factor de concentración de esfuerzos, método de elementos finitos. Abstract—In this work, and by using the finite element 1 Producto derivado del proyecto de investigación “Análisis de esfuerzos por medio del método de elementos finitos en elementos mecánicos con diferentes elementos de discretización”. Presentado por el Grupo de Investigación CONFORMAT UTP, Facultad de Ingeniería Mecánica de la Universidad Tecnológica de Pereira. J.S. Clavijo, Ingeniero Mecánico de la Universidad Tecnológica de Pereira, Pereira (Colombia); email: [email protected] C.D. Montoya, Ingeniero Mecánico de la Universidad Tecnológica de Pereira, Pereira (Colombia); email: [email protected] L.C. Flórez, Docente en la Faculta de Ingeniería Mecánica de la Universidad Tecnológica de Pereira, Pereira (Colombia); email: louis@utp. edu.co method (FEM) in two dimensional elasticity, the changes on the stress concentration factor generated by using different elements of approximation (CST, LST, Q4 and Q8) on flat plates are calculated, it is also a factor of study, if the mesh refinement in nearby to the concentrator affecting the value of the stress concentration factor. This analysis is performed by an algorithm developed in Matlab and compared with the results generated by the analytical method and Comsol Multiphysics simulations. Key words—deformation, elasticity, concentration factor and finite element method stress, stress Resumo – Neste trabalho, fazendo uso do método de elementos finitos (MEF) em elasticidade bidimensional, se calculam as mudanças no fator de concentração de esforços gerados quando se utilizam diferentes elementos de aproximação (CST, LST, Q4 e Q8) em placas planas, além disso, é objeto de estudo se o refinamento da malha nas proximidades ao concentrador, afeta o valor do fator de concentrador de esforços. Esta analise se realizou por meio de um algoritmo de desenvolvimento em Matlab e seus resultados se comparam com os gerados pelo método analítico e as simulações de Comsol Multiphysics. Palavras chave: deformação, elasticidade, esforço, fator de concentração de esforços, métodos de elementos finitos. Universidad Católica de Pereira 100 I. Introducción E L empleo del MEF permite efectuar un análisis preciso, fiable, versátil y flexible aplicable a diferentes geometrías. El presente estudio describe el comportamiento de una placa plana isotrópica sometida a deformación plana, producida por una carga constante aplicada en su extremo libre y con el otro empotrado, donde son factores de estudio tres concentradores (agujero centrado, acanaladura semicircular y cambio de sección), el refinado de la malla en las cercanías del concentrador y el tipo de elemento de discretización se hace utilizando el MEF. Los cálculos del esfuerzo se realizan por medio de un algoritmo desarrollado en Matlab implementando la simulación en Comsol Multigraphycs; con los esfuerzos obtenidos se calcula el factor de concentración de esfuerzo . Se pretende comparar los resultados obtenidos a partir de diferentes tipos de elementos de aproximación (CST, LST, Q4 y Q8) y dos refinamientos distintos del mallado, programados con un algoritmo desarrollado en Matlab confrontándolos con las simulaciones de Comsol Multigraphycs y el método analítico de la mecánica de materiales. Los elementos de aproximación seleccionados pertenecen a los dos primeros niveles del triángulo de Pascal (lineal Q4 y cuadrático Q8. ver Fig. 1) de la familia Serendipita [1] y triangular (lineal CST y cuadrático LST. Ver Fig. 2), cuyos elementos poseen la característica que no presentan nodos internos en el elemento. El MEF para la mecánica de estructuras en placas planas bidimensionales es desarrollado bajo el principio de la energía potencial mínima [2], con las ecuaciones de la elasticidad basadas en desplazamientos para análisis lineal. II. Fundamentos teóricos A. Concentradores Un concentrador de esfuerzos se define como cualquier discontinuidad (muescas, chaveteros, agujeros, cambios de sección, ranuras, etc.) en la sección transversal de una pieza que pueda provocar un incremento de los esfuerzos en las cercanías a dicha discontinuidad. Los concentradores de esfuerzos pueden o no ser significativos, todo depende de las cargas a las que la pieza sea sometida [3]. 1. Factor de concentración de esfuerzos El factor de concentración de esfuerzo teórico kt se define como la relación entre el esfuerzo máximo y el esfuerzo normal promedio que actúa en la sección transversal (Ec. 1) y puede ser determinado mediante métodos experimentales (estudios fotoelásticos, cubierta frágil o medidores de tensión) o técnicas de matemáticas avanzadas utilizadas en la teoría de la elasticidad [4]. Por lo general el cálculo se Entre Ciencia e Ingeniería realiza en la sección de menor área transversal, que es donde se presenta el esfuerzo máximo [5]. (1) Para geometrías sencillas el cálculo del factor kt es fácil debido a que se encuentran caracterizado en tablas y gráficos como los que se observan en Pilkey [6] y Norton [7]. No obstante para concentradores con geometrías poco comunes se hace necesario realizar un análisis más profundo. B, Método de elementos Finitos El MEF implica el modelado de la estructura utilizando pequeños elementos interconectados denominados elementos finitos. Una función de desplazamiento está asociada con cada elemento finito y cada elemento interconectado está vinculado, directa o indirectamente, a cualquier otro elemento a través de interfaces comunes (o compartidos), incluyendo nodos y/o líneas de contorno y/o superficies [8]. 1, Elasticidad lineal en MEF Los problemas de elasticidad en dos dimensiones son frecuentes en ingeniería y es en ellos donde se aplicó por primera vez el MEF. Esta sección trata del análisis estático aplicado a sólidos bidimensionales sometidos a tensión plana, que se define como un estado de esfuerzos en el que la tensión normal y la tensión cizallante en dirección perpendicular al plano se suponen nulas. Por lo tanto existe una deformación unitaria no nula en dicha dirección [2] como se puede observar en la Ec. 2: (2) donde E,J son el módulo de elasticidad y la relación de Poisson respectivamente, consideradas propiedades inherentes al material. La relación entre el esfuerzo y la deformación es dada por la Ec. 3: (3) a. Desplazamiento y esfuerzo La posición de un punto está determinada por las coordenadas (x,y), y su deformación presenta dos componentes u(x,y), v(x,y),en las direcciones x y y respectivamente. En tal sentido, el campo de deformaciones es por lo tanto el vector (ver Ec. 4): (4) b. Funciones de interpolación El campo de las deformaciones dentro del elemento se puede aproximar por medio de las Ec. 5 y 6: 101 (5) (6) donde Ni son las funciones de interpolación del elemento, que generalmente son funciones de las coordenadas x, y .Nótese que se emplean las mismas funciones para interpolar los desplazamientos u y v , y que ambos desplazamientos se interpolan por separado, el campo u mediante las Ut y el campo v mediante las Vi [2]. La matriz de funciones de interpolación [N] posee dos filas y tantas columnas, como grados de libertad existan entre todos los nodos de un elemento (Ec. 7): (7) de los valores nodales en las aristas del elemento. Sus características son [2]: - - - - Los nodos están situados en el contorno del elemento. La normalización de la geometría con un cambio de coordenadas, donde se busca generar un cuadrado de tamaño 2x2 en el dominio [-1,1] para cada eje coordenado. La cantidad de nodos en cada lado del elemento define el grado del polinomio. La función de interpolación completa, es el producto de las funciones en cada dirección. Un elemento cuadrilátero genérico de 4 nodos y otro de 8 nodos se representa gráficamente en la Fig. 1. C. Matriz de rigidez Familiarizarnos con la matriz de rigidez es el paso esencial para la comprensión del método de rigidez. Para un elemento [1], la matriz de rigidez puede definirse mediante la Ec. 8, así: (8) donde la matriz [k] relaciona el desplazamiento nodal {d} y la fuerza nodal {f}. La expresión obtenida del principio de energía potencial mínima para la matriz de rigidez de un elemento plano cualquiera se representa con la Ec. 9: (9) En la Ec. 9 la matriz [B] , se obtiene derivando la matriz de funciones de interpolación [N] respecto a las coordenadas y , donde es la cantidad de nodos en el elemento, ver Ec. 10. Fig. 1. Elemento cuadrilátero lineal y cuadrilátero cuadrático. 3. Familia triangular El empleo de elementos triangulares muestra su potencialidad al representar geometrías complejas mucho más fácilmente que sus homólogos cuadriláteros; además, el costo de cálculo es menor para cada elemento. Debido a ello, la utilización de estas familias es ampliamente usada en programas computacionales de elementos finitos [9]. Los elementos triangulares lineales y cuadráticos se representan en la Fig. 2. (10) La matriz de rigidez global [K] (Ec. 11) relaciona las coordenadas globales (x,y) con el desplazamiento {d} y la fuerza global {F} , (11) 2. Familia Serendípita Los elementos serendípitos fueron descubiertos de forma casual por mera observación y es conveniente usarlos cuando se quiere que las funciones de forma dependan Fig. 2. Elemento triangular lineal y cuadrático 4. Transformación de coordenadas Con las transformaciones isoparamétricas se busca modificar geométricamente el elemento de tal forma que su análisis matemático sea más sencillo que si se quisiera hacer en las coordenadas globales; este nuevo sistema coordenado se conoce como sistema natural o local. a. Elementos Serendípitos En la familia Serendípita, la transformación Universidad Católica de Pereira 102 isoparamétrica convierte un cuadrilátero genérico en coordenadas cartesianas x, y en un cuadrilátero cuadrado unitario en coordenadas naturales de x y h ; donde, para cada variable, el cuadrilátero está dentro del dominio [-1,1]. Las funciones de forma o interpolación para elasticidad bidimensional se encuentran en diversos libros de elementos finitos, por ejemplo Daryl [1] o Kattan [8]. Para un elemento serendípito de ocho nodos, la transformación geométrica está representada en la Fig. 3. el método de Gauss – Legendre o Cuadratura de Gauss para polinomios ortogonales [10]. La integral definida de la Ec. 9 se puede expresar por medio de la Ec. 14: (14) Si se aborda la ecuación 14 para una variable, se puede reescribir la solución en la cuadratura de Gauss como se muestra en la Ec. 15: (15) donde n es la cantidad de puntos de Gauss a emplear. Siempre habrá 2n incógnita (Wi, xi ) y la solución será exacta para polinomios de grado (2n - 1), Wi es una función de peso que permite eliminar las singularidades en la integración; xi son las raíces del polinomio ortogonal de Legendre. Fig. 3. Transformación de coordenadas elemento Serendípito de 8 nodos. b) Coordenadas de área, elementos triangulares Los elementos triangulares tienen una configuración especial y para ellos se adopta un sistema de referencia en términos de áreas. Un punto P (x, y) puede ser representado en término de las coordenadas locales L1, L2 y L3. Las coordenadas locales Li representan la variación de cada arista del triángulo a medida que recorre el área del triángulo (Fig. 4a). Las variables locales en términos del área son dadas por las Ec. 12 y 13. (12) Además se cumple que: (13) En la Tabla 1 se muestran los coeficientes de peso y las abscisas para la cuadratura de Gauss para los primeros 4 puntos de Gauss. Tabla I Abscisas y coeficientes de peso de la cuadratura de gauss Aplicando la cuadratura de Gauss a la ecuación 15, se deduce una expresión para dos dimensiones. Inicialmente se resuelve la integral interior x para dejando constante h , luego, se integra la nueva expresión para h. La ecuación 16 representa la integral en dos dimensiones. (16) Para los elementos triangulares, la cuadratura de Gauss se define por medio de la Ec. 17. (17) Iii. Pruebas y simulación Fig. 4. Relación de las coordenadas naturales L con las globales x, y. 5. Integración numérica El cálculo de la integral de la matriz de rigidez de la Ec. 9 es un paso importante en el desarrollo de los elementos finitos en elasticidad; por lo general, las componentes de la matriz son polinomios singulares y su integración analítica no es posible. Debido a esto, se plantea una solución numérica por Entre Ciencia e Ingeniería Los concentradores en placas planas bidimensionales que se analizan son: - - - Agujero centrado Acanaladuras semicircular Cambios de sección Los cuatro tipos de elementos de aproximación del mallado: 103 - - - - Elemento triangular de 3 nodos CST, Fig. 2. Elemento triangular de 6 nodos LST, Fig. 2. Elemento cuadrilátero de 4 nodos Q4, Fig. 1. Elemento cuadrilátero de 8 nodos Q8, Fig. 1. Con el fin de conocer cuál es la variación del factor al refinar el mallado en las cercanías del concentrador de esfuerzos, se realizan dos tipos de pruebas o simulaciones para cada placa, teniendo como parámetro el refinamiento de las aristas en las cercanías del concentrador: - Mallado uniforme, que posee la característica de que la longitud de arista es aproximadamente la misma. Ver Fig. 5a. - Mallado con refinado fino, donde se realiza una reducción de las aristas en las zonas críticas a un nivel más fino. Ver Fig. 5b. En el análisis por elementos finitos, el cálculo de los esfuerzos máximos y la determinación del factor de concentración de esfuerzos se realizan con Matlab. A. Condiciones iniciales En la Tabla II se encuentran contenidas las condiciones de contorno y del material que se utilizaron para realizar las simulaciones. Las dimensiones se pueden referenciar en la Fig. 5. Placa con mallado uniforme (a) y mallado fino (b). Fig. 5. Placa con mallado uniforme (a) y mallado fino (b). En la Fig. 6 se presenta el diagrama de flujo utilizado para resolver problemas estructurales en placas planas mediante el MEF bidimensional, empleando la tensión plana. Se utiliza Comsol para discretizar la placa con los elementos de aproximación lineal CST y Q4, y para los elementos cuadráticos ST y Q8 se recurre a las ecuaciones de punto medio para definir los nodos intermedios de cada elemento. Fig. 6. Diagrama de flujo para placas planas con tensión plana. Fig. 7 y las propiedades del material corresponden a un acero AISI 4340. Tabla II. Condiciones iniciales A. Condiciones iniciales En la Tabla II se encuentran contenidas las condiciones de contorno y del material que se utilizaron para realizar las simulaciones. Las dimensiones se pueden referenciar en la Fig. 7 y las propiedades del material corresponden a un acero AISI 4340. La condición de frontera para la placa en las simulaciones es: • La placa a analizar es empotrada en el extremo izquierdo. • El extremo derecho es sometido a una carga tensionante de 100N. • La carga es distribuida para todos los nodos del extremo derecho que forman parte de H como se muestra en la Universidad Católica de Pereira 104 Fig 7. ; tomando un cuarto de para los nodos superior e inferior, un medio para los nodos siguientes y el resto de nodos que pudiesen existir se dividen en. • Fig. 7. Placa plana sometida a tensión. Fig. 8 . Factor d e concentración d e esfuerzos (k) e n placa c on acanaladura y l ongitud de arista u niforme empleando elementos cuadriláteros. Iv. Resultados Los resultados fueron agrupados desde la Fig. 8 a la Fig. 19, de tal forma que una gráfica contiene las curvas con los valores obtenidos en Matlab y Comsol para cada configuración de refinamiento, la familia de elementos y el concentrador de esfuerzos. La recta horizontal de color negro correspondiente al factor teórico de concentración de esfuerzos. Para mejorar la visualización de las gráficas, en la Tabla 3 se tabulan las leyendas de la Fig. 8 a la Fig. 19 con su respectiva descripción. Los marcadores con forma de cuadrado corresponden a la familia Serendípita, los triángulos a la familia triangular. Fig. 9 . Factor d e concentración de esfuerzos (k) e n placa c on Tabla III. Leyenda de las curvas de resultados Leyenda Correspondencia Curva de Matlab para un elemento lineal Curva del elemento lineal de Comsol Curva del elemento cuadrático de Matlab Curva del elemento cuadrático de Comsol Curva del factor teórico calculado analíticamente Fig. 1 0. F actor d e concentración de esfuerzos (k) e n placa con acanaladura y l ongitud de arista uniforme, para elementos triangulares Fig. 1 1. F actor de c oncentración de esfuerzos (k) e n placa c on Entre Ciencia e Ingeniería 105 Fig. 12. F actor d e concentración d e esfuerzos (k) e n placa con agujero y longitud de arista uniforme. Fig. 1 6. Factor d e concentración de esfuerzos (k) e n placa con Cambio de sección y longitud de arista Fig. 17. F actor d e concentración de esfuerzos (k) e n placa con Fig. 13. F actor d e concentración d e esfuerzos (k) e n placa con Fig. 14. F actor d e concentración d e esfuerzos (k) e n placa con agujero y longitud de arista uniforme Fig. 18. Factor de concentración de esfuerzos en placa con Cambio de sección y longitud de arista uniforme Fig. 15. F actor d e concentración d e esfuerzos (k) e n placa con Fig. 19. Factor de concentración de esfuerzos en placa con Cambio Universidad Católica de Pereira 106 V. Conclusiones y Recomendaciones El elemento CST programado en Matlab representa una buena aproximación al factor teórico, este elemento de discretización mejora los resultados al refinar el mallado y utilizar una mayor cantidad de elementos. El elemento CST programado en Matlab utilizando refinado fino y una cantidad amplia de elementos, presenta un comportamiento similar que el elemento LST programado en Matlab. El elemento cuadrático LST programado en Matlab presenta buenas aproximaciones cuando se realiza un refinado fino en las cercanías del concentrador y se trabaja con grandes cantidades de elementos. El elemento que más se aleja de los resultados teóricos en los elementos triangulares es CST simulado en Comsol, sin embargo, el proceso de refinamiento en las cercanías del concentrador y el utilizar grandes cantidades de elementos mejora su comportamiento. El elemento LST simulado en Comsol presenta los resultados más próximos al factor teórico para los elementos triangulares. Además, los resultados no se ven afectados al aumentar la cantidad de elementos (presenta estabilidad) y el grado de mejoramiento al realizar el proceso de refinado es mínimo. Los resultados obtenidos de la programación en Matlab (CST y LST) se encuentran intermedios entre los resultados obtenidos de la simulación de Comsol (CST y LST), lo cual valida los resultados simulados en Matlab. El elemento cuadrático triangular simulado en Comsol arroja resultados más aproximados al factor teórico que el lineal. Al contrario de lo que se encuentra en la programación en Matlab donde el elemento lineal arroja mejores resultados que el cuadrático. Los elementos Q4 programado en Matlab y el Q4 simulado en Comsol mejoran los resultados al refinar el mallado utilizando una mayor cantidad de elementos. En el caso de Q4 programado en Matlab se hace más próximo hasta el punto de comportarse de forma similar al elemento Q8 simulado en Comsol. Los elementos serendípitos cuadráticos pueden generar diferentes curvas de esfuerzos cuando se varía su interpolación o cuando el esfuerzo se calcula en los nodos o en el centroide del elemento; obteniendo unas curvas mejores para ciertos refinados o placas y otras para otro tipo de configuración. El elemento Q8 simulado en Comsol no arroja una variación significativa ante el proceso de refinado y es el elemento de aproximación que genera los resultados más cercanos al factor teórico. Entre Ciencia e Ingeniería El elemento Q8 programado en Matlab (con integración reducida y esfuerzos en los nodos) presenta resultados inferiores a los simulados por el elemento cuadrático de Comsol en placas con arista de tamaño uniforme, sin embargo, para los refinados finos, la curva es más aproximada al factor teórico y mejor que la generada por Comsol. El comportamiento de los resultados obtenidos con Matlab es muy similar a los de Comsol, encontrándose ambas curvas de Matlab contenidas entre las de Comsol para elementos triangulares, lo cual valida el proceso realizado para el cálculo de los factores de concentración. Para placas donde el esfuerzo es constante en todo el dominio, alcanzar la convergencia requiere una menor cantidad de elementos que para geometrías más complicadas. Cuando se hace un refinamiento en las cercanía de los concentradores, las curvas a cierta cantidad de elementos presentan un cambio de tendencia (que se puede representar como un escalón) que mejora el resultado haciéndolo más próximo al factor teórico. La selección del tipo de elemento de análisis del mallado incide directamente en la solución final del problema discreto, donde elementos de orden superior obtienen una mejor aproximación a la respuesta real que los elementos lineales; por este motivo se pone en consideración el estudio de problemas de elasticidad para elementos cúbicos, cuarticos y quinticos. También se puede profundizar en la integración de la matriz de rigidez, haciendo comparativos entre elementos integrados completamente y elementos con integración reducida hasta la mínima cantidad de puntos de Gauss permitidos; inclusive, elementos integrados selectivamente. Configuraciones de mallas con tipos de elementos combinados (triangulares con cuadráticos) prácticamente son inexistentes, ya que son muy escasos los programas computacionales que lo permiten hacer. El desarrollo de este tipo de mallados, con elementos de transición y funciones de forma especiales para estos nodos exige un estudio detallado. Referencias [1].Celigüeta Juan T, “Método de los elementos finitos para análisis estructural”. Cuarta edición. Tecnum. 2011. [2].Daryl Logan, “A first course in the Finite Element Method”. Cengague learding 2012. [3].Vanegas Libardo, (19/11/2012). “Carga estática simple”. Disponible en: http://blog.utp.edu.co/lvanegas/files/2011/08/Cap3.pdf, (29/05/2013). Beer Ferdinand, Johnston Russell, “Mecánica de materiales”. Quinta edición. McGraw-Hill México 2009. [4].González Héctor Eduardo. Determinación del factor de concentración de esfuerzos en una placa con múltiples concentradores de esfuerzo mediante Algor. Escuela de Ingeniería, Universidad de las Américas Puebla, México 2003. [5].Pilkey, Walter D., Deborah F. “Peterson’s Stress Concentration Factors”. Third edition. Wiley Inc, 2008. [6].Norton, Robert L. “Diseño de máquinas un enfoque integrado”. Cuarta 107 edición. Prentice hall, México 2011. [7].Hughes, Thomas “The Finite Element Method”. Prentice Hall, United Stated.1987. [8].Kattan Peter I.,“Matlab guide to finite elements an interactive approach”. segunda edición, Springer 2008. [9].Zienkiewwicz O.C., Taylor R.L. “El método de los elementos finitos formulación básica y problemas lineales”. Volumen 1, Cuarta edición, Mc Graw-Hill, España. 1994. [10]. Chavez Eduardo W. V., Minguez Roberto. “Mecánica computacional en la ingeniería con aplicaciones en Matlab”. Universidad de Castilla-la Mancha, España 2010. [11] Kratzig Wilfried B.,Zhang Jian-Wu.1994. A simple four-node quadrilateral finite element for plates. Journal of computational and applied mathematics. Vol 50. 361-373. [12] Tenchev Rosen T. 1998. A study of accuracy of some FEM stress recovery schemes for 2D stress concentration problems. Finite Elements in analysis and design. Vol 29. 105-119. [13] Colberg O Poul .1999. Evaluation of triangular plate elements in rigid-plastic finite element analysis of reinforced concrete. Computer methods in applied mechanics and engineering. Vol 179. 1-17. [14] Kikuchi Fumio, Okabe Masayuki, Fujio Hidehiro. 1998. Modification of the 8-node serendipity element. Computer methods in applied mechanics and engineering. . Vol 179. 91-109. [15] Sadek Edward A. 1998. Some serendipity finite elements for the analysis of laminated plates. Computer & structures. Vol 69. 37-51. Juan Sebastian Clavijo Gonzalez, nació el 15 de marzo de 1990 en Pereira Risaralda, Colombia. Se graduó como Tecnólogo en Mantenimiento electrónico e instrumentación industrial en marzo de 2009 en el SENA. El 17 de Julio de 2.015 en la Universidad Tecnológica de Pereira consiguió su título de Ingeniero Mecánico. Actualmente trabaja como ingeniero de mantenimiento en un proyecto de Dupont en Ternium Colombia. César Daniel Montoya Osorio, nació en Pereira-Risaralda, Colombia, el 20 de Mayo de 1991. Se graduó en 2015 en la Universidad Tecnológica de Pereira como Ingeniero Mecánico. Ha participado en proyectos de desmonte de maquinaria industrial. Luis Carlos Flórez García, nació en Pereira, Risaralda, el 17 de Mayo de 1978. Egresado del Colegio Calasanz de Pereira e Ingeniero Mecánico de la Universidad Tecnológica de Pereira, master en Ingeniería Mecánica de la Universidad de los Andes en Bogotá. Actualmente es estudiante de doctorado de la Universidad Politécnica de Cataluña en Ingeniería Mecánica, Fluidos y Aeronáutica. Ha trabajado para la Universidad de los Andes. Se ha desempeñado como ingeniero de mantenimiento y asesor para diferentes empresas. Actualmente es docente de planta de la Universidad Tecnológica de Pereira en la facultad de Ingeniería Mecánica, investigador de equipos interdisciplinarios y pertenece a diferentes grupos de investigación. Universidad Católica de Pereira 108 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 108 - 113 Especificación de requisitos de software: una mirada desde la revisión teórica de antecedentes1 Software requirements specification: an overview from the theoretical background checking Especificação de requisitos de software: um olhar a partir da revisão teórica de antecedentes A. Toro y J. G. Gálvez Recibido Diciembre 10 de 2015 – Aceptado Febrero 19 de 2016 Resumen— El presente artículo pretende dar cuenta de una revisión teórica de antecedentes relacionados con la especificación de requisitos de software, realizada como parte del proyecto de investigación denominado “Procedimiento para especificar y validar requisitos de software en MIPYMES desarrolladoras de software, basado en estudios previos en la región”. Lo anterior responde a la necesidad de indagar sobre los problemas de calidad del sector del software relacionado con el tratamiento que se les hace a los requisitos como un punto clave para lograr productos y procesos de calidad, con el ánimo de desarrollar propuestas que contribuyan a mejorarla, inicialmente en la industria que se representa desde la ciudad de Pereira. Para ello, se hace un recorrido por algunos trabajos que permiten dar cuenta de los logros que se han alcanzado en investigaciones similares y que tienen como objeto de estudio los requisitos, reconociendo, a partir de unos antecedentes regionales, nacionales e internacionales los orígenes de ese problema y las propuestas que se han desarrollado para ayudar a corregirlo. Finalmente, y como conclusión, se encuentra que han sido muchas las propuestas que de una u otra manera pretenden contribuir al mejoramiento de la calidad del software a partir de los requisitos, pero en ninguna de las revisadas se ha propuesto un método, proceso o lineamiento claramente definido para elaborar una completa, consistente, modificable y Producto derivado del proyecto de investigación “Procedimiento para especificar y validar requisitos de software en MIPYMES desarrolladoras de software, basado en estudios previos en la región”. Presentado por el Grupo de Investigación e Innovación en Ingeniería (GIII), de la Facultad de Ciencias Básicas e Ingeniería, de la Universidad Católica de Pereira y el Grupo de Investigación Ingeniería de Software, de la Facultad de Ingenierías, de la Universidad Autónoma de Manizales. A. Toro, es director del programa de Ingeniería de Sistemas y Telecomunicaciones de la Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. J. G. Gálvez, ejerce como profesional en la Unidad de Gestión de Tecnologías Informáticas y Sistemas de Información (UGTISI) de la Universidad Tecnológica de Pereira como Ingeniero Desarrollador de Software, Pereira (Colombia); email: [email protected]. 1 Entre Ciencia e Ingeniería trazable, específicamente de requisitos de software en las micro, pequeñas y medianas empresas (MIPYMES) de Colombia. Palabras clave— especificación, requisitos de software, antecedente. Abstract— This article aims to explain theoretical background checks related to the software requirements specification conducted as part of the research project entitled “Method to specify and validate software requirements in MSMEs based on previous studies in the region”. It responds to the need to investigate the quality problems in software related to treatment that is made to the requirements as a key point to achieve quality products and processes, with the aim of developing proposals to help improve initially in the industry that it is represented from the city of Pereira. To do this, a study of some research that allow the account of the achievements that have been obtained in similar investigations and whose object of study requirements, recognizing from a regional, national and international history the origins of this problem becomes and proposals that have been developed to help its correction. Finally and as a conclusion, we find that there have been many proposals that in one way or another pretends to contribute to the improvement of the quality of software from requirements, but any method, process or guidelines clearly defined to develop a complete, consistent, modifiable and traceable has been proposed in any of them, specifically about software requirements for small and medium enterprises (SMEs) in Colombia. Key words—specification, background. software requirement, Resumo – O presente artigo pretende explicar uma revisão teórica de antecedentes relacionados com a especificação de requisitos de software, realizada como parte do projeto de investigação denominado “Procedimento para especificar e validar requisitos de software em MPMEs baseado em estudos 109 prévios na região”. O anterior responde a necessidade de indagar sobre os problemas de qualidade do setor de software relacionado com o tratamento que se faz aos requisitos como um ponto chave para alcançar produtos e processos de qualidade, com o animo de desenvolver propostas que contribuam a melhora-la, inicialmente na indústria que se representa desde a cidade de Pereira. Para este, se faz um recorrido para alguns trabalhos que permitem explicar os resultados que se alcançaram em investigações similares e que tem como objeto de estudo os requisitos, reconhecendo, a partir de uns antecedentes regionais, nacionais e internacionais, as origens de este problema e as propostas que vão se desenvolvendo para ajudar a corrigir. Finalmente e como conclusão, se encontra que têm sido muitas as propostas que de uma ou outra maneira pretendem contribuir ao melhoramento da qualidade do software a partir dos requisitos, mas em nenhuma das revisadas foram encontradas um método, processo ou alinhamento claramente definido para uma completa elaboração, consistente, modificável e traçável, especificamente de requisitos de software no micro, pequenas e medianas empresas (MIPYMES) de Colômbia. muchos proyectos de software fracasen. Adicionalmente, debido a que no se realiza un estudio previo de los requisitos del usuario, no se hace una definición completa del alcance del proyecto y no se realiza el modelado del negocio antes de desarrollar el software, el equipo desarrollador o analista no se involucra en el problema y aunque tiene claro que el sistema debe desarrollarse para dar soporte a los procesos de la organización, si el equipo no se involucra en la problemática se corre el riesgo de que los requisitos identificados no correspondan a las necesidades para lo que se debe crear [8]. Por otra parte, [9] menciona que las principales causas de fracaso de los proyectos son las siguientes: Palavras chave: especificação, requerimentos de software, antecedente. I. Introducción L os requisitos de software representan una parte fundamental en la consecución de la calidad, tanto así que existe una disciplina denominada ingeniería de requisitos [1], [2], [3] para desarrollar una especificación completa, consistente y no ambigua, la cual servirá como base para acuerdos comunes entre todas las partes involucradas, dónde se describen las funciones que realizará el sistema. Así mismo, autores como [4] consideran que todo lo concerniente a requerimientos hace parte de un dominio entero denominado Ingeniería de Requisitos, que a la vez es dividido tanto en Desarrollo como en Gestión de Requisitos. La ingeniería de requisitos cumple un papel primordial en el proceso de producción de software, ya que enfoca un área fundamental: la definición de lo que se desea producir. Su principal tarea consiste en la generación de especificaciones correctas que describan con claridad, sin ambigüedades, en forma consistente y compacta, el comportamiento del sistema. Como disciplina, establece el proceso de definición de requisitos en una sucesión de actividades mediante las cuales lo que debe hacerse se “elicita”, se modela y se analiza [5]. Por su parte [6] indican que la Ingeniería de Requisitos es un enfoque sistémico para recolectar, organizar y documentar los requerimientos del sistema; es también el proceso que establece y mantiene acuerdos sobre los cambios de requerimientos, entre los clientes y el equipo del proyecto. De la misma manera, [7] mencionan que “la Ingeniería de Requisitos es la ciencia y disciplina a la cual le concierne el establecer y documentar los requerimientos”. Así pues, al entender que la ingeniería de requisitos es la fase de un proyecto software donde se definen las propiedades y la estructura del mismo; y que a la vez comprende el desarrollo y gestión de requisitos, se entiende también que debe realizarse de manera adecuada, pues omitir información en esta actividad ha provocado que Ilustración 1. Factores de falla o cancelación en los proyectos (CRISTIÁ, 2011) Por lo anterior, y partiendo de las problemáticas expuestas, se han realizado diversos estudios y publicaciones que tratan el tema con el fin de enfatizar en la importancia de los requisitos y su responsabilidad en el aseguramiento de la calidad del software. Algunos de ellos, como la guía al cuerpo de conocimientos para la ingeniería del software SWEBOK® (Software Engineering Body of Knowledge) propuesto por la IEEE [10], en su versión 2014 trata el tema como la primera de sus áreas del conocimiento (KA por sus siglas en inglés Knowledge Areas), en la que se refiere a la captura, el análisis, la especificación y la validación de los requisitos del software y contempla una serie de aspectos y conceptos que llevan al software a ser objeto de aplicación de la ingeniería. Como producto de salida al proceso correspondiente de aplicar los conocimientos del área se logra un documento que permita sistematizar, revisar, evaluar y aprobar todo lo relacionado con los requisitos del software [11]. II. Contenido Se detecta -a manera de hipótesis- un problema en el sector del software, específicamente en la industria que se representa desde la ciudad de Pereira: el problema relacionado con el tratamiento que se le hace a los requisitos de software como un punto clave para lograr productos y procesos de calidad. Con la intensión de ofrecer alternativas que permitan hacer frente a dicho problema del que adolece la industria, se hace necesario reconocer antecedentes regionales, nacionales e internacionales que permitan dar Universidad Católica de Pereira 110 cuenta de los logros que se han alcanzado en investigaciones similares y que tienen como objeto de estudio los requisitos: A. Del orden regional La Universidad Tecnológica de Pereira ha mostrado interés en explorar, a manera de investigación o con proyectos de desarrollo, los problemas que se presentan en las empresas desarrolladoras de software respecto al área de los requisitos de software [10]. Es así como [12] notaron que el crecimiento del mercado del software conlleva a la aparición de microempresas en el Departamento de Risaralda que procuraban cubrir esta gran demanda tecnológica, pero debido a la falta de experiencia en los procesos de certificaciones, hacen que los productos no sean competitivos con mercados nacionales e internacionales, es de ahí que se nota el interés por los autores antes descritos en implementar una guía de buenas prácticas en las áreas de gestión de requerimientos y planeación del proyecto para las microempresas desarrolladoras de software, basada en CMMI [13]. Teniendo esta clase de guía antes descrita basada en un modelo internacional que sirve de referencia para la gestión de requisitos [14], de la misma universidad mostraron el interés por medio de un proyecto de investigación logrando elaborar el análisis y diseño de una herramienta gráfica para los procesos de la ingeniería de requisitos que tiene como objetivo proporcionar un mecanismo visual de comunicación para identificar de forma inequívoca las necesidades que dan lugar al desarrollo de un proyecto de software, como también dar sencillez a la monitorización de la información que se genera en los procesos de la ingeniería de requisitos. Así mismo, se ha considerado que una parte vital en un proyecto de desarrollo de software es la gestión que se lleve a cabo de los requisitos que este debe satisfacer para ser catalogado como un producto de calidad, lo cual reviste gran importancia y es parte fundamental en los proyectos de software. En este sentido, se han realizado diferentes investigaciones alrededor del tema con el objetivo de encontrar mejores prácticas, herramientas y métodos que faciliten dicha gestión. [15] por ejemplo, han mostrado preocupación en estudiar una parte específica de la ingeniería de requisitos concerniente a la recolección de los mismos, planteando como objetivo de su investigación la elaboración de un documento que analiza los métodos de obtención de requerimientos y sus enfoques de selección, con miras a minimizar problemas relacionados con la mala gestión de los requisitos en el desarrollo de proyectos de software, esto se debe a que la obtención de requisitos, por ser una actividad que es llevada a cabo por personas, cada quien expone su punto de vista subjetivo haciendo que se haga más compleja la comunicación y el entendimiento por parte de los analistas, quienes más tarde usarán los detalles de la elicitación para especificar lo que el software debe satisfacer. Por su parte, [16] en su artículo denominado “La Entre Ciencia e Ingeniería ingeniería de requerimientos en las pequeñas empresas del departamento de Risaralda”, muestran el estado actual del proceso de ingeniería de requisitos en las pequeñas empresas que desarrollan software en el departamento de Risaralda, además de observar cómo se aborda esta área desde la academia. A partir de su proyecto de investigación plantean la creación de una metodología para la adquisición y gestión de requisitos en el desarrollo de software para PYMES del departamento de Risaralda. Para ello se desarrollaron tres fases: recopilación de datos, estructuración de la metodología y validación de la metodología. Finalmente, cabe destacar algunos estudios e investigaciones que han arrojado resultados importantes para el mejoramiento de la calidad del software, así como propuestas y productos que contribuyen significativamente a mejorar el trabajo con los requerimientos en las empresas desarrolladoras de software de la región y el país. El Grupo de Investigación e Innovación en Ingenierías de la Universidad Católica de Pereira (GIII-UCP), ha desarrollado –a partir de una serie de proyectos de investigación para caracterizar la industria del software en Colombia respecto a la calidad del producto, el proceso de desarrollo y el uso de metodologías, entre otros- una “Propuesta metodológica para estandarizar el proceso de construcción y evaluación del producto software que permita a las Pymes colombianas medir la calidad del software” [11], a partir de la cual se ha logrado la formulación de un modelo para el desarrollo y la gestión de proyectos de software. B. Del orden nacional Se determina de igual manera que en el ámbito nacional se han llevado a cabo investigaciones importantes en el tema de requerimientos de software, pues la carencia de una buena gestión de requerimientos en los proyectos software ha demandado la necesidad -como lo estipula [17]- de un instrumento para la generación del proceso de desarrollo de requerimientos de software para micro y pequeñas empresas, pues según los autores no existe un instrumento que sugiera un proceso de desarrollo de software con base en características de la organización y en buenas prácticas, sobre el cual la organización pueda iniciar su proceso de mejoramiento ya que los procesos de mejoramiento de desarrollo de software existentes aceptadas internacionalmente como lo son CMMI, SPICE [18] y TSP [19] implica mayor complejidad, mayor cantidad de prácticas, rigidez y costos a la hora de su implementación en este tipo de organizaciones. Por su parte, [20] son conscientes de que los analistas se suelen expresar en lenguaje técnico del desarrollo de software y los interesados se interesan más por el lenguaje natural, propio de su dominio de conocimiento, por tal razón los autores proponen un modelo de diálogo encaminado a la educción de requisitos de software utilizando las entrevistas como método más utilizado entre analistas e interesados, es así como surge una oportunidad de plantear el modelo que supla la carencia de una estructura definida en las entrevistas 111 con el objetivo de evitar que el analista realice de manera subjetiva el proceso de educción de requerimientos. En la misma línea, [21] deciden presentar una revisión de la literatura referente a la ingeniería de requisitos, relacionada con métodos formales y semi-formales usados en la especificación de requisitos tempranos, como también en la validación y verificación de requisitos especificados, manifestando además que una especificación formal es aquella que está expresada en un lenguaje cuyo vocabulario, sintaxis y semántica, se han definido formalmente. Por lo general, este tipo de lenguajes se basan en conceptos matemáticos, como son la teoría de conjuntos, la lógica, el álgebra y la matemática discreta. En el suroccidente colombiano también se ha investigado alrededor de los requerimientos de software. [22] presentan como resultado del proyecto de investigación “Implementación de los modelos livianos de gestión de requerimientos y gestión de la configuración y diseño de un modelo liviano de apoyo al área de aseguramiento de la calidad del proceso de desarrollo de software para pequeñas empresas del Valle del Cauca”, la definición de una metodología ágil de ingeniería de requerimientos para empresas emergentes de desarrollo de software del suroccidente colombiano. La misma se basa en que las empresas emergentes no logran aplicar modelos y metodologías de calidad reconocidos internacionalmente, pues su gran obstáculo se observa en los altos costos de implementación, el recurso humano requerido y los estándares exigidos que restringen la creatividad, parte importante de su capital. Finalmente, y de la misma manera [23] citado por [24] de la Universidad ICESI de Cali propone una guía para la preparación de un documento de requerimientos para proyectos de sistemas por computador tanto en lo referente a hardware como a software. La misma menciona que “el propósito del documento de requerimientos es la razón de ser de un proyecto dado” puesto que constituye el conjunto de necesidades que dan lugar a la iniciación del proyecto y sirven para definir lo que va a hacerse. Según la autora, la guía pretende establecer un marco general con los diferentes aspectos que debe cubrir un buen documento de requerimientos y que será el pilar del desarrollo de cualquier proyecto de software o de hardware a realizarse. Oros autores del país que abordan el tema desde diferentes miradas, pero relacionados con el proceso de desarrollo y gestión de requisitos son: [25] elicitación de requisitos, [26] análisis de requisitos y [27] gestión de requisitos. C. Del orden internacional Respecto al ámbito internacional, son muchas las investigaciones llevadas a cabo sobre los requisitos de software que aportan significativamente a la construcción de este artículo, pues hacen alusión a aspectos importantes a tener en cuenta a la hora de determinar los factores de éxito y fracaso en el trabajo con los requerimientos de software, tales como aquellos relacionados con: la captura, análisis y especificación de requisitos, así como la identificación de los stakeholders o interesados, las técnicas y herramientas utilizadas en el proceso, así como la complejidad y efectividad de las mismas. Siguiendo la línea del proceso de requisitos, como parte del análisis y especificación de los mismo se determina, por parte de [28] que, en aras de mejorar la calidad de la fase de Ingeniería de Requisitos en los proyectos de desarrollo, se realizaron varios estudios que concluyeron con la elaboración de una solución que permite, dentro de la Ingeniería de Requisitos, determinar la complejidad de los requisitos funcionales del software mediante variables y métodos matemáticos, fortaleciendo y apoyando, con mayor precisión, la clasificación de los mismos. También se aplicaron encuestas a expertos como método de investigación para identificar variables. Por su parte, [29] presentan una metodología para la Ingeniería de Requerimientos denominada DoRCU, la cual se caracteriza por su flexibilidad y orientación al usuario. Considera los mejores resultados de diferentes enfoques examinados y se apoya en diversos métodos, técnicas y herramientas ya desarrollados por otros autores, pero sin comprometerse con los lineamientos de un paradigma en particular. Tiende, además, a que se unifique la terminología empleada en el campo de la Ingeniería de Requisitos, eliminando de esta manera aparentes discrepancias que sólo son la consecuencia de confusiones semánticas que dificultan aún más el proceso de definición de requerimientos. De igual forma, [30] presentan un estudio denominado “Hacia una especificación dinámica requisitos de software”, el cual se centra en la documentación de los requisitos de software y más puntualmente en el documento de especificación de requisitos del software. Su objetivo, como ellos lo manifiestan, es ayudar a los ingenieros de requisitos a ser más eficientes en la redacción de este documento. Para ello, proponen un modelo de documento dinámico para representar dicha especificación, en el que la mayor parte se alimenta automáticamente de una base de datos de requisitos. Los autores se centraron principalmente en la parte del texto de la especificación en la que se requiere un mayor conocimiento del dominio del problema y experticia al escribir. Adicionalmente, los autores hacen un recorrido por diferentes propuestas, a partir de las cuales lograron identificar un conjunto de problemas que ocurren en la plantilla actual de Especificación de Requerimientos o SRS (Software Requirements Specification, por sus siglas en inglés) del estándar IEEE 830-1998 [31], para el cual proponen una ampliación con el objetivo de crear una relación de derivación entre los requisitos del usuario y los requisitos del sistema. Todo ello mediante una representación XML del documento SRS y la construcción de un esquema SRS, mediante el cual se argumenta que se permitirá a los ingenieros de requerimientos ser más eficientes en la redacción del SRS. Universidad Católica de Pereira 112 Apoyando lo anterior, [4] citado por [32] manifiestan que, para lograr un producto de software de alta calidad, los requisitos deben satisfacer varias características y cumplir ciertos criterios tales como los propuestos en la Ilustración 1. Si no lo hacen, deben ser reformulados hasta conseguirlo. técnicas para llevar a cabo una especificación formal de los requisitos, asegurando que su implementación podría reducir significativamente su ambigüedad e incompletitud de una forma más rápida y anticipada, minimizando el número de errores durante el proceso. Por lo anterior, la identificación y tratamiento de estos errores en etapas tempranas del proyecto de software es crucial para disminuir los costos de su operación y evitar errores en etapas posteriores del desarrollo. Ilustración 2. Características de un buen requisito. (Elaboración propia a partir de WIEGERS & BEATY, 2013) Sin embargo, en algunas ocasiones los requerimientos no satisfacen dichas propiedades, lo que se traduce en errores y en mala calidad del producto que se está desarrollando. En la mayoría de las prácticas, los requerimientos de software se especifican utilizando un lenguaje natural en particular debido a su flexibilidad y simplicidad, como lo argumentan autores tales como [32], [33] de Indonesia, [34] de Japón y, [35] de Reino Unido, entre otros. Sin embargo, dicho lenguaje natural con frecuencia hace que la especificación sea propensa a la ambigüedad e incompletitud. Con el fin de reducir al máximo la ocurrencia de los inconvenientes mencionados anteriormente, se han propuesto e implementado diversas maneras de llevar a cabo la especificación de requisitos, algunas de ellas según [26] consisten en especificar requerimientos utilizando un lenguaje natural estructurado. “Se considera lenguaje natural al lenguaje utilizado a diario entre los integrantes de la organización. Se caracteriza por estar orientado a una descripción más humana y generalizada, y no regido por consideraciones técnicas específicas”. En la misma línea, autores como [36] y [37] desde el enfoque de metodologías de análisis de requisitos o [38] con guías para la extracción, análisis, especificación y validación de requisitos. También [39], [40], [41], [42] y [43], entre otros, hacen sus aportes al desarrollo y gestión de requisitos a través de diferentes métodos, técnicas y herramientas específicas. Finalmente, [30] y [44] se centran en aspectos de la especificación de requisitos en lenguaje natural y especificación formal. III. Conclusiones Luego de realizar un recorrido por diferentes estudios y propuestas, se encuentra a manera de conclusión que, en la mayoría de las prácticas, los requisitos de software se especifican utilizando un lenguaje natural en particular debido a su flexibilidad y simplicidad. Sin embargo, dicho lenguaje natural con frecuencia hace que la especificación sea propensa a la ambigüedad e incompletitud, dificultad ampliamente evidenciada por las empresas desarrolladoras de software de la región cafetera. Para evitar lo anterior y reducir las falencias propias atribuidas al uso del lenguaje natural, se propone en diferentes trabajos el uso de métodos, lenguajes, herramientas y Entre Ciencia e Ingeniería Así pues, la especificación formal fuerza el análisis detallado de los requerimientos, lo cual puede revelar errores potenciales que podrían de otra forma no ser descubiertos sino hasta que el sistema esté en producción. No siendo ajeno a lo anterior, es fundamental mencionar que, si bien este tipo de especificación contribuye al mejoramiento de la calidad de la etapa de requisitos, resulta notorio la demanda elevada de recursos económicos, de personal calificado y de tiempo del proyecto para poseer un documento formal de especificación de requisitos. Finalmente, es importante destacar que en el ámbito regional existen varios estudios tendientes a diagnosticar dificultades en el trabajo que realizan las MIPYMES con los requisitos, al igual que propuestas para corregir dichas dificultades. Sin embargo, hace falta evidencia de su puesta en práctica en el medio y de mejoras obtenidas como resultado de su aplicación. Referencias [1] B. Boehm, Software Engineering Economics, New Jersey: Prentice Hall, 1981. [2] I. Sommerville, Ingeniería de Software, Madrid: Pearson, 2011. [3] R. S. Pressman, Ingeniería del Software UIn enfoque práctico, Septima edición ed., McGraw-Hill, 2010. [4] K. Wiegers y J. Beaty, Software Requierements, Third Edition ed., Redmon, Washington: Microsoft Press, 2013. [5] B. Ayala, C. M. Ramírez y L. M. Ocampo, «La Ingeniería de Requerimientos aplicada al desarrollo de sistema de información,» 2012. [En línea]. Available: gimnasioblc.googlecode.com/files/ ARTICULO.pdf. [Último acceso: 06 Junio 2014]. [6] R. Oberg, L. Probasco y M. Ericsson, «Applying requirements management with use cases,» 2003. [En línea]. Available: http:// www.uml.org.cn/RequirementProject/pdf/apprmuc.pdf. [7] R. Thayer y M. Dorfam, Software Requirements Engineering, Segunda edición ed., Los Alamitos, California: IEEE Computer Science Press, 2000. [8] RED COLABORATIVA POSTGRADOS UCV, «Los Requerimientos y su importancia en el desarrollo del Software,» 2012. [En línea]. Available: http://kuainasi.ciens.ucv.ve/red_educativa/ blogs/20?language_id=1. [Último acceso: 15 Junio 2014]. [9] M. Cristiá, «Introducción a la Ingeniería de Requerimientos,» 2011. [En línea]. Available: http://www.fceia.unr.edu.ar/~mcristia/ publicaciones/ingreq-a.pdf. [Último acceso: 20 Junio 2014]. [10] IEEE, SWEBOK Guide V3.0, Piscataway: IEEE, 2014. [11] L. E. Peláez Valencia, «Propuesta metodológica para estandarizar el proceso de construcción y evaluación del producto software que permita a las PyMES medir la calidad del software,» Pereira, 2011. [12] F. Correa Botero y G. González Bedoya, «Guía para implementar buenas prácticas en las áreas de procesos de gestión de requerimientos y planeación del proyecto para las microempresas desarrolladoras de software, basada en CMMI,» Pereira, 2009. [13] SEI, «CMMI Guía para la integración de procesos,» 2009. [En línea]. 113 Available: http://www.sei.cmu.edu/library/assets/cmmi-dev-v12spanish.pdf. [14] D. Lema Becerra y L. F. Rodas Valencia, «Análisis y Diseño de una herramienta gráfica para los procesos de ingeniería de requisitos,» Pereira, 2012. [15] M. Rangel Grisales y V. Peláez Betancur, «Métodos de obtención de requerimientos y sus enfoques de selección,» Pereira, 2013. [16] C. A. De la Cruz Londoño y G. A. Castro Guevara, «La Ingeniería de Requerimientos en las Pequeñas Empresas del Departamento de Risaralda,» Lámpsakos, nº 12, pp. 110-119, 2014. [17] A. Varela Galvis y G. E. Arango Sterling, «INSTRUMENTO PARA LA GENERACIÓN DEL PROCESO DE DESARROLLO DE REQUERIMIENTOS DE SOFTWARE PARA MICRO Y PEQUEÑAS EMPRESAS,» 2012. [En línea]. Available: http://bibliotecadigital.icesi.edu.co/biblioteca_digital/ bitstream/10906/70626/1/instrumento_generacion_proceso.pdf. [18] ISO/IEC, Software Process Improvement and Capability dEtermination (SPICE), Geneva: ISO, 1995. [19] W. Humphrey, Team Software Process, Massachusetts: Addison Wesley Professional, 1999. [20] C. M. Zapata y N. Carmona, «Un modelo de diálogo para la educción de requisitos de software,» Revista Dyna, nº 164, pp. 209-219, 2009. [21] L. O. Chaparro Lemus y C. C. Uribe Sandoval, «Métodos formales para la especificación de requisitos tempranos,» Revista Proyección Universitaria, nº 36, pp. 49-72, 2011. [22] L. Merchan, A. Urrea y R. Rebollar, «Definición de una metodología ágil de ingeniería de requerimientos para empresas emergentes de desarrollo de software del sur-occidente colombiano,» Revista Científica Guillermo de Ockham, Universidad de San Buenaventura, vol. 6, nº 1, pp. 37-50, 2008. [23] M. E. Valencia, «Guia para la preparación de un documento de requerimientos,» Santiago de Cali, s.f.. [24] M. E. Valencia de Avadía, «Guia para la preparación de un documento de requerimientos,» Universidad Icesi, 2013. [25] C. M. Zapata J y J. F. Arango Isaza, «Alineación entre metas organizacionales y elicitación de requisitos del software,» Revista Dyna, vol. 71, nº 143, pp. 101-110, 2004. [26] A. N. Camacho Zambrano, «Herramienta para el análisis de requerimientos dentro de la pequeña empresa desarrolladora de software en Bogota,» Bogota, 2005. [27] B. Martínez Vaca y C. A. Ospina Arredondo, «Proceso para la formulación de inicitaivas de requerimientos de software a partir de los objetivos estratégicos organizacionales,» Santiago de Cali, 2011. [28] D. Mustelier S y Y. Viera L, «Variables that Define the Complexity of the Software Functional Requirements,» Revista Antioqueña de las Ciencias Computacionales y la Ingeniería de Software, vol. 3, nº 2, pp. 38-42, 2013. [29] M. G. Báez y S. I. Barba Brunner, «Metodología DoRCU para la Ingeniería de Requerimientos,» Workshop em Engenharia de Requisitos, pp. 210-222, 2001. [30] A. Chikh y H. Alajmi, «Towards a dynamic software requirements specification,» IEEE Journal, pp. 8-14, 2014. [31] IEEE, IEEE Std. 830, IEEE, 1998. [32]H. G. Salazar Osorio, H. J. Rengifo Romero, L. E. Machuca Villegas y J. A. Aranda Bueno, «UNA GUÍA GENERAL PARA LA ESPECIFICACIÓN Y VERIFICACIÓN FORMAL DE REQUERIMIENTOS USANDO EVENT-B™ Y RODIN™,» Revista Educación en Ingenieria, vol. 7, nº 14, pp. 82-91, 2012. [33] A. Fatwanto, «Software Requirements Specification Analysis Using Natural Language Precessing Technique,» Quality in Research IEEE, pp. 105-110, 2013. [34] Y. Matsuo, K. Ogasawara y A. Ohnishi, «Automatic Transformation of Organization of Software Requirements Specifications,» IEEE Journal, pp. 1-10, 2010. [35] A. Umber y I. Sarwar Bajwa, «Minimizing Ambiguity in Natural Language Software Requirements Specification,» IEEE Journal, pp. 102-107, 2011. [36] A. Durán Toro y B. Bernárdez Jiménez, «Metodología para el Análisis de Requisitos de Sistemas Software,» Diciembre 2001. [En línea]. Available: www.infor.uva.es/~mlaguna/is1/materiales/metodologia_ analisis.pdf. [Último acceso: 30 11 2015]. [37] M. D. l. á. Sumano López, «Áncora: Metodología para el Análisis de Requerimientos de Software conducente al Reuso,» 2001. [38] N. Davyt Dávila, «Ingenieráa de Requerimientos: una guía para extraer, analizar, especificar y validar los requerimientos de un proyecto,» 2001. [En línea]. Available: http://u.jimdo.com/www21/o/ [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] s3ca10756ba149b19/download/m895f5b4d9cd5f0b1/1251925731/ ingreq.pdf. C. Rupp, «Linguistic methods of Requirements Engineering (NLP),» Nürnberg, 2002. M. I. Lund, M. Herrera, L. Aballay y S. Zapata , «Comparación de Técnicas de Lectura de Documentos de Requisitos de Software Diseño de un Experimento,» Revista Avances en Sistemas e Informática, vol. 4, nº 3, pp. 117-129, 2007. D. Carrizo Moreno, «Comparación de efectividad de las técnicas de educción de requisitos software vision novel y experta,» Ingeniare. Revista chilena de ingeniería, vol. 20, nº 3, pp. 386-397, 2012. A. Hossian, O. Dieste y R. García Martínez, «Conceptualización de requerimientos: propuesta de proceso y técnicas asociadas,» Madrid, Neuquén, Buenos Aires, 2012. C. Burnay, I. J. Jureta y S. Faulkner, «What stakeholders will or will not say A theoretical and empirical study of topic importance in Requirements Engineering elicitation interviews,» Information Systems, vol. 46, pp. 61-81, 2014. J. A. Dorigan y R. M. De Barros, «A Process Model for Standardization and Increase in the Requirements Quality,» IEEE LATIN AMERICA TRANSACTIONS, vol. 12, nº 8, pp. 1502-1507, 2014. L. E. Peláez Valencia, «SWEBOK – IEEE | Guide to the Software Engineering Body of Knowledge; Un resumen ejecutivo,» Pereira, 2010. C. M. Zapata J, A. F. Jaramillo F y F. Arango I, «Una propuesta para mejorar la completitud de requisitos utilizando un enfoque lingüístico,» Revista Ingeniería & Desarrollo, nº 19, pp. 1-16, 2006. C. M. Zapata Jaramillo y G. L. Giraldo G, «El juego del diálogo de educción de requisitos,» Revista Avances en Sistemas e Informática, vol. 6, nº 1, pp. 105-114, 2009. J. E. Gómez Maldonado, G. Urrego Giraldo y L. González Palacio, «REASEM: Herramienta para la gestión de requisitos,» Revista Avances en Sistemas e Informática, vol. 6, nº 2, pp. 59-67, 2009. M. A. Toranzo Céspedes, G. Sysneiros Filho, Y. Gómez y O. Rodríguez Mendoza, «Hacia el desarrollo de un marco de trabajo para mejorar la trazabilidad de requisitos,» Revista Ingenieria e Investigación, vol. 32, nº 1, pp. 48-52, 2012. R. H. Thayer y M. Dorfman, Software Requirements Engineering, Segunda edición ed., 1997. Alonso Toro Lazo (1986- ) nació en Viterbo – Caldas, Colombia, el 17 de junio de 1986. Se graduó como Ingeniero de Sistemas y Telecomunicaciones en la Universidad Católica de Pereira y actualmente es candidato a Magister en Gestión y Desarrollo de Proyectos de Software de la Universidad Autónoma de Manizales. Ejerce como Coordinador del programa Ingeniería de Sistemas y Telecomunicaciones de la Universidad Católica de Pereira y es docente en las áreas de Ingeniería de Software, Gestión de proyectos de software, Calidad de Software y Metodología de la investigación (Anteproyecto). Entre sus campos de interés se encuentra la Ingeniería del software, el Desarrollo de Requisitos de Software, y la aplicación de buenas prácticas de ingeniería que permitan el Aseguramiento de la calidad del software. Juan Guillermo Galvez Botero (1986- ) nació en Medellín – Antioquia, Colombia, el 8 de enero de 1986. Se graduó como Tecnólogo de Sistemas del Centro de Investigación, Decencia y Consultoría Administrativa CIDCA y continúo su ciclo de profesionalización en la Universidad Católica de Pereira optando el título de Ingeniero de Sistemas y Telecomunicaciones y actualmente es candidato a Magister en Gestión y Desarrollo de Proyectos de Software de la Universidad Autónoma de Manizales. Ejerce como profesional en la Unidad de Gestión de Tecnologías Informáticas y Sistemas de Información (UGTISI) de la Universidad Tecnológica de Pereira como Ingeniero Desarrollador de Software. Entre sus campos de interés se encuentra el Desarrollo de Requisitos de Software, la Calidad del Software y la aplicación de técnicas y procedimientos que demanda la implementación de un proyecto software de calidad con requisitos específicos. Universidad Católica de Pereira 114 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 10 No. 19 - Primer Semestre de 2016, página 114 - 125 Software educativo para el buen uso de las TIC1 Educational software for the proper use of ICT Software educativo para um bom uso das TIC E. Murcia, J.L. Arias y S. M. Osorio Recibido Noviembre 20 de 2015 – Aceptado Febrero 19 de 2016 Resumen— Este articulo trata sobre la elaboración de un Software Educativo para el buen uso de las TIC, para lo cual se ha realizado una revisión sobre cuál debe ser la metodología en desarrollo de software apropiada, escogiendo el Proceso de Desarrollo Unificado (RUP), porque tiene ciertas características que serán expuestas posteriormente, también se revisó cuál debe ser el lenguaje de programación, optando por PHP, finalmente se parte de las respuestas dadas a una encuesta realizada a docentes y estudiantes de Básica Primaria, con el fin de poder enfocar bien el desarrollo del software y el producto final, ya que el público objetivo son los niños y niñas que están en este nivel de formación, con el fin de poder tener una herramienta tecnológica mediante la cual ellos aprenderán a usar responsablemente las tecnologías de la Información y la Comunicación. Palabras clave— Software Educativo, Proceso de desarrollo unificado, TIC, Buen uso de las TIC, Educación Básica Primaria. Abstract- This article is related to the development of an Educational Software for the proper use of ICT, a review of what should be the appropriate methodology in developing 1 Producto derivado del proyecto de investigación “Software educativo para el buen uso de las TIC”. Presentado por la estudiante para graduarse como Ingeniera de Sistemas y Telecomunicaciones, este proyecto fue elaborado en la modalidad de residencia de línea de investigación, en la Línea de Investigación Enseñanza de las Ciencias Básicas perteneciente al grupo de investigación GEMA de la Facultad de Ciencias Básicas e Ingeniería de la Universidad Católica de Pereira. E. Murcia, magíster en la enseñanza de las matemáticas, es docencia en el Departamento de Ciencias Básicas, de la Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. J.L. Arias, magíster en la enseñanza de las matemáticas, es docente Asociado I de la Facultad de Ciencias Básicas e Ingeniería, de la Universidad Católica de Pereira, Pereira (Colombia), también es docente Catedrático Asistente de la Facultad de Ingeniería Industrial de la Universidad Tecnológica de Pereira, Pereira (Colombia); email: [email protected], [email protected]. M.S. Osorio, Ingeniera de Sistemas y Telecomunicaciones de la Facultad de Ciencias Básicas e Ingeniería, de la Universidad Católica de Pereira, Pereira (Colombia); email: [email protected] Entre Ciencia e Ingeniería software has been conducted for that purpose, and the Unified Development Process (RUP) has been selected, because it has certain characteristics that will be exhibited subsequently, the programming language has also been revised, and the PHP was chosen. Finally, the responses to a survey applied to teachers and students of Basic Primary were taken into account, in order to focus the software development and the final product, since the target population is children who are at this level of education, this way, a technological tool through which they will learn to use responsibly Technologies of Information communication, will be achieved. Key words--- Educational Software, unified development process, ICT, Good use of ICT, Basic Primary Education. Resumo— Este artigo trata sobre a elaboração de um Software Educativo para um bom uso das TIC, para o qual se realizou uma revisão sobre qual deve ser a metodologia em desenvolvimento de software apropriada, escolhendo o Processo de Desenvolvimento Unificado (RUP), porque possui certas características que serão mostradas posteriormente. Também foi revisado qual deve ser a linguagem de programação, optando por PHP, finalmente partindo das respostas dadas a uma pesquisa realizada a professores e estudantes de Primaria, com o objetivo de poder enfocar bem o desenvolvimento do software e o produto final, já que o público objetivo são os meninos e as meninas que estão neste nível de formação, com a finalidade de ter uma tecnológica que será o meio por onde eles aprenderão a usar responsavelmente as tecnologias da Informação e da Comunicação. Palavras chave— Software Educativo, Processo de desenvolvimento unificado, TIC, Bom uso das TIC, Educação Básica Primaria. I. Introducción La tecnología siempre ha tenido como objetivo facilitar y mejorar la calidad de vida de las personas, beneficiando a todos de una u otra forma gracias a sus últimos avances, todo ello gracias a los adelantos de las computadores y del internet, que permiten, además de estar comunicados todo el 115 tiempo y en contacto con el mundo, realizar un sin número de actividades empresariales, ocupacionales, educativas, recreativas, etc. programa de prevención de conductas de riesgo en Internet: un estudio con preadolescentes navarros de 6° de Educación Primaria” leída en la Universidad Pública de Navarra”. En este mismo sentido los niños, como parte activa de esta nueva sociedad del conocimiento y la información, se convierten en los más importantes usuarios potenciales de toda esta tecnología ya que, sin importar su situación económica, tienen un acceso casi ilimitado a toda clase de información y pueden además interactuar con personas de cualquier parte del mundo, ya sea desde la casa, el colegio o en los muchos lugares que prestan el servicio de internet y que desafortunadamente en ciertas ocasiones no cuenta con herramientas y normas adecuadas que limiten su uso por parte de niños y menores de edad. Esta misma autora dice también, a raíz del mismo estudio, que “los niños y niñas de 10 a 12 años asumen muchos riesgos en su uso de internet y el 5% de ellos queda físicamente con desconocidos a los que han contactado en la red” citada por [4]. Otro estudio, en este caso de la Universidad de Málaga y la Pontificia Universidad Javeriana de Colombia, arroja como resultado que “los adolescentes de entre 12 y 15 años no conocen tan bien como dicen los peligros de internet”, citado en [4]. De este modo se hace necesario tener en cuenta que si bien la tecnología puede ser una herramienta muy útil e interesante en el proceso de formación de los niños, debe utilizarse siempre dentro de un ambiente enfocado a prestar ayuda para aprender y potenciar sus habilidades, de tal manera que, ni absorba todo su tiempo y mucho menos que reemplace otras actividades, indispensables para su formación como personas y como miembros de una sociedad. De otro lado y a diferencia de los adultos, los niños aprenden fácilmente a usar las nuevas herramientas tecnológicas, por este motivo, se les denomina, como Nativos Digitales, según Marc Prensky, definición que plantea que las nuevas generaciones incorporan en su ADN el dominio de las nuevas tecnologías y por eso, en el momento de ejecutar acciones formativas para ellos, es de gran importancia sus características ya que se convierten en la clave de la eficacia en los resultados que se pretenden lograr [1] y [2]. Por lo tanto, el problema al cual se enfrentan los padres, maestros y demás actores de la sociedad, no es orientar a los niños en el uso de las TIC, pues como ya se dijo, para ellos es instintiva esta habilidad, por lo que es muy poco lo que se les puede enseñar al respecto. Tampoco se trata de limitar o prohibir el uso de estas tecnologías, pues el acceso a ellas es ilimitado (en la casa, en la escuela, en el entorno social) y además no se puede desconocer su importancia como herramienta educativa y lúdica. El problema real, al que pretende tratar este artículo, es la falta de responsabilidad en el uso de estas herramientas, sobre todo por parte de los niños y niñas más pequeños, puesto que ellos aún no dimensionan el alcance de ciertas actividades que realizan en la red, ni los riesgos a los que se exponen. Según estudios realizados acerca del uso que los preadolescentes hacen de Internet y de las redes sociales “se ha encontrado algunos comportamientos que suponen una clara señal de alarma. A pesar de tratarse de niños de 11 años, aproximadamente uno de cada diez se relaciona con amigos virtuales que no conoce y en el 5,6% de los casos han llegado a quedar físicamente con desconocidos” dice [3] citada por [4] en su tesis doctoral “Evaluación de la eficacia de un Por tal razón, se propone implementar un software educativo que oriente a los niños y niñas de Educación Básica Primaria, sobre la correcta y responsable utilización de las nuevas Tecnologías de la Información y la Comunicación, conocidas y mencionadas de ahora en adelante como TIC. Dicho software será, además de educativo, multinivel, con un entorno gráfico que permita al estudiante crear cosas tan sencillas como un correo electrónico, y que, a medida que se van superando las respectivas etapas, va agregando información, incrementando su complejidad y llevando al estudiante a la creación de blogs, páginas web y otros elementos en los cuales puedan debatir su conocimiento con otros estudiantes. En este sentido el desarrollo de este software se fundamentará en el concepto de OVA (Objeto Virtual de Aprendizaje), definido como “un conjunto de recursos digitales, autocontenibles y reutilizables, con un propósito educativo y constituido por al menos tres componentes internos: contenidos, actividades de aprendizaje y elementos de contextualización. El objeto de aprendizaje debe tener una estructura de información externa (metadatos) que facilite su almacenamiento, identificación y recuperación” así como aparece definido en [5]. Es de esta manera como los contenidos y actividades de cada una de los OVA que se propone crear en este software, tendrán como objetivo principal orientar a la población estudiantil de básica primaria, en el uso correcto y responsable de las nuevas tecnologías, de forma que no solo se concienticen de los riesgos a los que se exponen y puedan identificarlos fácilmente, sino que también adopten actitudes responsables y críticas frente a los contenidos de la red y sobretodo que aprendan cómo afrontar situaciones incómodas, vergonzosas o que pongan en peligro su integridad física y estabilidad emocional. II. Antecedentes Hoy en día, la tecnología está presente en todas las actividades de la vida cotidiana, tanto en el ámbito laboral y educativo, modificando los medios de comunicación y de acceso a la información, incorporando nuevos métodos de trabajo y de estudio, creando nuevas fuentes de diversión Universidad Católica de Pereira 116 y esparcimiento, en una palabra, cambiando totalmente la forma de vida de las personas. Por estas razones, las nuevas tecnologías estarían relacionadas, de una u otra forma, con todas las áreas del conocimiento, por lo tanto se hace evidente su relación con los procesos de enseñanza-aprendizaje. En tal sentido la educación como base fundamental para el desarrollo de cualquier sociedad, principalmente en la llamada sociedad del conocimiento, que se caracteriza por privilegiar según [6], [7] y [8] citados por [9],el capital intelectual, el conocimiento como capital fundamental, el conocimiento, las habilidades y las destrezas cognitivas y sociales como materias primas, el trabajo colaborativo y cooperativo, la deslocalización de la información, el uso intensivo del conocimiento, entre otros. Teniendo en cuenta lo anterior, las TIC se convierten en herramienta fundamental para el desarrollo de las personas y por ende de las sociedades, siempre que potencian habilidades y destrezas para acceder a la información, además de permitir una comunicación constante e ilimitada [9]. Así mismo es importante señalar que Colombia, se encuentra en franca desventaja frente a otros países, tanto en infraestructura tecnológica, como en actitudes y habilidades para el uso de las nuevas tecnologías. A este respecto, es importante destacar que el Estado está haciendo todo lo posible por corregir esta situación a través de iniciativas que integran las TIC a la educación de niños y jóvenes, e incluso, por medio de programas de alfabetización digital para aquellas personas que no tienen los recursos económicos ni la formación necesaria para acceder a estas tecnologías. En este sentido se pueden destacar programas como Computadores para educar, por medio del cual se está tratando de dotar a las instituciones educativas públicas de infraestructura y equipos; también estrategias como Vive Digital para conectar dichas instituciones a la red, Virtual Educa, A que te cojo ratón, TemaTICas y muchos otros, enfocados a la capacitación de docentes y directivos docentes, en la creación de recursos y herramientas didácticas y en la formación de la comunidad en general. Todo lo anterior, con el fin de “contribuir a formar una sociedad más democrática, más incluyente y mejor informada, en la que la educación de calidad sea el principal factor de movilidad social y genere oportunidades de progreso para construir un país más justo, más moderno y más seguro”, según palabras de la Ministra de Educación, citadas en [10]. Según [11], [12] y [13], “las encargadas de preparar a la población naciente, que vienen a representar el futuro de una nación, son las instituciones educativas, cuya finalidad es fomentar la tecnología en pro de su desarrollo como entes educativos. En este contexto, a medida que las TIC avanzan y se masifican, las instituciones educativas deben cambiar para adaptarse a ellas y no quedar en desventaja, incluyendo mejoras tecnológicas en su infraestructura, herramientas necesarias para la aplicación de dichas tecnologías, conexión a la red y sobre todo, utilizando software educativos en el proceso de enseñanza” citado por [14]. Entre Ciencia e Ingeniería De la misma manera [15] señala que: “…un software educativo es una aplicación informática, que soportada sobre una bien definida estrategia pedagógica, apoya directamente el proceso de enseñanza-aprendizaje constituyendo un efectivo instrumento para el desarrollo educacional del hombre del nuevo siglo”. En Colombia, en estos últimos años, el software educativo se ha convertido en una de las herramientas didácticas más importantes para facilitar los procesos de enseñanzaaprendizaje en las instituciones educativas, inclusive en escuelas y colegios públicos donde la infraestructura tecnológica aun es limitada. Por tal motivo, en los últimos años han surgido numerosas empresas desarrolladoras de software educativo en diferentes ciudades, además de las iniciativas del Estado al respecto. En este sentido, cabe resaltar proyectos como Conexiones, que desde 1994 se dedica a la investigación de informática educativa y al desarrollo de ideas de software; el Instituto SER de investigación dedicado al análisis, diseño y desarrollo de software educativo; también se pueden destacar sitios como www.colombiaaprende.edu.co , www.edumediaeditores. com, www.eduteka.org/proyectos, que ofrecen soluciones tecnológicas y didácticas para que las instituciones educativas optimicen sus procesos de enseñanza-aprendizaje. “Diversos estudios han mostrado que, en comparación con la clase tradicional, los programas multimediales pueden ayudar al estudiante a aprender más información de manera más rápida. Algunos estiman que se puede ahorrar hasta un 80 por ciento de tiempo en el aprendizaje” [16]. “Ciertas investigaciones han mostrado que la presencia de varios medios ayuda a incrementar el aprendizaje. Por ejemplo, se ha encontrado que los niños aprenden mejor el contenido de un texto cuando tiene ilustraciones. Asimismo se ha establecido que cuando los estudiantes pueden escuchar una descripción verbal simultáneamente con una animación, aprenden más que cuando sólo oyen la descripción o ven la animación [16]. Continuamente se observa, principalmente en los medios de comunicación, como muchos niños y niñas de diferentes edades, se involucran en situaciones que atentan contra sus derechos fundamentales, casi siempre por desconocimiento o por falta de control por parte de sus padres (violaciones, trata de personas, tráfico de niños, bulling y ciber-acoso, sexting, grooming etc.). Todo esto ha ocasionado que padres de familia y maestros desconfíen de las nuevas tecnologías, lo cual a su vez fomenta la tendencia a resaltar la parte negativa de la evolución y crecimiento tecnológico, privándose de esta manera de los beneficios del futuro, del buen conocimiento que pueden adquirir y en ocasiones incluso, de aprovechar las ayudas gubernamentales a las cuales tienen derecho los niños solo por ser objetos de especial protección del Estado , según se menciona en el Art. 45 de la Constitución Política de Colombia. La problemática anterior nace principalmente por falta de 117 cultura y educación, pues aunque la masificación de las TIC es ya una realidad, no hay todavía un verdadero y profundo conocimiento del tema, principalmente por parte de los adultos y padres de familia, para quienes la tecnología es un misterio y por lo mismo les genera desconfianza. Por lo tanto en Colombia, y en general en el mundo entero, la incorporación de las TIC al contexto educativo se ha convertido en una obligación, no solo por su popularidad y su rápida difusión sino principalmente por las enormes posibilidades que ofrece en este campo, como fuente casi inagotable de recursos y estrategias didácticas, además, por las modalidades de comunicación que permiten mejorar y optimizar el proceso educativo, haciendo del aprendizaje algo práctico y divertido. En este sentido no se puede negar y menos aún desmerecer, el enorme potencial que tienen las TIC como herramienta educativa; sin embargo, es fundamental adoptar una actitud reflexiva y critica ante el tema, pues citando a [17] “todos sabemos que su uso (prensa, televisión, ordenador) no los convierte en medios de enseñanza, pues para que cumplan dicha función requieren de una planificación didáctica conveniente y pormenorizada, de tal forma que exista una estrecha coordinación entre el medio, sus características y los contenidos a transmitir”. En respuesta a los compromisos establecidos por todas las organizaciones mundiales en pro de alcanzar el desarrollo en el Siglo XXI (siendo por todas ellas considerada la educación como una herramienta poderosa para generar equidad, reducir la pobreza, generar empleo y mayor seguridad), Colombia también ha evidenciado su interés por fortalecer las TIC en las instituciones educativas, prueba de ello es la Ley 1341 del 30 de julio de 2009 que define las TIC como “el conjunto de Tecnologías de la Información y las Comunicaciones. En este sentido, las TIC agrupan una serie de herramientas dentro de las cuales se encuentran: equipos, programas informáticos, aplicaciones, redes y medios. Estos permiten la compilación, procesamiento, almacenamiento, transmisión de información como voz, datos, texto, video e imágenes” [18]. A partir de esta definición, dicha Ley se constituye como marco normativo para el desarrollo del sector de las TIC, además de que promueve su acceso y uso a través de la masificación, garantiza la libre competencia, el uso eficiente de la infraestructura y el espectro, y en especial, fortalece la protección de los derechos de los usuarios [19]. De igual forma, el Artículo 39 de la misma norma, indica que “El Ministerio de las TIC coordinara la articulación del Plan de TIC con el Plan de Educación y los demás planes sectoriales, para facilitar la concatenación de las acciones, eficiencia en la utilización de los recursos y avanzar hacia los mismos objetivos. Específicamente estos recursos se destinaran para: - Fomentar el emprendimiento en TIC desde los establecimientos educativos, con alto contenido en innovación. - Poner en marcha un Sistema Nacional de Alfabetización Digital - Capacitar en TIC a los docentes de todos los niveles. - Incluir la cátedra de TIC en todo el sistema educativo, desde la infancia. - Ejercer mayor control en los cafés internet para garantizar la seguridad de los niños” [20]. Estas articulaciones se ven reflejadas entre otros, en el Plan Decenal de Educación 2006-2016, en el Plan Nacional de Apropiación de Nuevas Tecnologías en términos de infraestructura, así como en el Plan Estratégico del Sectorial 2012-2014, todos los cuales coinciden en plantear entre sus principales objetivos el establecimiento de responsabilidades para “garantizar el acceso, uso y apropiación critica de las TIC, como herramientas para el aprendizaje, la creatividad, el avance científico, tecnológico y cultural” [21]. En tal sentido como parte de esta ruta de apropiación tecnológica a nivel educativo en nuestro país, el Estado ha venido llevando a cabo toda una serie de proyectos, algunos de los cuales se mencionan a continuación: - Colombia Aprende: se trata de un portal web que otorga herramientas virtuales de utilidad en la labor educativa de docentes, estudiantes y todas aquellas personas adscritas a las instituciones de educación superior. Dentro de sus productos cuenta con una completa colección de libros digitales, videos, audios y juegos interactivos. - Computadores Para Educar: es un programa de reutilización y dotación de nuevos equipos de cómputo cuya finalidad es brindar acceso a las TIC, principalmente a las instituciones educativas públicas, por medio del reacondicionamiento de equipos de cómputo y la gestión de residuos electrónicos. Adicionalmente se capacita a los docentes para su máximo aprovechamiento en los procesos pedagógicos mediante la aplicación de estrategias de acompañamiento educativo y apropiación de las TIC. - Compartel: es un programa de telecomunicaciones cuyo objetivo es permitir que las zonas apartadas de los estratos bajos del país se beneficien con las TIC, como son la telefonía rural y el internet. En la actualidad 16 operadores están prestando estos servicios, financiados con los recursos del Fondo de Tecnologías de la Información y la Comunicación y FONADE. - A Que Te Cojo Ratón: es un proyecto que promueve la alfabetización digital para lograr que los docentes colombianos utilicen las TIC en su vida diaria y las vinculen en sus prácticas pedagógicas dentro del Universidad Católica de Pereira 118 aula de clase. Es una red de formación que brinda acompañamiento en el uso de las TIC. - Entre Pares: es un programa en convenio con Microsoft para apoyar el uso y aplicación de las TIC en los procesos educativos. Pretende que los docentes incorporen herramientas TIC a los contenidos curriculares por medio del trabajo colaborativo y las habilidades de comunicación a partir del principio de asesoría docente. - Proyectos Colaborativos: es un proyecto virtual del portal Colombia Aprende en el cual se propone integrar el aprendizaje colaborativo y el trabajo por proyectos para motivar a estudiantes y profesores hacia el uso inteligente y creativo de las TIC mediante redes de aprendizaje y la vinculación de actividades asociativas entre equipos de docentes con intereses comunes. - TemaTICcas: es un programa del Ministerio de Educación para la apropiación profesional TIC para directivos docentes. Tomado de [22]. Con el apoyo de estas y otras iniciativas de los planes Vive Digital y Virtual Educa se ha logrado, en Colombia, una significativa ampliación de los servicios de Voz e Internet y la dotación de equipos de cómputo a Instituciones Educativas Publicas y el fortalecimiento de los accesos a internet y procesos de apropiación de las TIC en el ámbito educativo. Específicamente, el impacto de dichos programas en la educación básica se reflejó en un incremento de computadores por alumno (20 niños por computador), en la conectividad (el porcentaje de estudiantes con conexión paso de 19% en el 2005 a 87% en el 2010), en el ancho de banda y el horario de servicio [18]. Por otro lado en Risaralda y específicamente en la ciudad de Pereira, según la Secretaria de Educación, el promedio de estudiantes por computador es de 13, uno de los mejores promedios del país; además las instituciones educativas cuentan con un total de 6.394 equipos con conectividad en las aulas, gracias a las gestiones adelantadas a través del programa “Pereira Digital” [22]. “Así mismo, se pasó de una cobertura del 78% en materia de conectividad en los planteles educativos a un 98%, con acceso a banda ancha. Adicionalmente fueron gestionadas y puestas en servicio 19 aulas móviles, dotadas con equipos portátiles, tableros digitales, cámaras de video, video Beam y conexión a internet, de las cuales 14 operan en el área urbana, beneficiando a una población de 23.000 estudiantes. De igual manera, varias instituciones educativas han sido beneficiadas mediante la entrega de un software especial para población con discapacidades” [22]. También en diferentes ciudades ya existen empresas dedicadas a la construcción de software educativo, a continuación se muestran las aplicaciones que se están utilizando. - En Barranquilla se presentó un nuevo software en la Entre Ciencia e Ingeniería enseñanza del inglés, producto de la alianza del Distrito y sector privado, en la sede de la Institución Educativa Distrital. - El nuevo software de bilingüismo, Reading Company, que utiliza la lectura virtual para mejorar las competencias de pronunciación y escucha del inglés, fue donado por la empresa IBM y la Fundación Dividendo por Colombia, y será operado por la Universidad del Norte. Su implementación en las escuelas seleccionadas se hace con una inversión de 384 millones de pesos. Los 15 colegios beneficiados en la primera etapa de este programa reúnen las condiciones tecnológicas necesarias, tienen docentes de inglés en nivel intermedio y compromiso de la institución educativa. - De este software solo se tiene esta información publicada enhttp://www.sedbarranquilla.gov.co/ puesto que al ser del sector público, el acceso es a través de la intranet de cada institución. Lo que se ha investigado en diferentes sitios de internet, es que el software es muy didáctico e ilustrativo y esto lleva a que los estudiantes quieran generar su propio contenido e incentive las ganas de investigar e ir más allá de lo que les enseñan en un aula de clases. - También podemos observar este sitio llamado, http:// www.educolombia.org/ el cual está enfocado a ofrecer servicios de software educativo pero a nivel de instituciones educativas para mejorar los procesos cotidianos y manuales (Imagen en la página siguiente). Este sitio web ofrece aplicaciones muy completas, como se puede observar en la imagen contiene una barra de con diferentes tareas para la gestión de información, notas, archivos y tareas esta aplicación requiere de un usuario y contraseña pero como tiene fines comerciales para los institutos educativos tiene un precio alrededor de 1500 pesos por alumno anual. - Existe otro portal web llamado http://www.sinco.pe/ este portal ofrece integración de la información, ayudando con módulos sencillos a guardar notas, directorios e información general del plantel educativo, es totalmente freeware2 y solo genera los cobros de mantenimiento, pero no contiene aplicaciones que sirvan de ayuda a los estudiantes como el anterior solo es un aplicativo de apoyo a los colegios con sus operaciones cotidianas. III. Definición del problema La tecnología se mueve a un ritmo muy acelerado, mientras que hace algunos años los avances tecnológicos parecían ser exclusivos del gobierno y de los más privilegiados económicamente, se ve como en la actualidad la masificación de las TIC ha permitido que casi todos los sectores sociales puedan acceder a ellas; esto por supuesto, incluye a los niños, quienes hoy en día son los que más acceden a la red, 2 Freeware: define un tipo de software que se distribuye sin costo, disponible para su uso y por tiempo ilimitado 119 la cual les permite interactuar, crear y alimentar su innata curiosidad, su necesidad de conocimiento y de información. Teniendo en cuenta que son numerosas las ventajas de las TIC en la educación y formación de los niños, es difícil y quizá contraproducente, pretender apartarlos de ellas; sin embargo, no se puede dejar de lado la realidad y esto es, el uso irresponsable e ilimitado que estos niños y niñas están haciendo de internet, lo cual ha generado nuevas formas de violencia y está generando practicas cada vez más peligrosas para su integridad física y emocional, especialmente en el caso de los más pequeños, pues ellos aún no saben distinguir realmente lo bueno de lo malo, aun no son conscientes del peligro, sino que su naturaleza impulsiva y curiosa los lleva a involucrarse en situaciones que fácilmente salen de su control. Si se tiene en cuenta que los niños pueden acceder a la red casi desde cualquier lugar de su entorno, generalmente sin la supervisión de un adulto, pues aunque naveguen dentro de su casa, la mayor parte del tiempo, no tienen ningún control parental, dice [3] citada por [4]; se entiende que cada día sea mayor el número de niños víctimas del ciberbullying, el grooming o el sexting. Según los estudios realizados por la Universidad de Málaga [4], los niños no tienen la responsabilidad suficiente para negarse a recibir invitaciones de extraños en la red, e incluso, llegan a aceptar verse personalmente con esas personas, sin el consentimiento de sus padres. Así mismo, también hay que destacar que muchos niños confiesan haber usado la red para insultar a otros compañeros, para avergonzarlos e incluso amenazarlos. En las niñas, es más común el haber consentido, en algún momento, en enviar datos personales e incluso fotos a personas desconocidas. Estos y muchos más son los riesgos que corren los niños al navegar por internet sin supervisión de un adulto, si no se tiene precaución de realizar una navegación segura y no han recibido una correcta información acerca de los peligros y trampas que les acechan. En tal sentido se diseña y realiza un software educativo que permita a los niños y niñas hacer un uso adecuado de las TIC, aprovechando todas las ventajas que tiene ellos al ser unos ciudadanos digitales innatos y con un gran potencial para aprender e interactuar con los aparatos electrónicos. IV. Propuesta de solución En la propuesta de software educativo como herramienta para el buen uso de las TIC, se pretende generar una herramienta de apoyo para docentes y directivos docentes de enseñanza básica, que a través de diversas actividades y contenidos, eduquen a los niños en el buen uso de internet, principalmente de las redes sociales. Por lo tanto los contenidos y el diseño del software se establecerán según los requisitos establecidos para la elaboración de software educativo, teniendo en cuenta además que su propósito principal es atraer la atención del estudiante, despertar su interés para que decida ingresar a los OVA y realizar todas las actividades propuestas. Para ello se creara una interfaz gráfica llamativa y se procurará que los contenidos tengan un enfoque fresco y creativo acerca del tema; de esa forma los niños se divertirán usando herramientas novedosas y a la vez, aprenderán a identificar los riesgos de navegar en la red, tomando ciertas precauciones. Asumiendo entonces que es improbable impedir el acceso de los niños a la red y físicamente imposible estar al tanto todo el tiempo de lo que hacen y de los sitios que visitan, se trata de crear un medio a través del cual los niños y niñas de básica primaria conozcan los riesgos de navegar irresponsablemente por la red y con base a este conocimiento, adoptar practicas más seguras, buscando reducir los riesgos a los que se exponen. En tal sentido se elaboró un diagnóstico acerca del uso de las TIC por parte los estudiantes de básicas primaria, utilizando para tal fin la aplicación de una encuesta, donde se involucró también a los docentes del mismo nivel educativo y se aplicaron una seria de requisitos para el desarrollo del software que van desde el ciclo de vida, la metodología, la recolección de requisitos fundamentales, el diseño estructural, hasta el plan de prueba y la implementación. Para el diagnóstico sobre el uso de las TIC en estudiantes de básicas primaria se usó un muestreo no probabilístico por conveniencia donde participarán 120 estudiantes y 20 docentes de diferentes instituciones de la ciudad de Pereira (Risaralda), se emplearon dos encuestas la primera para docentes cuyo objetivo era conocer la percepción de los Docentes respecto a la tecnología y el uso de las mismas, por parte de sus estudiantes y la segunda realizada a los estudiantes con la cual se busca conocer la percepción de los niños respecto a la tecnología y el uso que ellos hacen de la misma, con la información obtenida se realiza la propuesta de contenidos para software educativo en el que se refleje el buen uso de las TIC. Las encuestas que se realizaron tanto a los docentes como a los estudiantes se subdividieron en categorías con el fin de poder obtener una información más completa para la propuesta del software educativo, las categorías son las siguientes: - Naturaleza y evolución de la tecnología: se refiere a las características y objetivos de la tecnología, a sus conceptos fundamentales (sistema, componente, estructura, función, recurso, optimización, proceso, etc.), a sus relaciones con otras disciplinas y al reconocimiento de su evolución a través de la historia y la cultura. - Apropiación y uso de la tecnología: se trata de la utilización adecuada, pertinente y crítica de la tecnología Universidad Católica de Pereira 120 (artefactos, productos, procesos y sistemas) con el fin de optimizar, aumentar la productividad, facilitar la realización de diferentes tareas y potenciar los procesos de aprendizaje, entre otros. - Solución de problemas con tecnología: se refiere al manejo de estrategias en y para la identificación, formulación y solución de problemas con tecnología, así como para la jerarquización y comunicación de ideas y comprensión de estrategias que van desde la detección de fallas y necesidades, hasta llegar al diseño y a su evaluación. - Tecnología y sociedad: trata tres aspectos tales como las actitudes hacia la tecnología, en términos de sensibilización social y ambiental, curiosidad, cooperación, trabajo en equipo, apertura intelectual, búsqueda, manejo de información y deseo de informarse; por otro lado tiene en cuenta la valoración social que el individuo hace de la tecnología para reconocer el potencial de los recursos, la evaluación de los procesos y el análisis de sus impactos (sociales, ambientales y culturales) así como sus causas y consecuencias; así mismo se encarga de revisar la participación social que involucra temas como la ética y responsabilidad social, la comunicación, la interacción social, las propuestas de soluciones y la participación, entre otras. La información obtenida de las encuestas se convierten en información impórtate para desarrollar el software educativo, buscando que este se desarrolle a la medida de las necesidades de los usuarios, las conclusiones más importantes se presentaran más adelante. Por otro lado con respecto a la metodología en desarrollo de software usada para la creación del software se realizó una revisión de ellas, entre otras se tuvo en cuenta las siguientes: PSP, TSP, RUP, SCRUM, POO, RAD, DSDM UP, XP. De acuerdo a las características finalmente se decidió utilizar la metodología RUP, dado que es un proceso para el desarrollo de un proyecto de software que define claramente quien, como, cuando y qué debe hacerse en el proyecto, además tiene tres características esenciales, tales como: está dirigido por los casos de uso: que orienta el proyecto a la importancia para el usuario y lo que este quiere, está centrado en la arquitectura: que relaciona la toma de decisiones que indican cómo tiene que ser construido el sistema, y es iterativo e incremental: donde divide el proyecto en mini proyectos donde los casos de uso y la arquitectura cumplen sus objetivos de manera más depurada. Por otro lado RUP tiene seis principios claves: - Adaptación del proceso: El proceso debe adaptarse a cada una de las características de la organización (tamaño, diseño específico, regulaciones, alcance del proyecto). - Balancear prioridades: Balancear los recursos para llevar a cabo el proyecto de la manera más adecuada y de esta manera satisfacer las necesidades de los inversores. Entre Ciencia e Ingeniería - Colaboración ente equipos: Comunicación entre los equipos de trabajo que llevan a cabo el proyecto. - Demostrar valor iterativamente: El proyecto se entrega de forma parcial e internamente para corregir posibles errores, estabilidad y verificar la calidad del producto - Elevar el nivel de abstracción: Motivar el uso de concepto reutilizables de software (lenguajes 4gl o frameworks). - Enfocarse en la calidad: Realizar control de calidad en cada aspecto de la elaboración del proyecto. También se partió del hecho que RUP divide el proceso en cuatro fases, dentro de las cuales se realizan varias iteraciones dependiendo del tipo proyecto, sus fases son: - Inicio: En esta fase se identifican los casos de usos, riesgos y alcance del proyecto. - Elaboración: En esta fase se realiza el plan de proyecto, se eliminan los riesgos y se completan los casos de uso. - Construcción: En esta fase se concentra la codificación total del producto y el manual del usuario. - Transición: En esta fase se entrega el producto y se entrena a los usuarios. Teniendo en cuenta las razones anteriores se decide utilizar RUP como metodología de desarrollo ya que para este caso se necesita formalidad, se parten de requisitos funcionales, y se proyectará como desarrollo a largo plazo. Por otro lado se revisaron diferentes herramientas de programación para web entre ellas ASP.NET, PHP, Java, Python, Ruby, de acuerdo al análisis de diferentes herramientas, se elige PHP ya que tiene el primer lugar de rendimiento de acuerdo a la información obtenida de la Matriz comparativa de lenguajes de programación para el web obtenida de [23]. Tal como se muestra en la fig. 1. El usuario administrador, realiza un registro del usuario mediante una interfaz, que se encuentra construida en MySQL PHP. Una vez realizado este registro, el usuario puede hacer su respectivo login, en caso de fallo por olvido, deberá remitirse al administrador del sistema para poder recuperar su contraseña y acceder nuevamente. Esto debido a que son niños los que van a utilizar la plataforma y la opción recuperar contraseña para este caso no sería útil. Luego en el sistema nos podemos enrolar ya sea como aprendiz o como instructor. El instructor podrá ver los eventos que los niños han realizado dentro de la plataforma, como hacer clic en un menú, o iniciar la reproducción de un video, y basado en estas evidencias realizar la calificación de forma manual a los estudiantes del curso. Los estudiantes a su vez podrán ver sus notas de acuerdo a las notas emitidas por el instructor que imparte el curso. 121 Fig. 1 Diagrama de flujograma Fig. 3. Diagrama dos de casos de uso V. Resultados Se elaboró un software educativo para que los niños de los grados primero a quinto de básica primaria con el fin de que ellos aprendan a dar buen uso a las nuevas Tecnologías de la Información y la Comunicación. A continuación se muestran gráficamente los aspectos principales de dicho software. Casos de uso La fig. 2 y 3 muestran en forma de diagrama los casos de usos del software educativo, los cuales se explican seguidamente en las tablas I al IV Fig. 2 Diagrama uno de casos de uso. TABLA I Caso de uso: realizar evaluación Realizar Evaluación. Caso de uso: Actores: Estudiante Descripción: El Caso de Uso es iniciado cuando los usuarios del sistema desean realizar una evaluación a través de los Ejercicios Evaluativos. Precondiciones: Que el usuario este autentificado como Usuario y la Aplicación este iniciada. Poscondiciones: Que se realice la evaluación. Curso normal de los eventos Acción del usuario Respuesta del Sistema 1. En el menú principal de la Interfaz Principal se Autentifica como usuario estudiante y selecciona la opción Auto evaluación. 3. Selecciona el tema de evaluación en . 2. Muestra la interfaz Ejercicios Evaluativos 5. Marca las respuesta que considera correctas en y realiza la evaluación presionando el botón Responder ,en caso que no desee evaluarse en una pregunta determinada puede pasar para la próxima o la anterior en 4. Muestra el texto de pregunta del tema seleccionado en y las posibles respuestas de dicha pregunta en . 6. Guarda los resultados en la Base de Datos del Tutorial y Muestra en pantalla la interfaz Resultado de Evaluaciones y los resultados de las evaluaciones realizadas por el usuario. Universidad Católica de Pereira 122 TABLA II Caso de uso: mostrar registro de evaluaciones realizadas Caso de uso: Actores: Acción del usuario 1. En la interfaz Ejercicios 2. Muestra la Interfaz AdEvaluativos se realiza la ministrar Preguntas. Administración de todas las Preguntas relacionadas con el Tema. Mostrar Registro de Evaluaciones Realizadas. Administrador/Profesor (inicia). Descripción: El Caso de Uso se inicia cuando el Administrador o Profesor desean obtener los resultados de las evaluaciones realizadas por los Estudiantes. Precondiciones: Que el usuario este autentificado como administrador o como profesor. Poscondiciones: Que se muestren los resultados de evaluaciones de los Estudiantes. Curso normal de los eventos Acción del usuario TABLA III Caso de uso: administrar ejercicios evaluativos Caso de uso: Actores: TABLA IV Caso de uso: gestionar cuenta de usuarios Administrar Ejercicios Evaluativos. Administrador/Profesor (inicia). Descripción: El Caso de Uso se inicia cuando el Administrador desea administrar los Ejercicios Evaluativos, donde se incluye la administración de los Temas, Preguntas y Respuestas. Precondiciones: Que el usuario este autentificado como administrador o como profesor. Poscondiciones: Que los Ejercicios Evaluativos hayan sido administrados. Curso normal de los eventos Gestionar Usuarios. Caso de uso: Actores: Cuenta Administrador (inicia). Acción del usuario Respuesta del Sistema 1. En el menú principal de Interfaz del Sistema selecciona la opción Gestión de usuarios 3. El usuario se autentifica como administrador 2. Muestra en pantalla la interfaz de Autenticación. 4. Muestra la interfaz de Gestionar Cuentas de Usuarios Modelo de Entidad Relación de La Base de Datos El modelo de entidad relación que se muestra en la fig. 4, corresponde a la relación esquemática de las tablas I al IV que constituyen la base de datos del software. Imágenes de la interfaz grafica A continuación se presentan algunas imágenes de la interfaz gráfica que se presenta a los usuarios. En la fig. 5 se presenta la entrada inicial del aplicativo En la fig. 6 se hace referencia a la interfaz que permite el ingreso al software o aplicativo, allí se validará dicho ingreso mediante el login y contraseña. En la figura número 7 se muestra la interfaz del estudiante con las actividades propuestas VI. Conclusiones En el análisis de las encuestas realizadas a docentes y alumnos de diferentes colegios de la ciudad de Pereira se pudo concluir que: - A todos los niños y niñas les gustan las clases de Entre Ciencia e Ingeniería de Descripción: El Caso de Uso se inicia cuando el administrador desea administrar las Cuentas de los Usuarios del Tutorial. Precondiciones: El usuario este autentificado como administrador. Curso normal de los eventos Respuesta del Sistema 1. Ejecuta en la interfaz 2. Muestra en pantalla la interRegistro de Evaluación. faz Registro de Evaluaciones Realizadas 3. Selecciona el tema si 4. Se muestra todos los datos lo desea. de las evaluaciones del estudiante. Se muestra un resumen estadístico con el total de preguntas respondidas y la cantidad correctas e incorrectas y también se activa el botón para si desea eliminar el registro de ese estudiante. 5. Si va a eliminar el 6. Se elimina el registro de estudiante presiona el evaluación del estudiante botón Respuesta del Sistema 123 Fig. Fig. 4. 4. Modelo Modelo de de entidad entidad relación relación de de la la base base de de datos datos Fig. 7. Interfaz del estudiante con actividades propuestas. tecnología y consideran que deberían ver más horas de estas clases. Fig. 5. Presentación Inicial del Aplicativo - El uso del computador y el internet hace que las clases sean más didácticas, más interesantes para ellos, según opinan los niños y los docentes. - La gran mayoría de los niños usan las nuevas tecnologías sin ningún inconveniente y es muy poco lo que se les limita para su utilización. - En el colegio se les anima a que hagan uso del internet para buscar información y todos coinciden en afirmar que este es el único medio que usan para hacer sus tareas. - Entre los usos que se le da al internet predomina el de los juegos y las redes sociales. Fig. 6. Interfaz de validación de acceso a usuarios. - Los docentes coinciden en que las nuevas tecnologías pueden aportar mucho a la labor educativa y también consideran que se debería utilizar este tipo de herramientas en todas las asignaturas, para que así los niños mostraran más interés por aprender cosas nuevas. Universidad Católica de Pereira 124 - La gran mayoría de los niños desconocen los conceptos de ciberbullying, sexting y grooming y por lo tanto, no saben qué hacer cuando se les presentan estas situaciones. Aun así los docentes afirman enseñar estos conceptos en sus clases. - Aunque se habla mucho de tecnología no se les enseña a los niños como pueden actuar responsablemente frente a ella. - Los software educativos utilizados en los colegios están enfocados en enseñar conceptos de cada asignatura, no existe un software como el que aquí se propone, especial para el buen uso de las TIC. Con el fin de fortalecer el alcance del proyecto de investigación, se implementó el software desarrollado con una muestra de 35 niños, teniendo como conclusiones las siguientes: - El software fue aceptada por todos los niños y niñas que utilizaron la aplicación. Todos se mostraron muy interesados y motivados a utilizar la aplicación, por la inquietud de observar las imágenes y escuchar el sonido de algunas de ellas. También se pudo observar que los temas tratados en los OVAS les llamaron mucho la atención por tratarse de situaciones de las que escuchan hablar a menudo. - Por otro lado se observó que los niños de los últimos grados (cuarto y quinto) tienen más habilidades para el desarrollo de las actividades propuestas en los OVAS y las realizaron fácilmente, de la misma forma se pudo ver que estos niños analizan con mayor detalle los contenidos. - Se encontró que la mayoría de los niños utilizaron fácilmente la aplicación. Todos ellos manifestaron no necesitar de una persona que les enseñara personalmente, ya que fue suficiente con explicarles en que consiste y como se usa la aplicación, para que rápidamente estuvieran mirando los OVAS y realizando las actividades, se pudo observar que en las pruebas la gran mayoría de los niños se inclinó considerablemente por las actividades que representaban un reto para ellos. - También se evidenció además que el uso del software proporcionaba un ambiente de colaboración entre los niños, quienes se inclinan más a pedir apoyo de sus compañeros que del docente o persona encargada de dirigir las pruebas. De manera general desde la investigación se concluye que - El software para el buen uso de las TIC se diseñó para que los niños y niñas de educación básica primaria comprendieran la importancia de manejar el internet, y todas las demás tecnologías (celular, iPhone, tablets), de un modo responsable, para no caer en situaciones que puedan hacerles daño. - Las actividades incluidas en la aplicación ofrecen la facilidad de adquirir habilidades, aprendiendo en un ambiente de interés, permitiendo trabajar dinámicamente, por medio de imágenes, audio y texto, y así los niños interpretan fácilmente los temas, sintiéndose invitados a investigar más. Se concluyó por último, que la implementación de un software para el buen uso de las TIC es necesario para que los niños y niñas se responsabilicen cuando están frente a un computador y navegando en internet, teniendo en cuenta el aumento en el uso de las TIC y la facilidad con que los niños y niñas (sin importar su edad) tienen acceso a ellas y aprenden a usarlas. Referencias [1]. [2]. [3]. [4]. [5]. [6]. [7]. [8]. [9]. [10]. - La aplicación es fácil de utilizar, entendible y útil. Los colores presentados, las imágenes y el audio, son agradables para los niños, permitiendo interactuar y realizar las tareas asignadas de manera clara. [11]. - El uso de las nuevas tecnologías representa un recurso importante, casi esencial para la enseñanza, ya que aportan facilidades para un aprendizaje más práctico y efectivo. [13]. Entre Ciencia e Ingeniería [12]. [14]. Prensky. (2004). La investigacion. Prensky, m. (2010). Http://www.marcprensky.com/. Recuperado el 12 de septiembre de 2014, de http://www. marcprensky.com/writing/prensky-nativos%20e%20 inmigrantes%20digitales%20(sek).pdf Irazabal Zuazua, I. (11 de Septiembre de 2013). Universidad Pública de Navarra. Obtenido de http://www.unavarra.es/ actualidad/noticias?contentId=173492 Gomez, c. (16 de septiembre de 2013). Un 5% de niños de once años queda con desconocidos a través de internet. España. Recuperado el 12 de 09 de 2014, de http://www. tendencias21.net/un-5-de-ninos-de-once-anos-queda-condesconocidos-a-traves-de-internet_a23984.html Colombia aprende. (s.f.). Recuperado el 23 de julio de 2014, de http://www.colombiaaprende.edu.co/html/ directivos/1598/article-172369.html Drucker. (1993). Recuperado el 01 de agosto de 2014, de es.slideshare.net/bernacho/bases-teoricas-para-el-uso-delas-tic Hesselbein y col. (1996). Recuperado el 01 de agosto de 2014, de es.slideshare.net/bernacho/bases-teoricas-para-eluso-de-las-tic Stewart. (1997). Recuperado el 01 de agosto de 2014, de es.slideshare.net/bernacho/bases-teoricas-para-el-uso-delas-tic Riveros, v., & mendoza, m. (s.f.). Recuperado el 14 de septiembre de 2014, de http://tic-apure2008.webcindario. com/tic_ve3.pdf MEN. (18 de junio de 2013). Centro virtual de noticias de la educación. Recuperado el 2014 de julio de 2014, de http:// www.mineducacion.gov.co/cvn/1665/w3-article-324021. html Marqués. (2001). Peremarques.net. Recuperado el 13 de octubre de 2014, de www.peremarques.net/masme.htm Marqués. (1996). Quadernsdigitals.net. Recuperado el 03 de noviembre de 2014, de www.quadernsdigitals.net/index. php?accionmenu=secciones. Marques, p. (2000). Oei.es. Recuperado el 21 de septiembre de 2014, de www.oei.es/tic/santillana/marques.pdf Marcano, I. (2012). Virtual Educa. Recuperado el 12 de Agosto de 2014, de www.virtualeduca.info/ 125 ponencias2012/200/virtualeduca.pd [15]. Rodriguez Lamas, R., & Otros. (13 de Noviembre de 2000). Edutec, Revista Electronica de Tecnologia Educativa. Recuperado el 30 de Septiembre de 2014, de http://edutec. rediris.es/Revelec2/Revelec13/Rlamas.html [16]. MEN. (abril de 2004). Al tablero. Recuperado el 17 de noviembre de 2014, de http://www.mineducacion.gov. co/1621/article-87408.html [17]. Romero tena, r. (09 de junio de 2002). Dialnet. Recuperado el 12 de octubre de 2014, de tecnologiaedu.us.es/cuestionario/ bibliovir/37.pdf. [18]. Colombia digital. (2013). Recuperado el 20 de septiembre de 2014, de colombiadigital.net/publicaciones_ccd/ descargar_publicaciones.php [19]. C-403 de 2010 de la Corte Constitucional. (s.f.). Recuperado el 20 de Septiembre de 2014, de www.corteconstitucional. gov.co/relatoria/2010/c-403-10.htm [20]. MINTIC art.39. (2009). Recuperado el 20 de septiembre de 2014, de http://www.mintic.gov.co/portal/604/ articles-3707_documento.pdf [21]. MEN. (2006). Plan decenal de Educación 2006 -2016. Obtenido de http://www.plandecenal.edu.co/html/1726/ articles-166057_compendio_general.pdf. [22]. Colombia aprende. (s.f.). Recuperado el 22 de septiembre de 2014, de www.colombiaaprende.edu.co [23]. Rosado, S. (2 de Febrero de 2015). Tabla comparativa de los lenguajes de programación. Obtenido de Desarrollo Web: http://desarrollowebydesarrolloweb.blogspot.com. co/2015/02/tabla-comparativa-de-los-lenguajes-de.htm. Euclides Murcia Londoño Nació en Santa fe de Bogotá (D.C), Colombia el 1 de Noviembre de 1975 y estudió su pregrado de Licenciatura en Matemáticas y Computación en la Universidad del Quindío, Especialista en la Administración de la Informática Educativa de la Universidad de Santander (UDES), y una Maestría en Enseñanza de la Matemática en la Universidad Tecnológica de Pereira, ha Ejercido Profesionalmente como docente para la Secretaria de Educación de Pereira, y para la Universidad Católica de Pereira, se encuentra vinculado laboralmente y pertenece al grupo de investigación GEMA. Entre sus campos de interés está la didáctica, la estadística, las TIC y la metodología de Investigación. Juan Luis Arias Vargas, es ingeniero Industrial de la Universidad Tecnológica de Pereira (UTP), Especialista en la Administración de la Informática Educativa de la Universidad de Santander (UDES), Magíster en la Enseñanza de la Matemáticas (Línea de Estadística) de la UTP, es docente Asociada I de tiempo completo de la Universidad Católica de Pereira, donde actualmente se desempeña como Decano de la Facultad de Ciencias Básicas e Ingeniería, también es Docente Catedrático Asistente de la UTP en la Facultad de Ingeniería Industrial, en la actualidad es integrante del grupo de investigación GIII de la Universidad Católica de Pereira. Silvia María Osorio Montoya es Ingeniera de Sistemas y Telecomunicaciones de la Universidad Católica de Pereira. Universidad Católica de Pereira 126 Políticas de la Revista Entre Ciencia e Ingeniería Identidad y objetivo de la revista “Entre Ciencia e Ingeniería” es una revista de la Universidad Católica de Pereira que tiene por objeto aportar al desarrollo en ciencia básica e ingeniería mediante la difusión de artículos que dan cuenta del avance y estado del conocimiento, de la técnica y la tecnología y de la formación en estas áreas. La ciencia y la tecnología se consideran producto de la inteligencia y están al servicio del hombre para su beneficio y su bienestar, son muestra fehaciente e indiscutible de su humanidad, de su naturaleza inquieta, perspicaz, aventurera y exploradora de su realidad, que en su avance le ha permitido subsistir, potenciarse y diferenciarse de las demás especies aun más cuando el conocimiento se ha fraguado con la creatividad permitiéndole diseñar herramientas, desplazar la noche por el día o transformar la naturaleza. Pero el ejercicio de la ciencia y la tecnología entrañan repercusiones, algunas veces inesperadas. Las nuevas formas de hacer y pensar pueden mejorar las condiciones de la vida o también atentar contra los seres vivos y su hábitat, por esto: El hombre cuanto más conoce la realidad y el mundo y más se conoce a sí mismo en su unicidad, le resulta más urgente el interrogante sobre el sentido de las cosas y sobre su propia existencia. La ciencia y la ingeniería conciben al mundo como comprensible, con reglas que rigen su funcionamiento y las cuales mediante un estudio cuidadoso y sistemático pueden evidenciarse por patrones consistentes que permiten la posibilidad de examinar las características fundamentales que mejor describan los fenómenos y la forma en que éstas se relacionan, será posible conocer más el mundo, su evolución, sus transformaciones, ajustes y comportamientos futuros. En la búsqueda de la verdad existen aspectos que se priorizan debido al contexto en el que está inserta la Universidad Católica Popular del Risaralda, la mirada desde y hacia lo regional permite la actualización y preparación en el escenario mundial, pues se puede establecer paralelos con el desarrollo de la ciencia y la ingeniería en el mundo. Adicionalmente, esta mirada desarrolla una relación de doble vía; mientras la región plantea de un sinnúmero de oportunidades y problemas para que la Universidad se desarrolle académicamente, se beneficia al tener soluciones oportunas a sus necesidades, proporcionando las condiciones adecuadas para la convivencia, la justicia, la libertad, la vida, las oportunidades sociales y el desarrollo humano. Entre Ciencia e Ingeniería La manifestación más accesible y durable de la actividad de investigación y el medio por excelencia para la difusión del conocimiento es la publicación científica. De esta manera “Entre Ciencia e Ingeniería” quiere hacer un aporte con su publicación periódica para la continua renovación de teorías, prácticas y un acercamiento a la verdad difundiendo el quehacer científico y su posibilidad de inserción en los contextos industriales, económicos, sociales y culturales. Por lo tanto, los escritos referidos a esta revista deben mantener el rigor propio de la ciencia, y enfocarse en los recientes desarrollos en ciencia e ingeniería, sus tendencias, validaciones y alcances. La producción de “Entre Ciencia e Ingeniería” se respalda con un comité editorial, un arbitraje nacional o internacional, una periodicidad de dos números en el año y con la publicación de resultados originales de proyectos de investigación. Guía para autores La revista “Entre Ciencia e Ingeniería”, está dirigida a la comunidad académica, científica y sociedad en general interesadas en el desarrollo de la ciencia y la ingeniería, mediante la divulgación de trabajos de reflexión y de investigación básica, aplicada y en educación en estas áreas. Tipos de artículos admitidos La revista evaluará las clases de artículos aceptados por Colciencias a saber: • Artículo de investigación científica y tecnológica. Documento que presenta, de manera detallada, los resultados originales de proyectos de investigación terminados. La estructura generalmente utilizada contiene cuatro apartes importantes: introducción, metodología, resultados y conclusiones. • Artículo de reflexión. Documento que presenta resultados de investigación terminada, desde una perspectiva analítica, interpretativa o crítica del autor, sobre un tema específico, recurriendo a fuentes originales. • Artículo de revisión. Documento resultado de una investigación terminada donde se analizan, sistematizan e integran los resultados de investigaciones publicadas o no publicadas, sobre un campo en ciencia o tecnología, con el fin de dar cuenta de los avances y las tendencias de desarrollo. Se caracteriza por presentar una cuidadosa revisión bibliográfica de por lo menos 50 referencias. 127 •Discusión. Posiciones críticas, analíticas e interpretativas sobre los documentos publicados en la revista, que a juicio del comité editorial constituyen un aporte importante a la discusión del tema por parte de la comunidad científica de referencia. •Respuesta. Documento que responde a un escrito de discusión. Es realizado por el autor del artículo que suscitó el debate. De la recepción y evaluación de artículos • Los autores deben enviar su trabajo al comité editorial de la revista, dirección electrónica [email protected]. co, adjuntando los siguientes formatos debidamente diligenciados: ficha del autor(es), ficha del proyecto y carta de originalidad. • El comité editorial verifica si el documento es pertinente con la identidad y objetivo de la revista, dado su cumplimiento, se somete a una evaluación de carácter disciplinar y de estilo, para su valoración respectiva. • El evaluador disciplinar, dará su opinión especializada sobre el artículo, siendo este un académico con formación disciplinar adecuada para garantizar el rigor académico, la pertinencia y la calidad del mismo; el evaluador de estilo es un académico competente en procesos de lectura y escritura, quien revisará la redacción, ortografía, cohesión y coherencia del escrito. Cada uno de ellos informará por escrito, en formatos establecidos, al comité editorial su consideración respecto a si el artículo es apto o no para su publicación o si requiere correcciones. • Si el documento no es aceptado en primera instancia por el comité editorial, se informa al autor para que este pueda disponer del artículo. documento al comité editorial. Los evaluadores verifican las correcciones y le sugiere al comité si el artículo puede o no ser publicado. • Si el documento no es aceptado después de los resultados del arbitramiento se informa al autor para que pueda disponer del artículo. • Si un artículo es rechazado, la revista tiene como política no reconsiderar la decisión. • El autor debe hacer una revisión final al artículo impreso en el machote de la revista o en PDF, el cual se enviara vía correo electrónico. Del autor • El autor corresponsal, se considera que actúa de buena fe en representación de todos los autores del escrito y se somete con responsabilidad a garantizar la originalidad del trabajo y de no presentar en forma simultánea el documento a otra publicación en un lapso de 12 meses, a menos que sea rechazado en esta revista. • El autor corresponsal, en nombre de los coautores, con pleno poder otorgado por ellos, cede a la Universidad Católica de Pereira los derechos para la publicación del artículo en todos los idiomas y en todos los medios posibles de divulgación. • Al someter un artículo, el o los autores aprueban la publicación en papel y electrónica de su obra en la revista “Entre Ciencia e Ingeniería”, ISSN 1909-8367, en caso de ser aprobado por los evaluadores y el comité editorial. • Los juicios emitidos por el autor o los autores del artículo son de su entera responsabilidad. Por eso, no comprometen ni las políticas de la Universidad Católica de Pereira, ni las de la revista. • Los autores se hacen responsables de garantizar los derechos de autor, de todo el material utilizado en el artículo. • Los evaluadores desconocen los nombres de los autores y viceversa. • Con base en los resultados de las evaluaciones suministradas por los evaluadores, el escrito: - Se rechaza para publicación, en el caso de que alguno de los dos evaluadores o ambos consideren que el artículo no cumple con las condiciones para ser publicado. - Se debe corregir y enviar nuevamente a evaluación, en el caso de que uno o ambos árbitros consideren que se deben realizar modificaciones. - Se acepta para publicación, si ambos evaluadores consideran que el artículo cumple con las condiciones requeridas para tal fin. • Cuando el documento requiere correcciones, los autores las realizan o deciden retirar el artículo de la convocatoria. Al realizar las correcciones, retornan el • En cada edición solo se someterá a evaluación un solo artículo por autor. Del artículo • Los artículos para publicación deberán ser inéditos y exclusivos para la revista. • Se aceptan trabajos en español o inglés. Prevaleciendo las normas y el buen uso del idioma empleado. • La extensión mínima del artículo es de 6 páginas y la máxima de 8, siguiendo el formato y las normas respecto Universidad Católica de Pereira 128 a imágenes, referencia, tablas y demás de la IEEE, de acuerdo a la plantilla de la revista que se envía a los autores. Reglas para el formato de los artículos – Presentación Gráfica (seguir las plantillas/ModeloArtículo presentado) Nota: Importante cumplir con estas normas para que su artículo sea recibido. hasta un máximo de 10, que ayuden a identificar los temas o aspectos principales del artículo. 7. Título de sección en Times New Roman 10, en letras versalitas y numeradas con números romanos (I. Introducción). E ste documento proporciona un ejemplo de diseño de edición de un artículo técnico en español para la Revista IEEE América Latina. Es una plantilla hecha con el…… 1.Los artículos deben enviarse en formato Microsoft Word. Debe elegirse un tamaño de página Letter de 215,9×279,4 mm (8,5×11 pulgadas o 51×66 picas) con márgenes superior, inferior, izquierdo y derecho de 16,9 mm (0,67 pulgadas o 4 picas) y doble columna con separación central de 4,3 mm (0,16 pulgadas o 1 pica), lo que da una columna de 88,9 mm (3,5 pulgadas o 21 picas) mm de ancho y 245,6 mm de alto (9,66 pulgadas o 58 picas). El interlineado adoptado es de 1,05 puntos, pudiendo variarse de 1,03 a 1,07 para ayudar a completar páginas 8. La primera letra de la primera palabra del primer párrafo (de la Introducción) debe ser capitular de tamaño de dos líneas. Ejemplo: 2. Para los artículos en español (el título, resumen y palabras clave deben estar en español, inglés y portugués), Times New Roman, tamaño 9 en color negro (incluyendo enlaces y correos). Los artículos también se reciben en inglés o portugués. TABLA I TAMAÑOS Y ESTILOS DE LA LETRA TIMES NEW ROMAN EMPLEADA EN LA COMPOSICIÓN DE UN ARTÍCULO CON ESTA PLANTILLA O SIN ELLA 3. El artículo debe tener un promedio de seis a ocho (6-8) páginas, sin contar referencias. 9. El contenido del artículo en Times New Roman 10. Cada párrafo comienza con tabulación de 5 espacios (sangría), No hay espacios entre párrafos. 10.Título de las tablas en Times New Roman 8, mayúsculas y con números romanos (TABLA I debajo NOMBRE DE LA TABLA.). ejemplo: 11.La leyenda de las figuras deben ser escritas “Fig. 1. xxx “, justificada a la izquierda en Times New Roman 8, terminando con el punto; para citar las figuras en el cuerpo del artículo, usar “ Fig. 1”. Ejemplo: 4. Título del artículo en español, en inglés y en portugués, Times New Roman tamaño 18 y centrado, ejemplo: Plantilla de preparación de artículos técnicos en procesador de texto word (Microsoft) 5. Los nombres de los autores debe venir justo debajo del título, en Times New Roman tamaño 11, en el formato. Iniciales de los nombres seguido de punto con espacio entre ellos y seguido del primer apellido completo. Ejemplo, Juan Luis Arias Vargas (J. L. Arias) 6. Los Abstract (Un breve resumen del artículo) y Key Words (palabras que permitan identificar la temática del artículo) deben ponerse en español y en inglés, cursiva y negrita, seguidas de un guión largo (—, ALT+0151) sin espacio (Abstract— Key Words— ); el texto debe contener un párrafo escrito en negrita, en español, inglés y portugués todos en Times New Roman 9 y en negrilla. El resumen no debe pasar de 150 palabras y no puede contener ecuaciones, figuras, tablas ni referencias. Se debe proporcionar palabras clave (en orden alfabético), Entre Ciencia e Ingeniería Fig. 1. Inducción magnética en función del campo magnetizante. (Nótese que “Fig.” se ha escrito abreviada y hay doble espacio antes del texto) 12.Las ecuaciones deben ser justificadas a la izquierda y numeradas con números arábigos entre paréntesis justificado a la derecha. 13.El título del apéndice debe ser centrado y cada uno de los apéndices justificado a la izquierda, con la etiqueta Apéndice A: xxx, Apéndice B: xxx. 129 14.Las secciones Referencias y Agradecimientos no se numeran, tipo de letra Times New Roman, tamaño 8, y debe seguir exactamente el modelo IEEE es decir, numeradas en orden de aparición y de acuerdo al tipo de documento que se esté referenciando (ver el modelo para cada tipo de documento: libros, artículos, mpaginas web etc). Dentro del documento aparece por ejemplo [1] y al final en la sección de REFERENCIAS el formato debe ser: [1] [2] [3] J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics on power distribution system protection,” IEEE Trans. Power Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988. E. H. Miller, “A note on reflector arrays,” IEEE Trans. Antennas Propagat., to be published. R. J. Vidmar. (1992, Aug.). On the use of atmospheric plasmas as electromagnetic reflectors. IEEE Trans. Plasma Sci. [Online]. 21(3), pp. 876-880. Disponible en: 1 Producto derivado del proyecto de investigación “X-NOMBRE PROYECTO-XXXX”. Presentado por el Grupo de Investigación X-NOMBRE GRUPO DE INVESTIGACIÓN-XXXX, de la facultad o departamento XX-NOMBRE DE LA FACULTAD-XXXX, de la Universidad XXX-NOMBRE DE LA UNIVERSIDAD-XXXX. J.L. Vargas, Magister XXXX, Docente de la Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. J. V. Pedraza, PhD XXXX, Docente de la Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. M. Ruiz, Magister XXXX, Docente de la Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. Nota: en la página web de la revista http://biblioteca.ucp.edu. co/OJS/index.php/entrecei, puede encontrar y bajar todos los formatos y guía para autores. 15.El artículo debe tener las Biografías de los autores al final, seguir el formato definido en el modelo, la foto es obligatoria. Deben venir después de las referencias, sin título de sección, con tipo de letra Times New Roman 8. Los nombres de los autores con apellidos, en negrita. Ejemplo: Nikola Tesla (M’1888, F’17) nació en Smiljan, Yugoslavia, el 9 de Julio de 1856. Se graduó en la Escuela Politécnica Austriaca de Graz y estudió en la Universidad de Praga. Ejerció profesionalmente en la American Telephone Company de Budapest, la Edison Machine Works, la Westinghouse Electric Company y los Laboratorios Nikola Tesla. Entre sus campos de interés estaban los fenómenos de alta frecuencia. El ingeniero Tesla recibió títulos honoríficos de diversas instituciones de enseñanza superior entre las que se encuentran las universidades de Columbia, Yale, Belgrado y el Zagreb. Obtuvo la Medalla Elliott Cresson del Instituto Franklin y la Medalla Edison del IEEE. En 1956, el término “tesla” (T) fue adoptado como unidad de inducción magnética, o densidad de flujo magnético, del sistema de medidas MKSA. En 1975 la Power Engineering Society estableció el Premio Nikola Tesla en su honor. Tesla murió en Nueva York el 7 de enero de 1943. 16.Si el artículo es resultado de investigación debe llevar un pie de página en la primera hoja columna de la izquierda, indicando: el nombre del proyecto del cual se deriva, la facultad o departamento, la institución y el grupo de investigación al cual pertenece, en letra Times New Román tamaño 8. Al igual que en el contenido del artículo cada párrafo comienza con tabulación de 5 espacios. Y no hay espacios entre párrafos. El tamaño de interlineado es 1.0. Seguido debe llevar como pie de página en la primera hoja columna izquierda, la información de los autores en la cual se mencione: Los nombres tal como aparecen en la parte superior (Iniciales del nombre y el primer apellido completo), seguido de la afiliación laboral, ciudad-País y correo electrónico Ejemplo: Universidad Católica de Pereira 130 “Entre Ciencia e Ingeniería” Magazine Policies Magazine identity and objective Entre Ciencia E Ingeniería (Between science and Engineering) is a Magazine of Universidad Católica de Pereira which aims is to contribute to the development in Basic Science and Engineering of articles that show the advance and condition of the knowledge, the technique and the technology and the training in these areas. Science and Technology are considered to be a product of the intelligence and they are in the service of mankind for its benefit and welfare, they are an authentic and indisputable sample of its humanity, of its anxious, insightful, adventurous and explorative nature of its reality, which has allowed it to survive through time, to be promoted and to differ from other species; even more when the knowledge has blown up with the creativity allowing mankind to design tools, to displace through the night, during the day or to transform nature. But the exercise of Science and Technology entrails repercussions (sometimes unexpected). New ways of doing and thinking can improve the conditions of life or even threaten living beings and their habitat. Thus: The more human beings know reality and the world the more he knows about himself in his uniqueness, the question about the meaning of things and human’s self-existence becomes more urgent. Science and engineering conceive the world as comprehensive, with rules governing its functioning and which are demonstrated through careful and systematic study. They can be evidenced by constant patterns that allow to examine the fundamental characteristics that best describe the phenomena and how they relate, it would be possible to learn more about the world, its evolution, its transformations, adjustments and future behavior. In the search of the truth there are aspects that are prioritized because of the context in which the Universidad Católica de Pereira is placed, the perception from and to the region allows updating and having a preparation on the world stage so that parallels can be set with the development of Science and Engineering in the world. Additionally, this perception is developing a two-way relationship; while the region poses countless opportunities and challenges for the University to develop academically, it benefits from having suitable solutions to their needs, providing the right for living conditions, justice, freedom, life, social opportunities and human development. The manifestation regarding the durability and accessibility of the research and the means par excellence for the dissemination of knowledge manifestation is called Entre Ciencia e Ingeniería scientific publication. Thus, the Magazine wants to make a contribution with its scientific publication for the continuous renewal of theories, practices and an approach to spreading scientific work and the possibility of integration into industrial, economic, social and cultural contexts. Therefore, the writings referred to this magazine must maintain the rigor of science, and focus on recent developments in Science and Engineering, trends, validations and scope. Production of this Magazine is supported by an editorial committee, a national or international arbitration, a periodicity of two numbers in the year and the publication of original results of research projects. Guide for Authors The Magazine entre Ciencia e Ingeniería, is aimed at the academic community, science and society interested in the development of Science and Engineering, through the dissemination of works of reflection and basic research, applied research and education in these areas. Authorized Articles The magazine will evaluate the kinds of articles accepted by Colciencias: • Article of scientific and technological research. Document presents, in detail, the original results of research projects completed. The structure generally used contains four important sections: introduction, methodology, results and conclusions. • Article of reflection. Document that presents results of completed research, from an analytical perspective, interpretive or criticism of the author on a specific topic, resorting to original sources. • Review Article. Document of a completed research where the findings of published or not published articles are analyzed, systematized and integrated on the field of science or technology, in order to give an account of the progress and trends of development. It is characterized by a careful review of the literature of at least 50 references. • Discussion. Critical positions, analytical and interpretive on the documents published in the magazine, which in the opinion of the Editorial Committee constitute an important contribution to the discussion of the item on the part of the scientific community of reference. • Response. Document that responds to a writing of 131 discussion. It is done by the author of the article that started the debate. Receipt and evaluation of articles • The authors should send their work to the editorial committee of the Magazine, to the email address [email protected], attaching the following formats duly completed: tab of the author(s), tab of the project and charter of originality. • The editorial committee verifies if the document is relevant to the identity and purpose of the Magazine, given its compliance, it is subjected to an assessment of disciplinary research for its due assessment. • The disciplinary evaluator (considered as a trained academic with appropriate discipline) will give his/her expert opinion on the article to ensure the academic rigor, the relevance and its quality; the evaluator of style is an academic authority in the process of reading and writing, who will review the drafting, spelling, cohesion and coherence of the writing. Each one of them will inform in writing, through established formats, the editorial committee consideration as to whether the article is suitable or not for publication or whether corrections are required. • If the document is not accepted at first instance by the editorial committee, the author is informed so that he or she disposes of the article. • The evaluators are unaware of the authors’ names and vice versa. • Based on the evaluations results provided by the evaluators, the writing: - Is rejected for publication, in the case that any of the two evaluators or both consider that the article does not comply with the conditions to be published. - Must be corrected and send back to evaluation, in the event that one or both arbitrators consider that changes need to be made. - Is accepted for publication, if both evaluators consider that the article meets the conditions required for this purpose. • When the document requires corrections, the authors make corrections or decide to remove the article of the call. When corrections are made, the author must return the document to the editorial committee. The evaluators verified the corrections and suggest to the Committee if the article may or may not be published. • If an article is rejected, the magazine has as a policy no to reconsider the decision. • The author must make a final revision to the article printed in the dummy of the magazine or in PDF, which is sent via email. The author • The corresponding author, is considered to act in good faith on behalf of all authors and submitting responsibly. Ensuring the authenticity of the work and it must not be presented simultaneously to another publication in a period of 12 months, unless it is rejected in this Magazine. • The corresponding author on behalf of the sponsors, with full power granted by them, gives the Universidad Católica de Pereira the rights for the publication of the article in all languages and all possible means of disclosure. • When submitting an article, the author or the authors approve the paper and electronic publication of his/ her work in the entre Ciencia e Ingeniería Magazine, ISSN 1909-8367, if approved by the evaluators and the editorial committee. • The judgments issued by the author or authors of the article are their entire responsibility. Therefore, do not commit neither the policies of the Universidad Católica de Pereira, nor those of the Magazine. • The authors are responsible for ensuring the copyright of all the material used in the article. • Only a single article per author will be evaluated in each edition. Article Guide • Articles for publication must be unpublished and exclusive for the Magazine. • Works in Spanish, Portuguese or English are accepted. Prevailing standards and appropriate language use. • The minimum extension of the article is 6 pages and a maximum of 8, following the format and rules with regard to images, reference, tables and other of the IEEE, according to the template for the article to be sent to the authors. • If the document is not accepted after the results of the arbitration the author must be informed so that the composer can dispose of the article. Universidad Católica de Pereira 132 Format rules for the articles - Graphical presentation (follow the Templates/Model-Article submitted) Note: Important to comply with these rules so that the article can be received. 1. The articles must be sent in Microsoft Word format. A page letter size of 215.9×279.4 mm (8.5×11 inches or 51×66 picas) with top, bottom, left and right margins of 16.9 mm (0.67 inch or 4 picas) and double column with central separation of 4.3 mm (0.16 inch or 1 pic) must be chosen, which gives a column of 88.9 mm (3.5 inches or 21 picas) wide and 245, 6 mm high (9.66 inches or 58 picas). The line spacing adopted is 1.05 points, it can vary from 1.03 to 1.07 to help complete pages. T his document provides an example of an edition design of a technical article in Spanish for the IEEE Latin American Magazine. It is a template made with the… 9. Content of the article in Times New Roman 10. Each paragraph begins with tabulation of 5 spaces (indent), there are no spaces between paragraphs. 10.Title of the tables in Times New Roman 8, uppercase and with Roman numerals (table I below the table name.). Example: Table i Sizes and styles of the times new roman font used in the composition of an article with this template or without it 2. Articles in Spanish (the title, abstract and key words must be in Spanish, in English and in Portuguese), Times New Roman, size 9, black color (including links and mails). The articles are also received in English or Portuguese. 11. Figures caption must be written “Fig. 1. Xxx “, left aligned in Times New Roman 8, ending with a period; to cite figures in the article´s body, use “Fig. 1”. Example: 3. The article must have an average of six to eight (6-8) pages excluding references. 4. Title of the article in Spanish, in English and Portuguese: Times New Roman, size 18 and text centered, example: Template for the preparation of technical articles in Microsoft Office Word processor 5. The authors’ names must be just below the title, in Times New Roman size 11, in the format. Initials for the names followed by period with space between them and followed by the surname. Example, Juan Luis Arias Vargas (J. L. Arias) 6. The Abstract (a brief summary of the article) and key words (words that allow us to identify the topic of the article) must be in Spanish, Portuguese and English, italic and bold, followed by a dash (-, ALT 0151) without any space (Abstract- Key Words-); the text must contain a paragraph written in bold, in Spanish, English and Portuguese all in Times New Roman, size 9. The summary must not exceed 150 words and cannot contain equations, figures, tables, or references. You must provide keywords (in alphabetical order), up to a maximum of 10, to help identify the issues or main aspects of the article. 7. Section Title in Times New Roman 10, in Versalita, and numbered in Roman numerals (I. Introduction). 8. The first word letter, in the first paragraph (Introduction) must be equivalent to two lines size. Example: Entre Ciencia e Ingeniería Fig. 1. Magnetic Induction in function of the magnetized field. (Notice that “Fig.” has been written abbreviated and there is double space before the text) 12. The equations must be justified to the left and numbered with Arabic numerals in parentheses right justified. 13. The title of the appendix must be text centered and each of the Appendices left-justified, with the label Appendix A: xxx, Appendix B: xxx. 14. The sections REFERENCES and ACKNOLEDGEMENTS are not numbered, Times New Roman font, size 8, and must follow exactly the IEEE model i.e., numbered in order of appearance and according to the type of document you are referencing (see the model for each type of document: books, articles, web pages, etc.) There is for example [1] within the document and at the end in the REFERENCES section format must be: 133 [1] [2] [3] J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics on power distribution system protection,” IEEE Trans. Power Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988. E. H. Miller, “A note on reflector arrays,” IEEE Trans. Antennas Propagat., to be published. R. J. Vidmar. (1992, Aug.). On the use of atmospheric plasmas as electromagnetic reflectors. IEEE Trans. Plasma Sci. [Online]. 21(3), pp. 876-880. Disponible en: Note: on the Magazine web page: http://biblioteca.ucp.edu. co/OJS/index.php/entrecei, you can find and download all formats and guide for authors. The Editorial Committee 15. The article must have the Biographies of the authors at the end, follow the format defined in the model, the photo is mandatory. It must come after the references, without section title, typed in Times New Roman 8. The authors’ names with surnames, in bold. Example: Nikola Tesla (M’1888, F’17) was born in Smiljan, Yugoslavia, on July 9, 1856. He graduated from the Austrian Polytechnic School in Graz and studied at the University of Prague. He worked professionally in the American Telephone Company of Budapest, the Edison Machine Works, the Westinghouse Electric Company and Nikola Tesla Laboratories. The high-frequency phenomena was one of his areas of interest. Engineer Tesla received honorary degrees from various institutions of higher education including universities such as Columbia, Yale, Belgrade and Zagreb. obtained the Elliott Cresson Medal in Franklin Institute and the IEEE Edison Medal. In 1956, the term “tesla” (T) was adopted as a unit of magnetic induction or magnetic flux density, the system measures MKSA. In 1975 the Power Engineering Society established the Nikola Tesla Award in his honor. Tesla died in New York on January 7, 1943. 16. If the article is the result of a research a footer must be done on the first page column on the left, indicating: the name of the project from which it is derived, the faculty or department, the institution and the research group to which it belongs, in Times New Roman size 8. As well as in the content of the article each paragraph begins with tabulation of 5 spaces. And there are no spaces between paragraphs. The size of line spacing is 1.0. The information of the authors must be mentioned in a footer on the first page left column this way: The names as they appear in the top (initials for the names and the first full last name), followed by the labor affiliation, city-country and email, example: 1 Product derived from a research project “X-PROJECT NAME-XXXX”. Submitted by the Research Group X-NAME RESEARCH GROUP-XXXX, of the faculty or department XX NAME OF FACULTY-XXXX, University XX-NAME OF THE UNIVERSITY-XXXX. J. L. Vargas, Magister XXXX, teaching of Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. J. V. Pedraza, PhD XXXX, teaching of Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. M. Ruiz, Magister XXXX, teaching of Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. Universidad Católica de Pereira 134 Politicas da Revista entre Ciência e Engenharia Identidade e objetivo da revista “Entre Ciência e engenharia” é uma revista da Universidade Católica de Pereira que tem por objetivo contribuir para o desenvolvimento em ciência básica e engenharia através da divulgação de artigos que dão conta do progresso e o estado de conhecimento, técnica, tecnologia e formação nestas áreas. A ciência e a tecnologia se consideram produto da inteligência e estão a serviço do homem para seu próprio beneficio e bem estar. São provas irrefutáveis, inegável de sua humanidade, e natureza astuta, inquieta, aventureira e explorador de sua realidade, o que lhe permitiu sobreviver, fortalecer e diferenciar-se de outras espécies ainda mais quando se forjou conhecimento com criatividade permitindo-lhe projetar ferramentas, trocar a noite pelo dia ou transformar a natureza. Mas o exercício da ciência e a tecnologia envolvem repercussões, algumas vezes inseparáveis. As novas formas de fazer e pensar podem melhorar as condições da vida ou também ameaçar os seres vivos e seu habitat, por isso: quanto mais conscientes da realidade e do mundo, o homem sabe mais de sua própria singularidade, mais urgente é a questão sobre o significado das coisas e sua própria existência. A ciência e a engenharia tem o mundo como compreensível, com regras que regem seu funcionamento nas quais mediante um estudo cuidadoso e sistemático podem evidenciar padrões consistentes que possibilitam examinar as características fundamentais que melhor descrevam os fenômenos e a maneira que se relacionam, será possível conhecer mais o mundo, sua evolução, suas transformações, adaptações e comportamentos futuros. Na busca da verdade existem aspectos que se priorizam devido ao contexto que está inserida a Universidade Católica Popular de Risaralda, o olhar a partir e até o regional permite a atualização e preparação no cenário mundial, pois pode estabelecer paralelos com o desenvolvimento da ciência e a engenharia no mundo. Além disso, esta visão desenvolve uma relação bidirecional; enquanto a região planteia um incontável numero de oportunidades e problemas para que a Universidade se desenvolva academicamente, beneficiando por ter soluções oportunas para suas necessidades, fornecendo as condições para a convivência, justiça, liberdade, vida, oportunidades sociais e desenvolvimento humano. A manifestação mais acessível e durável da atividade de investigação e o meio por excelência para a difusão do conhecimento é a publicação cientifica. Desta maneira “Entre Ciência e Engenharia” quer fazer uma contribuição com sua publicação periódica para a contínua renovação de teorias, praticas e uma aproximação à verdade difundindo o trabalho cientifica e sua possibilidade de inserção nos contextos industriais, econômicos, sociais e culturais. Entre Ciencia e Ingeniería Portanto, os escritos referidos esta revista devem manter o rigor da ciência e focar desenvolvimentos recentes na ciência e engenharia, suas tendências, validações e alcances. A produção de “Entre Ciência e Engenharia” é apoiado por um comitê editorial, uma arbitragem nacional ou internacional, uma periodicidade de dois números no ano e com a publicação de resultados originais de projetos de investigação. Guia para autores A revista “Entre Ciência e Engenharia”, está dirigida para a comunidade acadêmica, cientifica e sociedade em geral interessadas no desenvolvimento da ciência e a engenharia, mediante a divulgação de trabalhos de reflexão e de investigação básica, aplicada e também educação nestas áreas. Tipos de artigos aceitos A revista avaliará as classes de artigos aceitados por Colciencias, a saber: · Artigo de pesquisa científica e tecnológica. Documento que apresenta, de maneira detalhada, os resultados originais de projetos de investigação terminados. A estrutura geralmente utilizada contem quatro partes importantes: introdução, metodologia, resultados e conclusões. · Artigo de reflexão. Documento que apresenta resultados de uma investigação terminada desde uma perspectiva analítica, interpretativa ou critica do autor, sobre um tema especifico, recorrendo a fontes originais. · Artigo de revisão. Documento resultado de uma investigação terminada onde se analisam, sistematizam e integram os resultados de investigações publicadas, sobre um campo em ciência ou tecnologia, com a finalidade de explicar os avanços e as tendências do desenvolvimento. Caracteriza-se por apresentar uma cuidadosa revisão bibliográfica de pelo menos 50 referencias. ·Discussão. Posição crítica, analíticas e interpretativas sobre os documentos publicados na revista, que a julgamento do comitê editorial constituem um fundamento importante à conclusão do tema por parte da comunidade de referência. ·Resposta. Este documento responde a um anúncio de discussão. É feito pelo autor do artigo que desencadeou o debate. Recepção e avaliação de artigos 135 · Os autores devem enviar seu trabalho ao comitê editorial da revista, para o e-mail [email protected], anexando os seguintes formatos devidamente preenchidos: ficha do autor (es), ficha do projeto e carta de originalidade. submete com responsabilidade a garantir a originalidade do trabalho e do não apresentar em forma simultânea documento a outra publicação em um lapso de 12 meses, a menos que seja rejeitado nesta revista. O comitê editorial verifica se o documento é relevante com a identidade e o objetivo da revista, dado cumprimento, passa por uma avaliação da disciplina de caráter e estilo, para sua respectiva avaliação. · O autor correspondente, em nome dos coautores, com pleno poder outorgado por eles, cede a Universidade Católica de Pereira os direitos para a publicação do artigo em todos os meios possíveis de divulgação. · O avaliador disciplinar dará sua opinião especializada sobre o artigo, sendo este um acadêmico com formação disciplinar adequada para garantir o rigor acadêmico, a pertinência e a qualidade do mesmo; o avaliador de estilo é um acadêmico competente em processos de leitura e escritura, quem revisará a redação, ortografia, coesão e coerência do escrito. Cada um deles informará por escrito, em formatos estabelecidos, ao comitê editorial sua consideração a respeito se o artigo é apto ou não para sua publicação ou se requer correções. · Ao submeter um artigo, o autor o autores aprovam a publicação em papel e eletrônica de sua obra na revista “Entre Ciência e Engenharia”, ISSN 1909-8367, em caso de ser aprovado pelos avaliadores e o comitê editorial. · Se o documento não é aceito no primeiro instante pelo comitê editorial, se informa ao autor para que este possa despor do articulo. · Os avaliadores desconhecem os nomes dos autores e vice-versa. · Os julgamentos emitidos pelo autor ou autores dos articulo são de sua inteira responsabilidade. Por isso, não comprometem nem as politicas da Universidade Católica de Pereira, nem as da revista. · Os autores são responsáveis por garantir o copyright de todo o material utilizado no artigo. · Em cada edição só se submeterá a avaliação de único artigo pelo autor. Do artigo · Com base nos resultados das avaliações subministradas pelos avaliadores, os escrito: · Os artigos para a publicação deverão ser inéditos e exclusivos para a revista. - Rejeita-se para a publicação. No caso de que algum dos avaliadores ou ambos considerem que o articulo não compre com as condições para ser publicado. · Aceitam-se trabalhos em espanhol, português ou inglês. Prevalecendo as normas e o bom uso do idioma empregado. - Deve-se corrigir e enviar novamente a avaliação, no caso de que um dos ou ambos os árbitros considerem que se devem realizar modificações. · A extensão mínima do artigo é de seis (6) páginas e máxima oito (8), seguindo o formato e as normas a respeito a imagens, referencia, tabelas e demais da IEEE, de acordo com o modelo do artigo que se envia para os autores. - É aceito para publicação, se ambos os avaliadores consideram que o artigo satisfaz as condições necessárias para esse efeito. · Quando o documento requer correções, os autores as realizam ou decidem retirar o artigo da convocatória. Ao realizar as correções, retornam o documento ao comete editorial. Os avaliadores verificam as correções e sugere ao comitê se o artigo pode ser publicado ou não. · Se o documento não é aceito depois dos resultados do arbitramento se informa ao autor pode ter o artigo. · Se um artigo é rejeitado, a revista tem como política não aceitar reconsiderar a decisão. · O autor deve fazer uma revisão final do artigo impressa no modelo da revista o em PDF, o qual se enviara via correio eletrônico. Do autor · O autor correspondente se considera que atua de boa fé em representação de todos os autores do escrito e Regras de formatação de artigos – apresentação gráfica (seguir o modelo – Artigo apresentado) Nota: é importante cumprir com essas normas para que seu artigo seja recebido 1. Os artigos devem ser enviados em arquivo Microsoft Word. Em tamanho Carta de 215,9×279,4mm (8, 5 × 11 polegadas ou 51 × 66 paicas) com margens superiores, inferiores, esquerda e direita 16,9 mm (0,67 polegadas ou 4 paicas) e coluna dupla com separação central de 4,3 mm (0,16 polegadas ou 1 paica), que resulta uma coluna de 88,9 mm (3,5 polegadas ou 21 paicas) mm largura e 245,6 mm de altura (9,66 polegadas ou 58 paicas). O espaçamento de linha adotado é 1,05 pontos e pode variar de 1,03 a 1,07 para ajudar a completar páginas. 2. Para artigos em espanhol (o título, resumo e palavraschaves devem ser em espanhol, inglês e Português), Times New Roman, preto tamanho 9 (incluindo links e e-mails). Itens também são recebidos em inglês ou em Português. Universidad Católica de Pereira 136 3. O artigo deve ter uma media de seis a oito (6-8) paginas, sem contar referências. 4. Titulo do artigo em espanhol, em inglês e em português, Times New Roman tamanho 18 e centrado, exemplo: Modelo de preparação de artigos técnicos em processador de texto Word (Microsoft) 5. Os nomes dos autores devem vir justo abaixo do titulo, em Times New Roman tamanho 11, no formato. Iniciais dos nomes seguido por pontos com espaço entre eles e seguido do primeiro sobrenome completo. Exemplo, Juan Luis Arias Vargas (J. L. Arias). 6. El abstract (um breve resumo do artigo) e Key Words (palavras que permitem identificar a temática do artigo) devem ser em espanhol, português e inglês, itálico e negrito, seguidas de um travessão largo (¾, ALT+0151) sem espaço (Abstract ¾ Key Words ¾); o texto deve conter um paragrafo escrito em negrito, em espanhol, português, e inglês todos em Times New Roman 9. O resumo não deve passar de 150 palavras e não pode conter equações, figuras, tabelas, nem referencias. Deve proporcionar palavras chave (em ordem alfabética), até um máximo de 10, que ajudem a identificar os temas ou aspectos principais do artigo. 7. Título de seção em Times New Roman 10, em versalete, e numeradas com números romanos (I. Introdução). 8. A primeira letra da primeira palavra do primeiro paragrafo ( da Introdução) deve ser capitular de tamanho de duas linhas. Exemplo: E STE documento proporciona um exemplo de projeto de edição de um artigo técnico em espanhol para a Revista IEEE América Latina. É um modelo feito com o... 9. O conteúdo do artigo em Times New Roman 10. Cada parágrafo começa com guia de 5 espaços (sangria), não tem espaços entre parágrafos. 10. Título das tabelas em Times New Roman 8, maiúsculas e com números romanos (TABELA I abaixo NOME DA TABELA). Exemplo: Fig. 1. Introdução magnética em função do campo magnetizante. (Nota-se que “Fig.” Foi escrita abreviada e tem duplo espaço antes do texto) 12. As equações devem ser justificadas à esquerda e numeradas com números árabes entre parêntesis justificado à direita. 13. O titulo do apêndice deve ser centrado e cada um dos apêndices justificados à esquerda, com a etiqueta Apendice A: xxx, Apendice B: xxx. 14. As seções Referencias e agradecimentos não se numeram, tipo de letra Times New Roman, tamanho 8 e deve seguir exatamente o modelo IEEE ou seja, numeradas em ordem de aparição e de acordo com o tipo de documento que esteja se referindo (ver o modelo para cada tipo de documento: livros, artigos, paginas web, etc.). Dentro do documento aparece por exemplo [1] e al final na seção de REFERENCIAS o formato deve ser: [1] [2] [3] 15. O artigo deve ter as Biografias dos autores no final, seguir o formato definido no modelo, a foto é obrigatória. Deve vir depois das referências, sem titulo de seção. com tipo de letra Times New Roman 8. Os nomes dos autores com sobrenomes, em negrito. Exemplo: tabla I taManhos e estIlos de letra tIMes new roMan eMpregada na coMposIÇÃo de uM artIgo coM este Modelo ou seM ele 11. As legendas das figuras devem ser escritas “FIG. 1. xxx”, justificada à esquerda em Times New Roman 8, terminando com o ponto; para citar as figuras no corpo do artigo, usar “Fig. 1”. Exemplo: O Entre Ciencia e Ingeniería J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “influence of harmonics on power distribution system protection.” IEEE Trans. Power Delivery, vol. 3, no.2, pp. 549-557. Apr. 1988. E. H. Miller, “A note on reflector arrays,” IEEE Trans. Antennas Propagat, to be published. R. J. Vidmar. (1992, Aug.). On the use of atmospheric plasmas as electromagnetic refletors. IEEE Trans.Plasma Sci. [Online]. 21(3), pp. 876-880. Disponible en: Nikola Tesla (M’ 1888, F’17) nasceu em Smiljan, Yugoslavia, 9 de julho de 1856. Se graduou na Escola Politécnica Austríaca de Graz e estudou na Universidade de Praga. Exerceu profissionalmente na American Telephone Company de Budapeste, a Edson Machine Works, a Westinghouse Electric Company e os Laboratórios Nikola Tesla. Entre seus campos de interesse estavam os fenômenos de alta frequência. engenheiro Tesla recebeu títulos honrososde diversas instituições de aprendizagem superior entre as que se encontram as universidades de Columbia, Yale, Belgrado e Zagreb. Obteve a Medalha Elliot Cresson 137 do instituto Franklin e a Medalha Edison do IEEE. Em 1956, o termino “tesla” (T) foi adotado como unidade de indução magnético, ou densidade de fluxo magnético, do sistema de medidas MKSA. Em 1975 a Power Engineering Society estabeleceu o Premio Nikola Tesla em sua honra. Tesla morreu em Nova York, 7 de janeiro de 1943. 16. Se o artigo é resultado de investigações deve levar um pé de pagina na primeira folha na coluna da esquerda, indicando: o nome do projeto do qual se deriva, a faculdade ou departamento, a instituição e o grupo de investigação qual pertence, em letra Times New Roman tamanho 8. Igual que no conteúdo do articulo cada paragrafo com tabulação de 5 espaço. E não tem espaços entre parágrafos. O espaçamento entre linhas é de 1.0. Seguido deve levar como pé de pagina na primeira folha da coluna esquerda, a informação dos autores na qual mencione: os nomes como aparecem na parte superior (Iniciais dos nomes e o primeiro sobrenome completo), seguido da afiliação laboral, cidade-País e e-mail. Exemplo: ¹ Produto derivado do projeto de investigação “ X NOME DO PROJETO-XXXX”. Apresentado pelo grupo de investigação X-NOME GRUPO DE INVESTIGAÇÃO-XXXX, da faculdade ou departamento XX-NOME DA FACULDADE-XXXX, da Universidade XXX-NOME DA UNIVERSIDADE-XXXX. J. L. Vargas, Magister XXXX, ensino de Universidade Católica de Pereira, Pereira (Colombia); e-mail: [email protected]. J. V. Pedraza, PhD XXXX, ensino de Universidade Católica de Pereira, Pereira (Colombia); e-mail: [email protected]. M. Ruiz, Magister XXXX, ensino de Universidade Católica de Pereira, Pereira (Colombia); e-mail [email protected]. Nota: na pagina web da revista http://biblioteca.ucp.edu.co/ OJS/index.php/entrecei, pode encontrar e baixar todos os formatos e guia para autores. Comitê Editorial Universidad Católica de Pereira