Libro Científico Vol. I Ciencias Básicas e Ingeniería y Ciencias y Artes para el Diseño creatividad e innovación UNIVERSIDAD AUTÓNOMA METROPOLITANA DIRECTORIO Unidad Iztapalapa Dr. Salvador Vega y León Dr. José Gilberto Córdoba Herrera Rector General Director de la División de Ciencias Básicas e Ingeniería Mtro. Norberto Manjarrez Álvarez Dra. Edith Ponce Alquicira Secretario General Director de la División de Ciencias Biológicas y de la Salud Dr. Romualdo López Zarate Dra. Juana Juárez Romero Rector de la Unidad Azcapotzalco Director de la División de Ciencias Sociales y Humanidades Dr. Eduardo Abel Peñalosa Castro Rector de la Unidad Cuajimalpa Unidad Lerma Dr. José Octavio Nateras Domínguez Dr. Gabriel Soto Cortés Rector de la Unidad Iztapalapa Director de la División de Ciencias Básicas e Ingeniería Dr. Emlio Sordo Zabay Dra. Rina María González Cervantes Rector de la Unidad Lerma Director de la División de Ciencias Biológicas y de la Salud Dra. Patricia Alfaro Moctezuma Dr. Pablo Castro Domingo Rectora de la Unidad Xochimilco Directora de la División de Ciencias Sociales y Humanidades Unidad Azcapotzalco Unidad Xochimilco Dr. Luis Enrique Noreña Franco Mtro. Carlos Alfonso Hernández Gómez Director de la División de Ciencias Básicas e Ingeniería Director de la División de Ciencias Sociales y Humanidades Dr. Oscar Lozano Carrillo Mtra. María de Jesús Gómez Cruz Director de la División de Ciencias Sociales y Humanidades Director de la División de Ciencias y Artes para el Diseño Dr. Aníbal Figueroa Castrejón Mtro. Rafael Díaz García Director de la División de Ciencias y Artes para el Diseño Director de la División de Ciencias Biológicas y de la Salud Unidad Cuajimalpa Dra. Esperanza García López Director de la División de Ciencias de la Comunicación y Diseño Dr. Hiram Issac Beltrán Conde Director de la División de Ciencias Naturales e Ingeniería Dr. Rodolfo René Suárez Molnar Director de la División de Ciencias Sociales y Humanidades ©Avances de las Mujeres en las Ciencias las Humanidades y todas las Disciplinas. El Libro Científico Vol. I de Ciencias Básicas e Ingeniería y Ciencias y Artes para el Diseño. Es una publicación editada por la Universidad Autónoma Metropolitana Unidad Azcapotzalco. Av. San Pablo No. 180, Col. Reynosa Tamaulipas, Azcapotzalco, México, D.F. C.P. 02200. Teléfono Conmutador 53189000, http://www.uam.mx; Primera Edición noviembre de 2015. El Libro Científico Vol. I de Ciencias Básicas e Ingeniería y Ciencias y Artes para el Diseño, impreso, ISBN: 978607280712 9. El Libro Científico Vol. I de Ciencias Básicas e Ingeniería y Ciencias y Artes para el Diseño, versión electrónica ISBN 978607280715 0. TODOS LOS DERECHOS RESERVADOS noviembre de 2015. Queda estrictamente prohibida la reproducción total o parcial de los contenidos e imágenes de la publicación sin previa autorización de la ©Universidad Autónoma Metropolitana. Impreso en México por “Forma y Color”, Av. Cuauhtémoc No. 12, San Lorenzo Atemoaya. CP 16400, Xochimilco, México, D.F. Este número se terminó de imprimir el 25 de noviembre de 2015 con un tiraje de 200 ejemplares. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación, por lo que los artículos presentados son responsabilidad del autor. ii Agradecimiento especial por su apoyo para la edición de este libro: Rectores Unidad Iztapalapa Dr. Salvador Vega y León Dr. José Antonio de los Reyes Heredia Rector General Ex-Director de la División de Ciencias Básicas e Ingeniería Dr. Romualdo López Zarate Dr. José Gilberto Cordoba Herrera Rector de la Unidad Azcapotzalco Director de la División de Ciencias Básicas e Ingeniería Dr. Edueardo Abel Peñalosa Castro Dra. Edith Ponce Alquicira Rector de la Unidad Cuajimalpa Director de la División de Ciencias Biológicas y de la Salud Dr. José Octavio Nateras Domínguez Dra. Juana Juárez Romero Rector Unidad Iztapalapa Directora de la División de Ciencias Sociales y Humanidades Dr. Javier Velázquez Moctezuma Ex-Rector de la Unidad Iztapalapa Unidad Xochimilco Dr. Fernando de León González Unidad Azcapotzalco Ex-Director de la División de Ciencias Biológicas y de la Dr. Luis Enrique Noreña Franco Salud Director de la División de Ciencias Básicas e Ingeniería Dr. Oscar Lozano Carrillo Director de la División de Ciencias Sociales y Humanidades Dr. Aníbal Figueroa Castrejón Director de la División de Ciencias y Artes para el Diseño Mtro. Ernesto Noriega Estrada Jefe del Depto. de Procesos y Técnicas de Realización, CyAD Dr. Marco Vinicio Ferruzca Navarro Ex-Jefe del Depto. de Investigación y Conocimiento, CyAD Dr. David Elizarrarás Martínez Ex-Jefe del Departamento de Ciencias Básicas, CBI Dr. Jesús Isidro González Trejo Jefe del Departamento de Sistemas, CBI Unidad Cuajimalpa Dr. Rodolfo René Suárez Molnar Director de la División de Ciencias Sociales y Humanidades Dr. Hiram Isaac Beltrán Conde Director de la División de Ciencias Naturales e Ingeniería Dra. Esperanza García López Directora de la División Ciencias de la Comunicación y Diseño iii Comité Editorial Nacional Dictaminadores de la División de Ciencias Básicas e Ingeniería Dictaminadores de la División de Ciencias Biológicas y de la Salud Benemérita Universidad Autónoma de Puebla, Hospital de Especialidades, Unidad de Enfermadades Facultad de Ingeniería Química Neurológicas, CMN, S. XXI, IMSS, México Dr. José Alberto Galicia Aguilar Dra. Patricia Campos Bedolla Universidad Nacional Autónoma de México. Centro de Instituto Nacional de Neurología y Neurocirugía Investigaciones Interdisciplinarias en Ciencias y Humanidades “Dr. Manuel Velsaco Suárez” Dra. Ana María Sánchez Mora Dr. José Emilio Suárez Campos Universidad Autónoma Metropolitana Azcapotzalco Universidad Nacional Autónoma de México, Dr. Adolfo Hernández Moreno Instituto de Biología Dr. Alberto Rubio Ponce Dr. Agustín Quiroz Flores Dr. José Antonio Eduardo Roa Neri Dr. Jesús Isidro González Trejo Universidad Nacional Autónoma de México, Dr. Jorge Alfredo Esquivel Ávila Centro de Ciencias de la Atmósfera Dr. Victor Hugo Uc Rosas Dra. Ana Rosa Flores Márquez Universidad Autónoma Metropolitana Cuajimalpa Universidad Nacional Autónoma de México, Dr. Arturo Rojo Domínguez Hospital General de México, Clínica de sueño Dr. Rafael Santana Miranda Universidad Autónoma Metropolitana Iztapalapa Dr. José Luis Córdova Frunz Universidad Autónoma Metropolitana Iztapalapa Dra. Laura Galicia Luis Dra. Irene Barriga Sosa Dr. Manuel Aguilar Cornejo Dra. Leticia Bucio Ortiz Dr. Maximiliano Joel Asomoza Palacios Dr. Armando Ferreira Nuño Dra. Edith Cortés Barbarena Dra. Florina Ramírez Vives Dra. Enrique Canchola Martínez Dra. Dulce María Sánchez Díaz Lima iv Comité Editorial Nacional Dictaminadores de la División de Ciencias Sociales y Humanidades Dictaminadores de la División de Ciencias y Artes para el Diseño Instituto Politécnico Nacional Instituto Nacional de Rehabilitación Dra. Misaela Francisco Márquez Mtra. Rosa María Rodrígez Cervantes Universidad Autónoma Metropolitana, Xochimilco, Instituto Tecnologico de Estudios Superiores de Monterrey, Educación y Comunicación Campus Chihuahua Mtra. María Dolly Espínola Frausto Dra. Patricia Zamudio Roa Dra. Nathalie Desplans Puel Universidad Nacional Autónoma de México, Instituto de Investigaciones Económicas Universidad Anáhuac Dra. Alicia Girón González DG Jessica Ceballos Ordoñez Mtra. Patricia Rodríguez López Universidad de Ciencias y Artes de Chiapas Universidad Nacional Autónoma de México, Dra. Laura Hernández Pinto Programa Universitario de Estudios de Genero Dra. Lourdes Enríquez Rosas Unión de Universidades de América Latina y el Caribe Dra. María Osvelia Barrera Peredo Universidad Veracruzana Dr. José Luis Suárez Domínguez Universidad Iberoamericana, México Mtro. Edward Bermúdez Macías Universidad Nacional Autónoma de México, Instituto de Investigaciones Jurídicas Universidad Autónoma de Yucatán, Facultad de Ingeniería Dra. María Teresa Ambrosio Morales Mtra. Selene Audeves Pérez Universidad Nacional Autónoma de México, Universidad Autónoma Metropilitana Licenciatura en Ciencia Forense Mtro. Carlos García Malo Dra. Zoraida García Castillo Dr. Emilio Martínez de Velasco Dr. Eduardo Langagne Ortega Universidad Autónoma Metropolitana Azcapotzalco Mtro. Luis Rocha Chíu Dr. Adrián de Garay Sánchez Dr. Marco Antonio Marín Álvarez Dra. Guadalupe Huerta Moreno Dra. Martha Tappan Velázquez Dra. Marcela Suarez Escobar Dra. María Aguirre Tamés Dra. María García Castro Mtro. Octavio García Rubio Dra. María del Rocío Grediaga Kuri Dra. Olinka González Mejía Dra. Olivia Fragoso Susunaga Universidad Autónoma Metropolitana Iztapalapa Dr. Sergio Padilla Galicia Dr. José Luis Córdova Frunz v Comité Editorial Internacional Dictaminadores de la División de Ciencias Básicas e Ingeniería Dictaminadores de la División de Ciencias y Artes para el Diseño Universidad Católica Argentina, Universidad Tecnológica Nacional, Argentina La Salle Bussiness Engeneering School Barcelona, España. Dra. Patricia Repossi Del Valle Dr. Ricardo Torres Kompe Universidad Federal de Alagoas, Brasil Ministerio de Ciencia, Tecnología y Medio Ambiente. La Dra. Lenilda Austrilinos Silva Habana, Cuba Dra. Mercedes Arellano Instituto Andaluz de Ciencias de la Tierra (IACT), España Dr. Claro Ignacio Sainz Díaz FUMEC. Belo Horizonte, Brasil Dra. Dinorah Rosalía Conte Turchetti. Dictaminadores de la División de Ciencias Biológicas y de la Salud Université d ´Avignon et des Pays de Vaucluse, Francia Dra. Ana Lilia Laureano Cruces Instituto de Oceanologia, la Habana, Cuba Dra. Mercedes Cano Mallo. Universidad de Washington, Estados Unidos Mtro. Hugo Solís García Dictaminadores de la División de Ciencias Sociales y Humanidades Pontificia Universidad Javeriana, Facultad de Arquitectura y Diseño. Bogotá, Colombia Universidad de Málaga, España Mtra. Ana Cielo Quiñones Aguilar Dra. Analía Elizabeth Leite Méndez Dr. José Ignacio Rivas Flores Universidad de Los Andes, Merida, Venezuela Mtro. Juan Carlos Márquez Universidad de Barcelona, España Dra. Sandra Martínez Pérez University of Botswana Faculty of Engineering and Technology, Botswana Affaire personnelle profession libérale Recherche- Mtro. Shorn Bakang Jackson Molokwane développement en biotechnologie, Francia Mtro. Luis Felipe Torres Yépez Universidad de Nariño, Colombia. Dr. Carlos Córdoba Cely Instituto de Planificación Física, La Habana, Cuba Ing Rita Águila Babastro Universidad Politécnica de Cataluña, España Dr. Edgar Castelán Maldonado Dr. Juan Daniel Castillo Rojas Dr. Alfredo Gutiérrez Hernández vi COMITÉ MULTIDISCIPLINARIO Y ORGANIZADOR Ciencias Básicas e Ingeniería Comité Internacional Alicia Cid Reborido Dr. Francisco A. Zurian - España Alonso Martínez Martínez Dra. Lenilda Austrilino Silva - Brasil Annik Vivier Jégoux Dra. Mercedes Arellano Acosta - Cuba Berenice Quintana Díaz Dra. Mercedes Cano Mallo - Cuba Gabriela del Valle Díaz Muñoz Dra. Montserrat Castelló Badía - España Gudalupe Hernández Morales Dra. Mute Toyota Fuji - Brasil Lourdes Sánchez Guerrero Dra. Sandra Martínez Pérez - España Luis Noreña Franco Yadira Zavala Osorio Diseño Editorial Victor Hugo Uc Rosas Coordinación Editorial M.D. Yadira Alatriste Martínez Ciencias Biológicas y de la Salud Dra. Aurora Minna Poo Rubio Adriana Morales Otal Ing. Damián Muciño Cruz Lorena Gómez Ruíz Ing. Genaro Eduardo Gallardo Villafaña Ma. Guadalupe Miranda Arce Dr. Victor Hugo Uc Rosas Mariana Peimbert Torres Diseño de Portadas y maquetación Ciencias Sociales y Humanidades D. C. G. Erwin Mauricio Gómez Solis Adrián de Garay Sánchez Ana Elena Narro Ramírez Maquetación Clara Martha Adalid Diez de Urdanivia D. C. G. Luis Javier Avíles García Guadalupe Huerta Moreno D. C. G. Iván Ándres Verdin Martínez D.C. G. Daniela Santos Sánchez Ciencias y Artes para el Diseño D. C. G. Sarai González Dorantes D. C. G. Alieta Carbajal González Aurora Minna Poo Rubio Mtra. Adriana Acero Gutiérrez Yadira Alatriste Martínez Adriana Acero Gutiérrez Comité Local UAM - Cuajimalpa Mariana Peimbert Torres vii COMITÉ MULTIDISCIPLINARIO Y ORGANIZADOR Logística y Administración Mtra. Mónica Patricia Stevens Ramírez Antonio Cruz Benites Adriana Juárez Álvarez Ariadna Gutiérrez Rosales Bruno Hernández López Dafne Anahid Chávez Martínez Dafne Viridiana Flores Pomar Damián Muciño Cruz David Jesús García Almaraz Eloy Santiago Urbina Esteban Rosales Olmedo Floriberta Solana Silva Genaro Eduardo Gallardo Villafaña Guadalupe Maya Chávez Ivonne Elizabeth García Morales Jesús Olayo Lortia José Francisco Pinto Barrera Josué Vivas Chávez Luis Alberto Peralta Martínez Marcela Torres León María Elena Jaimes Pineda Pedro Jesús Díaz Tecanhuey Rosnely Cruz Cecilio Rubith Romero Rubio Apoyo Secretarial y Administración Alejandra Salazar Carreón Jovita Palafox Herrera viii Índice de Contenido Prólogo............................................................................................................................. 13 Dra. Mónica de la Garza Malo Introducción..................................................................................................................... 15 Dr. Arturo Rojo Domínguez La Reforma Energética...................................................................................................... 21 Nicolás Domínguez Vergara, Reynaldo Vela Coreño Otra Presentación de las Ecuaciones de la Cinemática.................................................... 33 Rodolfo Espíndola Heredia, Gabriela Del Valle Díaz Muñoz, Guadalupe Hernández Morales Síntesis, Caracterización y Evaluación de las Propiedades de la MOF Cu3(BTC)2............. 47 Sandra Loera Serna Aplicación Móvil para la Práctica de los Verbos Compuestos del Idioma Inglés........................................................................ 54 Lizbeth Gallardo López, Beatriz González Beltrán, Julio César Castillo García Uso de Análogos Estructurales del Ácido Valproico en la Inhibición de Desacetilasas de Histonas, Como Propuesta para el Tratamiento de Glioblastomas.............................. 64 Marco Jiménez Olivares, Andrea Alpuche García, Leticia Arregui Mena, Hiram Isaac Beltrán Optimización de la Asignación del Personal Docente con Base en una Evaluación Integral.................................................................................................... 74 Rodolfo Espíndola Heredia, Enoc Gutiérrez Pallares, Jesús Edmundo López Hernández, Marco Antonio Pérez Méndez Modelo de Personalización para el Desarrollo de Herramientas de Software: Revisión Sistemática de la Literatura.............................................................................................. 91 Claudia Isabel Martínez Alcalá, José Antonio Calvo Manzano Las Álgebras de Funciones Cb(X,A) y (Cp(X,A)........................................................................ 104 Alejandra García García Sistema de Aprendizaje Cooperativo Mediado por Tecnologías de la Información y Comunicaciones..............................................................................................................111 Blanca Rafaela Silva López, Iris Iddaly Méndez Gurrola, Rosa Elena Cruz Miguel, Hugo Pablo Leyva, Carlos Barrón Romero Ventajas Sobre el Uso del Quitosano como Coagulante en el Tratamiento de Aguas Residuales....................................................................................................................... 123 Icela D. Barceló Quintal, Mónica L. Salazar Peláez, Gustavo A. Martínez Pérez, Triana C. Cervantes Pérez, Julisa García Albortante, Elba Castillo Borges 9 Determinar el Grado de Degradación de un Suelo Agrícola Convencional en una Zona Aguacatera Mediante su Comparación con un Suelo Agrícola Orgánico y Otro con Vegetación Original........................................................................................................ 142 Icela D. Barceló Quintal, Yosinia Martínez Méndez, Victor M. Cetina Alcalá, Julisa García Albortante, Mónica L. Salazar Peláez Estrategia de Aprendizaje Basado en Problemas para el Laboratorio de Ingeniería I de la Licenciatura en Ingeniería Biológica...................................................................... 158 Maribel Hernández Guerrero, Alejandra García Franco Reducción de Psicofármacos en Aguas Residuales Después de la Filtración con Membranas.............................................................................................................. 168 Isabel Del Castillo, Aurelio Hernández, Ma. Estela Montes Densidades de Niveles Nucleares y Teoría de Números................................................. 183 Alfonso Anzaldo Meneses Energía Solar, Retos y Oportunidades............................................................................ 191 Ana Elizabeth García El reto urbano y la vivienda en México........................................................................... 201 Sara Topelson de Grinberg Creación de sistemas de telemedicina basados en un modelo de diseño a partir de una perspectiva Living Lab.............................................................................. 207 Yadira Alatriste Martínez, Ana Belén Cerezuela Jordán, Josep María Monguet Fierro, Marco Vinicio Ferruzca Navarro Propuestas editoriales para niños con discapacidad visual............................................ 225 Eska Elena Solano Meneses, Brenda García Parra, Gloria Angélica Martínez de la Peña Diseño inclusivo para la divulgación de los discos giratorios protopastos..................... 235 Paula Murillo Jaramillo, Diana Córdoba Celly La ergonomía cognitiva, diseño emocional y semiótica en el diseño inclusivo de la interfaz gráfica de usuario para computadoras.......................................................... 252 Jose Alberto Yañez-Castillo, Ana Lilia Laureano-Cruces, Iván Garmendia-Ramírez La influencia de la emociones en el fenómeno de la consciencia .................................. 266 Ana Lilia Laureano-Cruces, Martha Mora-Torres, Lourdes Sánchez-Guerero, Javier Ramírez-Rodríguez y Javier Garduño-Cimental Templo y exconvento de San Miguel Huejotzingo, Puebla análisis de la forma geométrica del barroco poblano...................................................................... 284 Graciela Poó Rubio Una mujer llamada Ethan: disonancias entre imagen visual y las funciones de personajes en videojuegos................................................................... 294 Blanca Estela López Pérez 10 El método de la prefabricación y su incidencia en la gestión del diseño y la construcción arquitectónica contemporánea en el campo profesional mexicano...... 303 Tomás Sosa Pedroza, Sue Carolina Andrade Díaz Un acercamiento a la actual postura política virtual desde la mirada del Diseño......... 318 Betsabee Álvarez Jiménez Lina Bo Bardi y su universo: subversiva y revolucionaria, vanguardista y crítica........... 330 Maricarmen Ramírez Hernández La creación e interpretación musicales de las mujeres en las orquestas sinfónicas mexicanas................................................................................. 343 Artemisa Margarita Reyes Gallegos La mujer y el diseño universal........................................................................................ 355 Ana Laura González Rodríguez Estudio de movilidad en personas con esclerosis múltiple............................................. 369 Erika Vanessa Coéllar Vázquez La formación del diseñador industrial para promover el diseño inclusivo..................... 376 Aideé Peña Martín, Omar Eduardo Sánchez Estrada El Reuso del Agua Residual Tratada y Cambio Climático................................................ 383 Carmen Julia Navarro-Gómez, Eduardo Florencio Herrera-Peraza, Humberto Iván Navarro-Gómez, María Socorro Espino-Valdés, Adán Pinales Munguía, Jorge Antonio Ortiz y Estela Montes Carmona El Tercer Maestro: importancias de la estética, la organización, la comunicación y la interacción en el entorno académico.......................................................................... 394 Ana Jessica Ceballos Ortiz Revuelta, Sandra Lewis Gayol El impacto de ofrecer materias a distancia en tiempo real............................................. 403 Martha Elena Núñez López Cuatro estaciones, Didáctica para el adulto mayor.........................................................413 Jennyfer Alejandra Castellanos Navarrete Influencia del diseño editorial en la comprensión de un texto, análisis y criterios para facilitar la lectura .................................................................................... 433 Adriana Acero Gutiérrez El impacto de la educación básica en México en el desarrollo creativo del estudiante................................................................................................................. 449 Elvia Palacios Barrera “La Ruta de la Amistad” de la XIX Olimpiada de la Ciudad de México; cambios y transformaciones hasta el presente................................................................................ 462 Segismundo Engelking Keeling, Carolina Engelking de Vicenzo 11 Diseño de un Artefacto de software para la Visualización Científica de indicadores bioquímicos y clínicos y sus relaciones....................................................... 491 Jovita Hernández Arista Políticas públicas de vivienda en México y su impacto en el desempeño de las empresas desarrolladoras.......................................................................................... 501 Aurora Mina Poó Rubio Estudio formal de elementos arquitectónicos en la Catedral de Puebla......................... 519 Jaime González Montes Plan paisajístico de recuperación monumental y ambiental de la alameda central de la ciudad de México: contribución académica UAM-A al proyecto del gobierno del Distrito Federal.......................................................................................... 528 María Teresa Ocejo Cázares 12 Prólogo El volumen I de esta semblanza y libro científico incluye los resultados de investigación de académicos y académicas de las áreas de conocimiento que se desarrollan en las divisiones de ciencias básicas e ingeniería y de ciencias y artes para el diseño, presentados en el iv congreso internacional de avances de las mujeres en las ciencias, las humanidades y todas las disciplinas, creatividad e innovación, celebrado los días 24, 25 y 26 de septiembre de 2014 en la unidad cuajimalpa de la universidad autónoma metropolitana de la ciudad de méxico. Cuando gabriela del valle, coordinadora general del congreso, me invitó a participar con el prólogo de este volumen, asumí que las investigaciones estarían orientadas al análisis del aporte de las mujeres al desarrollo de las disciplinas; sin embargo, al revisar los materiales presentados para su publicación me di cuenta de que fundamentalmente se presentan resultados y avances de investigación de una amplia diversidad de temas que no sólo reflejan los aportes de investigación de los y las autoras, mayoritariamente mujeres, a sus respectivas disciplinas, sino que esta publicación permite observar cómo ha evolucionado este congreso, ya que muchos de los materiales son producto del trabajo colegiado intra e inter institucional, lo que evidencia la capacidad de colaboración académica entre un amplio grupo de investigadores e investigadoras que promueven el desarrollo de sus disciplinas compartiendo el principio de igualdad de género, construyendo colectivos y redes de investigación que potencian sus esfuerzos y les permiten lograr importantes resultados de los que esta publicación es una muestra. En el texto, el lector encontrará que los artículos aquí incluidos atienden a una amplia diversidad de temas; sin embargo, en su gran mayoría están directamente asociados con la elaboración de propuestas para mejorar los niveles de bienestar de la población, principalmente a través de desarrollos creativos e innovadores que promueven el fortalecimiento de los procesos de producción, transmisión, apropiación y divulgación del conocimiento; el diseño de métodos innovadores para mejorar las condiciones de salud de la población y el avance en una mayor inclusión de las personas con algún tipo de discapacidad a través del diseño inclusivo y el desarrollo de propuestas tecnológicas. Así, encontramos artículos que presentan propuestas creativas para mejorar la comprensión de temas diversos; el diseño y utilización de las nuevas tecnologías en el aprendizaje de estudiantes, adultos mayores y personas con algún tipo de discapacidad; nuevas formas de organizar la asignación del personal académico para lograr un mayor aprovechamiento por parte de los estudiantes; diseño editorial y de espacios con el fin de lograr una mayor 13 comprensión y aprovechamiento de los estudiantes; así como la elaboración de propuestas para la utilización de alternativas didácticas, con el uso de las tecnologías de la información y el conocimiento, que permiten mejorar el aprendizaje de los estudiantes a la vez que optimizan la utilización de los recursos institucionales. de esta manera, se abordan prácticamente todos los aspectos que forman parte de la discusión contemporánea respecto a los procesos de generación, transmisión, apropiación y divulgación del conocimiento desde una perspectiva integral. En cuanto a los temas de salud, los resultados de investigaciones que se presentan incluyen propuestas y diseños metodológicos y técnicos respecto a temas como la organización de la atención domiciliaria a los pacientes a través de los “living lab”; nuevas formas en la aplicación de tratamientos médicos de ciertos tipos de cáncer que reducen sus efectos secundarios; diseños que permiten mejorar la movilidad de personas con capacidades limitadas; diseño de software para la visualización y análisis de indicadores bioquímicos y procedimientos innovadores para mejorar los procesos de tratamiento de aguas que reduzcan la generación de residuos que afectan al ser humano o al medio ambiente. Los aportes que se presentan en este volumen, refleja una clara orientación de los y las autoras hacia la utilización del conocimiento, el diseño y la técnica para proponer nuevas formas de análisis, de interpretación y de abordaje de temas relevantes para la sociedad y plantear soluciones creativas e innovadoras desde una perspectiva incluyente y de respeto al medio ambiente; lo que hace a esta publicación un referente de interés para los especialistas en los temas que se abordan. En general, se puede decir que los trabajos de este texto muestran que la incorporación de la visión femenina en el quehacer universitario ha conducido al cuestionamiento de los modos de concebir, producir, valorar y difundir el conocimiento y sus aplicaciones, superando su carácter tradicionalmente excluyente al promover la inclusión no sólo de género, sino también contemplando la perspectiva y la problemática de los grupos invisibilizados por la sociedad, por lo que es importante fortalecer este tipo de iniciativas que redundan en propuestas que atienden al bienestar general de la población. Dra. Mónica de la Garza Malo 14 Introducción Con estos volúmenes se cierra el cuarto ciclo del Congreso Internacional de Avances de las Mujeres en las Ciencias, las Humanidades y todas las Disciplinas. Se trata de la publicación en extenso de los trabajos presentados a finales de septiembre de 2014 que en esta edición se realizó en la Unidad Cuajimalpa de la Universidad Autónoma Metropolitana. En particular, el lector encontrará aquí textos de las contribuciones clasificadas en las divisiones de Ciencias Básicas e Ingeniería (CBI) y de Ciencias y Artes para el Diseño (CyAD). Es útil recordar que estas publicaciones se realizan los años nones, 2015 en este caso, mientras que el encuentro en el Congreso sucede en años pares, correspondiendo en esta ocasión a 2014. También es importante hacer énfasis en que se trata del cuarto ciclo, ya que con mucha frecuencia las iniciativas de un evento como éste prosperan por una o dos ocasiones y dejan de realizarse, por lo que el mérito del Comité Organizador es encomiable y merece una felicitación, así como reconocer a todos los participantes por sus ponencias en sesiones orales y carteles, además de los asistentes siempre solidarios. El resultado que hoy se plasma en tinta y papel en estos libros hubiera sido imposible sin la generosa actuación, esfuerzo y tiempo de todos ellos. Son entonces ocho años de trabajo los que culminan y celebramos con esta publicación. Pero no sólo debe reconocerse el esfuerzo sostenido, sino también los resultados. La desigualdad de género, como muchas otras del quehacer humano, está fuertemente arraigada en los hábitos y en la cultura. Con gran frecuencia somos testigos ciegos de ella, y no porque no la veamos, sino porque estamos tan acostumbrados a ella que no nos parece relevante en lo cotidiano. Debemos considerar esfuerzos como el de este Congreso como un estandarte que señala la existencia de esa inequidad y hace patente la importancia de quitar ese velo de nuestro entendimiento para reconocerla primero, y para tomar acciones después que permitan mitigarla y tratar de erradicarla. Algunas formas incluyen las acciones afirmativas o discriminación positiva, sin embargo aunque se trata de un medio válido y efectivo para manifestar la existencia de la injusticia, y compensar sus consecuencias, tiene sus efectos colaterales. Por ejemplo, no deja de ser una discriminación que segrega a otra parte de la población, o bien, puede llegar a ser contraproducente al llevar a algunas personas a sitios o tareas para los que no están realmente preparadas, ya que la inequidad es multifactorial y de raíces muy profundas, que se remontan al propio nacimiento de cada uno de nosotros. 15 En contraste a las acciones afirmativas, eventos incluyentes como este IV Congreso Internacional permiten la manifestación de la desigualdad de género con las puertas abiertas para que hombres y mujeres participemos en sus trabajos, en su organización y en su difusión. En efecto, desde siempre, el Congreso no sólo ha permitido la participación de varones sino que la ha fomentado, y los propósitos del evento no están restringidos a trabajos de mujeres o sobre su problemática, sino que promueve las condiciones de igualdad. Además, genera un foro de discusión de temas de género, pero también de ciencia, de humanidades y de todas las disciplinas, como se declara en el propio nombre del evento. El efecto de estas reuniones académicas puede ser notable, basta recordar lo que sucedió en Seúl hace poco tiempo (junio 8 de 2015) en la World Conference of Science Journalists, en donde un profesor, que ha sido premiado con el Nobel, realizó una broma que se interpretó como comentarios poco apropiados sobre las diferencias entre hombres y mujeres. La respuesta fue mayúscula, una petición pública y formal de los organizadores, la Federación Coreana de Asociaciones Femeninas de Ciencia y Tecnología (KOFWST por sus siglas en inglés), de que el profesor se disculpara de sus comentarios justo en el almuerzo denominado Mujeres en la Ciencia. En efecto, la disculpa fue emitida públicamente, de manera muy diplomática y enfática, pero eso no evitó que la prestigiosa institución donde trabajaba el científico le pidiera su renuncia, sólo dos días después del hecho. Si bien, parece que la intención de las declaraciones no fue ofensiva y que mucha de la respuesta pudo haber sido fuera de contexto y amplificada por los medios, el punto relevante es el impacto que puede imprimir un encuentro o congreso. En este año, el Congreso hace referencia a cuatro mujeres muy destacadas. La arquitecta Sara Topelson cuyo trabajo ha sido reconocido con diferentes galardones nacionales e internacionales como la medalla Mario Pani otorgada por el Colegio de Arquitectos de la Ciudad de México, la Condecoración de Plata del Colegio de Arquitectos, y la Medalla Bene Merentibus de la Asociación de Arquitectos de Polonia. Es la primera mujer que preside la International Union of Architects y fue nombrada Mujer del Año en nuestro país en 1996. La pintora surrealista Remedios Varo también fue recordada, quien realizó trabajo artístico no sólo de pintura, sino de ilustración científica, en particular sobre entomología y de combate a la malaria, además de actividades publiciatarias. Ambas nacieron fuera de México pero su actividad y lazos con nuestro país son o fueron entrañables. 16 Por otra parte, se hace un reconocimiento a la arquitecta Dame Zaha Hadid, de origen angloiraquí cuya trayectoria es también un ejemplo de lucha de una mujer por conseguir su espacio dentro de esta disciplina. Ha sido la primera mujer distinguida con el Premio Pritzker que otorga anualmente la fundación Hyatt por el alto nivel de creatividad de sus obras. También recibió el Premio Mies van der Rohe que es el más importante de la Unión Europea en Arquitectura y el Praemium Imperiale que otorga la familia imperial japonesa a través de la Asociación de Arte de ese país, en áreas que no están cubiertas por el Nobel. Finalmente pero no menos destacada, se hace un recuerdo destacado de la fotógrafa jalisciense Dolores Álvarez Bravo, quien junto con su esposo de quien lleva los apellidos y con Modotti, Kahlo y Rivera impulsaron en nuestro país una renovación artística en la primera mitad del siglo XX. Sus series de fotografías, fotomurales y fotomontajes son reconocidas en todo el mundo, y también su trabajo como empresaria, profesora y organizadora de exposiciones, dentro de ellas la primera y única de Frida Kahlo en vida. El carácter internacional del IV Congreso no se limita a las personalidades descritas, todas ellas de talla universal, sino también a las conferencistas y participantes en el evento. En las sesiones de las divisiones de CBI y de CyAD se presentaron trabajos de muchas instituciones extranjeras dentro de las que destacan la Universidad Politécnica de Madrid, la Universidad Politécnica de Cataluña, el FUMEC de Brasil, la Universidad Tecnológica Nacional de Argentina y de Colombia el CESMAG y la Universidad de Nariño. Dentro de las instituciones nacionales participaron las Universidades Autónomas de Chihuahua, Ciudad Juárez, Estado de México y Yucatán, así como las Universidades Veracruzana, del Valle de México e Iberoamericana. También contribuyeron el Colegio de Postgraduados, el Instituto Nacional de Enfermedades Respiratorias, el Tecnológico de Monterrey, la UNAM y varias unidades de la UAM. Se presentan en este volumen 14 trabajos clasificados en la división de CBI y 26 de CyAD. Todos ellos arbitrados y corregidos por sus autores, y luego revisados por el comité editorial. Este proceso de gran cuidado acrecienta la calidad del material y ofrece al lector una gama muy amplia de información y puntos de vista de diferentes disciplinas; sin embargo existen algunos denominadores comunes en los trabajos, independientemente de la división en que fueron clasificados. Uno de ellos es la aplicación de las tecnologías de la información y la comunicación, que se encuentra en varias contribuciones como un personaje indispensable en el desarrollo de las investigaciones y propuestas. Otro es el esfuerzo por la salud y la calidad de vida 17 de la población que es objetivo y motivación en otras varias aportaciones. Además la educación se suma como descriptor transversal de otros varios trabajos sumados al urbanismo y la arquitectura. En suma, el lector tiene entre sus manos los frutos que muchos contribuyentes han sembrado y cultivado a lo largo de meses y años, y que han sido preparados por los organizadores para ser de utilidad y aplicación. Se cierra pues el ciclo del IV Congreso Internacional de Avances de las Mujeres en las Ciencias, las Humanidades y todas las Disciplinas con gran éxito, con un Comité Organizador que debe estar satisfecho y orgulloso por haber logrado superar las expectativas y fortalecer la iniciativa que dio origen hace ocho años a estos eventos. Esperamos con gusto e interés el inicio del siguiente ciclo en 2016. Dr. Arturo Rojo Domínguez 18 Ejes temáticos: La Relación de la Industria, con la Creatividad e Innovación de las Ciencias Básicas y la Ingeniería Desarrollada en las Universidades. Innovaciones en la Nanociencia y su impacto en la Sociedad. Ciencia y Tecnología Interdisciplinaria Técnicas innovadoras y creatividad en la enseñanza de las Ciencias Biológicas y de la Salud. creatividad e innovación La Reforma Energética Nicolás Domínguez Vergara1, Reynaldo Vela Coreño2 Departamento de Sistemas. 1 Universidad Autónoma Metropolitana Azcapotzalco, Distrito Federal. México Asesor en el Senado de la República. Distrito Federal. México 2 [email protected]; [email protected] Resumen El Gobierno Federal justificó la Reforma Energética como un medio necesario para remediar la caída de la producción de hidrocarburos, reducir los precios de la energía y los energéticos sobre todo de la electricidad, aumentar las inversiones financieras al sector, incentivar la competencia, la transparencia y la rendición de cuentas, crear cientos de miles de buenos empleos en el sector energético en el país y generar un ahorro de largo plazo para todos los mexicanos, entre otras cosas. Con la Reforma se han privatizado las cadenas productivas de Petróleos Mexicanos (PEMEX) y la Comisión Federal de Electricidad (CFE), excepto las actividades estratégicas de Exploración y Producción en el sector petrolero y las de transmisión, distribución, planeación y control en el sector eléctrico. Las expectativas que creó el Gobierno en la población a través de los medios masivos de comunicación fueron enormes. Las discusiones para la aprobación de la Reforma en el Congreso fueron mínimas y se ignoraron muchas de las críticas que se le hicieron en las dos cámaras legislativas. En este trabajo se comenta la Reforma Energética, los pretextos que se usaron para aprobarla, por qué logró aprobarse y sus posibles consecuencias. Palabras clave: Reforma Energética, petróleo, gas natural, investigación y desarrollo tecnológico. Introducción La Reforma Energética[1] es una de varias reformas estructurales que ha llevado a cabo el Gobierno Federal desde finales de la administración del Presidente Felipe Calderón Hinojosa. El decreto de Reforma Energética se promulgó en el Diario Oficial de la Federación el día 20 de diciembre del año 2013 después de ser aprobada tanto en la Cámara de Diputados, como en la Cámara de Senadores y en las Legislaturas Estatales. Los puntos centrales 21 de la Reforma Energética son los cambios a los artículos constitucionales 25, 27 y 28, aunque hubo cambios a otras leyes y se promulgaron algunas nuevas. Los cambios permitirán a los privados realizar todas las actividades del sector energético excepto aquellas que se definen como estratégicas y que son las actividades de exploración y producción en el sector petrolero y las actividades de transmisión, distribución, control y planeación en el sector eléctrico. Pero aún estas actividades estratégicas las podrán realizar los privados por medio de contratos, permisos o autorizaciones. Antes de la ola de privatizaciones del sector energético mexicano por los gobiernos neoliberales, las actividades de exploración, producción, refinación, almacenamiento, transporte y comercialización de petróleo solamente las podía realizar Petróleos Mexicanos (PEMEX). Lo mismo que la exploración y producción del gas natural. Las actividades de generación, transmisión, distribución, comercialización, control y planeación de la electricidad solamente las podía llevar a cabo la Comisión Federal de Electricidad (CFE). El 11 de agosto de 2014 se decretaron las Leyes Secundarias de la Reforma Energética que determinan la operación del nuevo sector energético mexicano [2]. El 31 de octubre de 2014 se publicaron los Reglamentos de las Leyes de la Reforma Energética en el Diario Oficial de la Federación. La aprobación de la Reforma Energética resultó de la gran presión del exterior para que México abriera al sector privado su sector energético, principalmente de Estados Unidos [3], del Fondo Monetario Internacional y del Banco Mundial. La estrategia para lograr la privatización del sector energético mexicano ha sido probada en varios países del mundo [4]. La aprobación de la Reforma se llevó a cabo en el Congreso prácticamente sin discusión. Los argumentos de los partidos de oposición fueron ignorados por el Partido Revolucionario Institucional (PRI) y el Partido de Acción Nacional (PAN). La aprobación de los cambios a los artículos constitucionales se dio el día 12 de diciembre de 2013, que es cuando el pueblo se encontraba celebrando el día de la Virgen de Guadalupe. El día 20 de diciembre de 2013 se publicó el Decreto de Reforma en el Diario Oficial de la Federación. Posteriormente se aprobaron las Leyes Secundarias a través de debates simulados en el Congreso de la Unión. La Reforma Energética se aprobó después del pico de la producción petrolera de 3.4 millones de barriles diarios en el año de 2004 que ha disminuido a solamente 2.3 millones de barriles de barriles diarios en el mes de agosto de 2015. Y antes de que el precio de la mezcla mexicana de petróleo des22 cendiera debajo de los 40 dólares por barril (como en la segunda quincena del mes de septiembre de 2015). Pretextos que se usaron para aprobar la Reforma Energética Entre los pretextos que se usaron para aprobar la Reforma Energética se encuentran [5]: a) México tiene mucho hidrocarburo en aguas profundas y en depósitos de lutitas (shale, en inglés). b) Se importa mucho gas natural a pesar de los depósitos de gas de lutitas. c) Se importa como el 50% de la gasolina que se consume. d) El precio de la electricidad es alto. e) El gas natural de los depósitos de lutitas generará electricidad limpia y barata. f) La competencia entre PEMEX, la CFE y los privados bajará los precios de la energía y los energéticos. g) Tenemos insuficiente infraestructura para la distribución de gas natural. h) México no tiene la tecnología para extraer el petróleo de aguas profundas. i) México no tiene tecnología para sacar gas natural de depósitos de lutitas. j) Las compañías privadas transferirán tecnología a México. k) La tecnología para aguas profundas no se puede comprar. l) México no tiene financiamiento para aumentar la producción de petróleo y gas natural. m) Estados Unidos porque produce mucho petróleo y luego ya no nos lo comprará. n) México tiene tantos hidrocarburos que extraer que no puede solo. o) La importación de petroquímicos es grande. p) Existe riesgo financiero al buscar petróleo que se transferirá a los privados. q) Con la Reforma Energética disminuirá la corrupción. q) La ideología del nacionalismo impide modernizar el sector energético. r) Los negocios privados son más productivos. s) Ni PEMEX, ni CFE se van a privatizar. Ni PEMEX ni CFE se van a vender. t) No se compartirá la renta petrolera. El Gobierno desató expectativas muy altas entre la población difíciles de cumplir y una gran mayoría de los pretextos ya no se sostienen. La mayoría de los problemas del sector energético, si no es que todos, se podían resolver sin la privatización. 23 Se conjuntaron una serie de circunstancias para su aprobación La Reforma Energética se aprobó por[5]: 1) La presión de Estados Unidos para que aumentara su seguridad energética. 2) La alianza del PRI, PAN y PRD en el Pacto por México que allanó el camino. 3) No hubo grandes protestas de la población pues no percibió que la Reforma amenazaba su economía. 4) Ya se habían desmantelado y endeudado a las empresas públicas. 5) El Congreso estaba subordinado al Titular del Ejecutivo Federal. 6) Las legislaturas estatales se subordinaron también al Ejecutivo Federal. 7) Líderes del Congreso y directivos de organizaciones del Gobierno se beneficiarán de la privatización. Comentarios sobre la Reforma Energética a) Desintegra a PEMEX y a la CFE en empresas productivas subsidiarias y en empresas filiales. b) No asegura restitución de las reservas petroleras ni pone límites a la sobreexplotación de los campos de hidrocarburos. c) No mandata mínimos de producción de petróleo, gasolina, otros refinados y petroquímicos por parte de PEMEX. Ni mínimo de producción de electricidad por CFE. d) Autoriza contratos de producción de petróleo que son entre otros: de servicios, de utilidad compartida, de producción compartida y de licencia. En los contratos de utilidad compartida se comparten las utilidades que se obtengan de la extracción de petróleo y ya comenzaron en la primera licitación de la Ronda Uno. e) No otorga autonomía de gestión a PEMEX y CFE pues sus consejeros serán propuestos o elegidos directamente por el Presidente de la República. f) Permite a la Secretaría de Hacienda y Crédito Público intervenir en los techos presupuestales de PEMEX y CFE por lo que no tendrán autonomía presupuestal. g) Está en vigor sin que los organismos reguladores como la Comisión Nacional de Hidrocarburos (CNH) cuenten con los instrumentos para regular a los privados en todas las actividades. h) Aunque mandata que la información sobre los contratos se suba a internet no se divulgará información que se catalogue como confidencial por lo que no se asegura la transparencia. i) Establece que la exploración, explotación de hidrocarburos y activida24 des de la industria eléctrica son de interés social y orden público por lo que son prioritarias sobre cualquier otra actividad (Artículo 96 de la Ley de Hidrocarburos y Artículo 42 de la Ley de la Industria Eléctrica). Así que si cualquier compañía privada, PEMEX, la CFE o sus empresas productivas subsidiarias deciden realizar sus actividades en terreros que escojan, los podrán ocupar después de establecer servidumbres legales que no son más que expropiaciones simuladas. Los dueños de los terrenos no podrán negarse a rentarlos o venderlos o a posponer su renta o venta hasta que el precio del crudo aumente. j) Despertó la ilusión de que con los ingresos por los hidrocarburos al Fondo Mexicano del Petróleo para la Estabilización y el Desarrollo se crearía un sistema de pensión universal y becas para estudiantes, entre otras cosas. Pero lo recabado será para regresarles a los privados parte de sus costos e inversiones así como para pagar por contraprestaciones como por la comercialización del petróleo. Además una parte del Fondo que consistirá en el 4.7% del producto interno bruto del año anterior se transferirá al Gobierno Federal (para que sus ingresos petroleros sean en promedio los mismos que ha estado obteniendo). Otra parte del Fondo se destinará a otras partidas prioritarias. k) A las empresas privadas no les impone una carga fiscal tan pesada como la de PEMEX. l) La CFE desintegrará sus actividades tanto vertical como horizontalmente y hasta contablemente con el fin de asegurar la entrada a esos negocios a los privados. m) El contenido nacional en materia de exploración y producción de hidrocarburos se mandata que sea del 25% en el año 2015 y crezca al menos a 35% en el año 2025 (Transitorio vigésimo cuarto de la Ley de Hidrocarburos). Pero ello riñe con el Artículo 1106 (Requisitos de Desempeño) del Tratado de Libre Comercio con Estados Unidos y Canadá que especifica que “Ninguna de las partes podrá imponer …. compromiso o iniciativa, …. para: ….. (B) Alcanzar un determinado grado o porcentaje de contenido nacional; ….”. Así que el mandato sobre el contenido nacional en las Leyes Secundarias es solamente una ilusión. n) La Investigación y el Desarrollo Tecnológico nacionales no se fortalecen pues las compañías privadas traerán a sus técnicos y su tecnología. PEMEX contratará al Instituto Mexicano del Petróleo o a terceros para sus investigaciones (Fracción V del Artículo 5 de la Ley de Pemex). ñ) Mandata a PEMEX y la CFE modificar sus contratos colectivos de trabajo, implementar programas de austeridad en el gasto y llevar a cabo a una reducción de las obligaciones de pago de las pensiones y jubilaciones. 25 La Reforma Energética debilita a México La Reforma Energética debilita a México porque [5]: 1) Disminuye la seguridad energética de México. 2) México perderá parte de la renta petrolera que se ha usado para proporcionar bienestar social, como educación y salud. 3) Las compañías trasnacionales corromperán más a nuestras autoridades. 4) Es incierta la supervivencia de PEMEX y la CFE en el mediano o largo plazos. 5) No incentiva apropiadamente a las fuentes renovables y a la eficiencia energética. El énfasis está en los hidrocarburos. 6) Se explotarán los recursos energéticos sin asegurar el desarrollo del país. 7) No existe seguridad para la supervivencia de las instituciones de ciencia y tecnología nacionales para el nuevo sector energético. 8) No disminuirá la impunidad y la corrupción en el sector energético. 9) Disminuye la influencia geopolítica del país al ceder sus recursos energéticos a privados. Posibles riesgos de la Reforma Energética Algunos de los riesgos podrían ser [5]: 1) Al transferir parte de la renta petrolera los privados, el Gobierno podría subir los impuestos a la población. 2) Al arrebatarle tierras, bosques o agua a la población para los privados podrían originarse conflictos en el campo que dividan al país. 3) Estados Unidos podría invadir México con el pretexto de salvaguardar los bienes de sus compañías petroleras y asegurar su abasto de petróleo. 4) Las compañías privadas podrían formar fuerzas paramilitares. 5) Las corporaciones financiarán campañas de candidatos a puestos de elección popular que les convengan. Podrían convertirse en el gran elector de México. 6) El despojo de tierras romperá tejidos familiares y sociales. 7) Habrá daños a la salud, a la integridad física y a las propiedades de las personas, y al medio ambiente por la exploración y explotación de hi26 drocarburos de lutitas. 8) La disminución de la disponibilidad de agua debido a que se usará para la fractura hidráulica cuyos desechos podrían contaminar acuíferos. 9) Desabasto de electricidad, gasolina, diesel, gas LP y petroquímicos si en el mundo existe una oferta baja de ellos y México no los produce en suficiencia. 10) Pérdida de libertad, seguridad y soberanía nacionales al ceder propiedad, control y usufructo de los recursos naturales valiosos para el desarrollo nacional. 11) La aprobación acelerada de la Reforma mostró el desprecio a la legalidad que se ha vuelto común en los más altos niveles del Gobierno y que puede aumentar. 12) Los precios de la energía y los energéticos podrían subir al estar regidos por las “Reglas del Mercado” (Artículo 3 y otros en la Ley de la Industria Eléctrica). 13) El financiamiento para las instituciones de educación superior podría decrecer. 14) El Instituto Mexicano del Petróleo (IMP) y el Instituto de Investigaciones Eléctricas (IIE) sufrirán cambios conforme PEMEX y la CFE se reducen. 15) Si el Gobierno no dispone de recursos suficientes podría proponer la privatización de la educación superior. Ronda Cero y Ronda Uno Por medio de la Ronda Cero la Secretaría de Energía (SENER) le asignó a PEMEX el 83% de todas las reservas probables del país [6] más el 21% de los recursos prospectivos. Según estimaciones de la SENER, PEMEX tendrá suficiente para producir en promedio 2.5 millones de barriles diarios (MMbd) de petróleo por los próximos 20.5 años. Si esto se convierte en realidad, el Gobierno Federal tendrá recursos financieros asegurados anuales por 20.5 años. Ésta es la lógica que se siguió para definir la Ronda Cero, tratar de asegurar al menos los mismos ingresos que antes obtenía de PEMEX y además algunos pocos ingresos extra de los privados (a través de la Ronda Uno); aunque se cediera parte de la renta petrolera a los privados. De esta manera nadie protestaría. Pero hasta el momento las cosas no han salido como lo deseaban nuestros gobernantes. El resto de las áreas que no se le asignaron a PEMEX ya se están licitando a las compañías privadas y a PEMEX, aunque ésta última todavía no ha participado. A esta parte se le llama la Ronda Uno que ya comenzó formalmente 27 y los primeros contratos se otorgaron en la licitación de 14 bloques el día 15 de julio de 2015. Producción futura de petróleo en México De acuerdo a la Energy Information Administration (EIA) que es una parte del Departamento de Energía de Estados Unidos, México logrará una producción de 3.7 millones de barriles diarios de petróleo y otros líquidos en el año 2040. Esta producción sería casi como la que se tenía en el año 2004, por lo que no habría muchos más trabajos que los que se tuvieron en 2004. Si se realizaran muchos descubrimientos de petróleo en la parte mexicana del Golfo de México Estados Unidos podría crear una presencia física geoestratégica en ese lugar por muchos años comenzando con la instalación de plataformas de compañías privadas de ese país. Si la población no sufre fuertes impactos negativos de la Reforma Energética en su economía, prosperidad, salud y libertades, la Reforma podrá continuar. Su supervivencia también depende de si se establece en México una democracia plena y progresista que promueva el desarrollo del país y luche contra la corrupción, la impunidad y la desigualdad. Por lo anterior, el éxito y la supervivencia de la Reforma son inciertos. Precios bajos del petróleo y sus consecuencias En PEMEX comenzaron los despidos de personal a principios del año 2015 argumentándose que se debían a los precios bajos del petróleo. En realidad los despidos hubieran ocurrido aun sin esos precios bajos y únicamente por el efecto de la Reforma Energética cuyo fin es en gran parte desmantelar a PEMEX y a la CFE para cederles sus negocios a los privados. El petróleo todavía será el botín en muchas guerras en los próximos decenios, que ocurrirán en periodos de escasez o para asegurar el abastecimiento futuro de los países poderosos. La Reforma Energética se basa en la conjetura de que los privados se harán cargo del desarrollo del sector energético nacional. Los precios bajos del petróleo muestran sin lugar a dudas que los privados no tienen ninguna intención y menos responsabilidad para invertir en negocios que no les reditúen enormes ganancias. 28 Las compañías petroleras de Estados Unidos que encuentran, desarrollan campos y extraen petróleo de depósitos de lutitas lo hacen a un costo por arriba de los 40 dólares por barril [7], por lo que el interés en explorar y producir hidrocarburos de lutitas en México por parte de compañías trasnacionales podría no ser grande durante el periodo de precios bajos. En este caso tampoco habría demasiado interés por los campos es aguas profundas. Debido a los precios bajos del petróleo desde finales del año 2014, en el año 2015 el Gobierno recortó al gasto federal 124 mil 300 millones de pesos. El recorte incluyó 62 mil millones de pesos a Pemex y 10 mil millones de pesos a la CFE. El pretexto de que con la Reforma se modernizaría a PEMEX para que pudiera competir contra los privados se evidenció. La inversión de PEMEX se recorta para el año 2015 a pesar de que es necesario que encuentre más petróleo para restituir sus reservas. Por los recortes PEMEX abandonará sus planes para la reconfiguración de refinerías y por lo tanto de producción de gasolina y diesel ultradesulfurados. Por los recortes ni PEMEX ni la CFE se encontrarán en buenas condiciones para competir contra los privados. La tecnología del fracking causa problemas al medio ambiente y a la salud de los habitantes como lo demuestran varios estudios científicos, a pesar de que científicos funcionarios del gobierno de México la impulsen. Esa tecnología se usará en México para producir petróleo y gas de lutitas ignorando las prohibiciones que ya existen en algunos lugares del mundo sobre su uso. Además de que la extracción de hidrocarburos usando esta tecnología no es muy competitiva cuando los precios del petróleo están debajo de los 40 dólares por barril. Con los precios bajos del petróleo los privados no arriesgarán sus inversiones y el gobierno forzará a PEMEX a sobreexplotar campos que tiene asignados y también a hacer alianzas con los privados. Al final de cuentas se podría compartir la renta petrolera del petróleo más fácil de extraer, al forzar a PEMEX a pasar asignaciones que tiene a contratos, a los que actualmente el Gobierno les está llamando farmouts. El 1 de enero de 2015 se anunció en el Diario Oficial de la Federación la disminución de tarifas de electricidad en 2 por ciento porque se usará gas natural, pero este energético también se importa en grandes cantidades en dólares y el valor del dólar ha aumentado en más del 2 por ciento respecto al peso, por lo que el gran beneficio neto a la economía del país todavía no es claro. 29 Actualmente se tiene un PEMEX fracturado que no podrá extraer hidrocarburos en todos los campos en que hubiera podido hacerlo sin la Reforma Energética ni participará en los muchos negocios del sector que se han privatizado, por lo que no contribuirá como antes al gasto del Gobierno. Reflexiones sobre las Leyes Secundarias Las leyes secundarias de la Reforma Energética contienen elementos que parecen razonables pero ceden a las compañías privadas propiedad y control de los recursos energéticos nacionales. Los precios de la electricidad, el gas natural y la gasolina no necesariamente tendrán precios muy bajos en el futuro porque las compañías privadas asegurarán sus ganancias. No se generarán cientos de miles de buenos empleos en el sector energético. Las oportunidades de empleo para los jóvenes profesionistas ocurrirán porque muchos trabajadores del sector energético se jubilarán. Las metas que ha difundido el Gobierno como la que aumentará la producción de petróleo a más de 3 MMbd y la de que bajará el precio de la electricidad en algunos años ya las tenían Pemex y la CFE como se documenta en la Prospectiva de Petróleo y Petrolíferos 2013-2027 y en la Prospectiva del Sector Eléctrico 2013-2017, así que no son nuevas. El Gobierno ha publicitado que los precios más bajos de electricidad que se están otorgando son debidos a la Reforma, sin mencionar que es debido a acciones que ya se tenían programadas. Además también difundió que descubrió yacimientos de hidrocarburos gracias a la Reforma Energética, cuando aún ninguna compañía privada hasta mediados de septiembre de 2015 ha realizado actividades de exploración y exploración que les permitirá la Reforma. Es incierta la cantidad de recursos financieros que obtendrá el Gobierno de las compañías privadas como del nuevo PEMEX, de hecho por los precios bajos del petróleo y la caída en la producción petrolera el Gobierno ya no está obteniendo la tercera parte de sus ingresos de ese sector sino alrededor del 20 por ciento. Y en el futuro podría ser menor. Con las inversiones que lleguen al país debido a la gran apertura con grandes ventajas para los privados sí se crearán infraestructura y trabajos, pero estos beneficios serán mínimos comparados con la pérdida de la riqueza energética que se cede a los privados y con los grandes riesgos en los que se ha puesto a la Nación. 30 Reflexiones Finales Debido a que no se elaboraron escenarios de la producción de petróleo ni de los posibles ingresos para el Gobierno por su venta, el Gobierno se encuentra en una situación financiera desfavorable, que no esperaba. En la primera licitación de la Ronda Uno se licitaron 14 bloques para exploración y producción, pero solamente se adjudicaron 2 debido al poco interés de las compañías petroleras sobre todo por los precios bajos del petróleo. Los dos bloques fueron adjudicados a un mismo consorcio compuesto de una compañía mexicana, una estadounidense y una inglesa. Los contratos de utilidad compartida para esos bloques ya mostraron la cesión de una gran parte de la renta petrolera a las compañías privadas. Primero, las compañías privadas podrán deducir de las ventas de los hidrocarburos hasta alrededor del 72 por ciento de sus costos e inversiones. Segundo, del restante, el Gobierno Mexicano se quedará con alrededor del 40 por ciento. La renta petrolera se cede a los privados. Para la segunda licitación el Gobierno Federal solamente se quedará con alrededor del 35 por ciento, debido a que el Gobierno se interesa en malbaratar los recursos de la Nación con tal de dar la impresión de que las licitaciones tienen éxito, debido a que la primera fue un completo desastre. El Gobierno está haciendo un gran esfuerzo para que las compañías privadas participen en las licitaciones de los bloques de hidrocarburos y les ofrece en la segunda licitación una parte más grande de la renta petrolera. Antes y durante la aprobación de la Reforma Energética y las Leyes Secundarias muchos de los partidarios de la Reforma ponían como ejemplo a Petrobrás, la compañía petrolera que según alegaban se había privatizado y por ello estaba obteniendo enormes ganancias. Lo que estamos observando ahora que se ha aprobado la Reforma Energética es el gran escándalo de la corrupción con la que esa compañía brasileña se desempeñó en los últimos años; muchos de sus directivos se pasarán un tiempo en prisión. Las guerras por los recursos naturales sobre todo por el petróleo y el agua seguirán en el mundo. El petróleo todavía será el energético más importante en el planeta, al menos por los próximos veinte años. El énfasis de la Reforma Energética debió ser el impulso a la investigación, el desarrollo tecnológico y la innovación tecnológica que son los que han aumentado la riqueza de los países desarrollados, pero no fue así, fue la entrega de los recursos energéticos a los privados. Ello se ha podido hacer debido a la corrupción y a la impunidad que impera en el país. 31 No sabemos si las manifestaciones de protestas por los 43 estudiantes secuestrados y desparecidos de la Escuela Normal Rural de Ayotzinapa el día 26 de septiembre de 2014, sea el inicio de la reconstrucción y recomposición del país. Esa es una de las esperanzas del pueblo de México, quien al final de cuentas, es el que decidirá su propio futuro. Referencias [1] Decreto por el que se reforman y adicionan diversas disposiciones de la Constitución Política de los Estados Unidos Mexicanos, en Materia de Energía. Diario Oficial de la Federación. 20 de diciembre de 2013. [2] Leyes Secundarias de la Reforma Energética. Diario Oficial de la Federación, Edición vespertina. 11 de agosto de 2014. [3] Comité de Relaciones Exteriores del Senado de Estados Unidos. Oil, Mexico, and the Transboundary Agreement. Diciembre de 2012. [4] Sharon Beder. Energía y Poder, La Lucha por el control de la electricidad en el mundo. Fondo de Cultura Económica. México, D. F. 2005. [3] CNH, SENER, SHCP. http://ronda1.gob.mx/Espanol/resultados.html. Consultado el 20 de julio de 2015. [4] Pemex. http://www.pemex.com/ri/finanzas/Reporte%20de%20Resultados%20no%20 Dictaminados/Reporte_1T15_150430.pdf. Consultado el 20 de julio de 2015. [5] Nicolás Domínguez Vergara y Reynaldo Vela Coreño. Y los veneros de petróleo del diablo. GSM Comunicaciones y Negocios, S. A. de C. V. Mayo de 2015. and the transboundary agreement. 21 de diciembre de 2012. [6] Secretaría de Energía. Ronda Cero. http://www.energia.gob.mx/rondacero/_doc/Documento%20WEB%20Ronda%20CeroSSH.pdf [7] FACTBOX-Breakeven oil prices for U.S. shale: analyst estimates. http://www.reuters.com/ article/2014/10/23/idUSL3N0SH5N220141023 32 Otra Presentación de las Ecuaciones de la Cinemática Rodolfo Espíndola Heredia, Gabriela Del Valle Díaz Muñoz, Guadalupe Hernández Morales Departamento de Ciencias Básicas, Área de Física Atómica y Molecular Aplicada, Universidad Autónoma Metropolitana Azcapotzalco, Laboratorio de Investigación en Dinámica Rotacional Edificio G-103, Av. San Pablo 180, Azcapotzalco., México D. F. [email protected], [email protected], [email protected] Resumen Al introducir el concepto de masa en las ecuaciones de la cinemática, obtenemos ecuaciones en términos de conceptos como: momento y fuerza, que aclaran los conceptos de movimiento, relacionan la cinemática de partículas con la dinámica de partículas, y se verifica y comprende mejor el teorema momento-impulso. Llevamos este desarrollo hasta una ecuación cinéticodinámica, que probamos para obtener la solución de algunos problemas. Palabras clave: Cinemática, Dinámica, Energía, Enseñanza de la Física. Abstrac By introducing the mass concept into kinematics equations, we obtain others equations in terms of concepts such as momentum y force, clarifying the motion concepts, where are associated particles kinematics with particle dynamics, and verify and better understand impulse-momentum theorem. We carry this development to a new kinetic-dynamic equation; we tried to obtain the solution of some problems. Key words: Kinematics, Dynamics, Energy, Physics Teaching. Introducción En los cursos regulares de física a nivel universitario uno de los primeros temas de estudio es el movimiento, en donde corresponde a la cinemática, responder a la pregunta que nos hemos formulado siempre: ¿Cómo es qué se mueven los objetos? La cinemática (del griego κινεω, kineo, movimiento) al ser una rama de la mecánica clásica estudia las leyes del movimiento de 33 los cuerpos, entendiendo por movimiento el cambio de posición que pueda sufrir un objeto, sin tomar en cuenta las causas que lo producen. Luego entonces la rapidez (v) y la aceleración (a), son las dos principales propiedades que describen el cambio de posición en función del tiempo. En los cursos de física introductoria, se le muestran al estudiante los distintos tipos de movimiento: Movimiento Rectilíneo Uniforme (MRU), Movimiento Uniformemente Acelerado (MUA), Tiro Vertical (TV), Caída Libre (CL),(ambos corresponden a un MUA con la salvedad que a=g), Tiro parabólico o movimiento de proyectiles (TP) (Este es una combinación de MRU y MUA) y movimiento circular uniforme (MCU).Presentando en cada caso las ecuaciones que constituyen estos movimientos, y enseñando al estudiante a resolver variedad de problemas. Posteriormente se estudian las causas del movimiento, esta parte le corresponde a otra rama de la física que es la dinámica. La dinámica (del griego δυναμικός, dynamikos, fuerte) es la parte de la física que describe cómo evoluciona en el tiempo un sistema1 físico en relación con las causas que intervienen en los cambios de estado físico y/o estado de movimiento de dicho sistema. El objetivo principal de la dinámica es describir los factores que producen alteraciones en un sistema físico, cuantificarlos y plantear ecuaciones dinámicas de movimiento. Se presenta al estudiante como causa principal del movimiento un desequilibrio de fuerzas externas sobre el sistema que tiene como efecto producir una aceleración. Para el estudio de la dinámica, es importante introducir el concepto de masa para dar lugar a nuevas cantidades derivadas como la fuerza, la cantidad de movimiento, etc. Posteriormente al establecer que son sólo las fuerzas externas al sistema las que son responsables de producir alteraciones en un sistema físico, de tal forma que se produzca movimiento, se establecen principios fundamentales que forman teoremas, como la conservación del momento lineal y el teorema de impulso-momento, entre otros. Un análisis sencillo de las ecuaciones de la cinemática y de la dinámica, con la terna de propiedades x, t, m, nos permite desmenuzar los conceptos y presentarlos, de tal manera que el estudiante pueda percibirlos de forma 1 Un sistema físico es un agregado de entidades materiales u objetos que interactúan entre sí con una interacción casual entre sus partes existen 3 características de estos que son las principales [1]: 1. Se le puede poner una magnitud física o también llamada energía 2. Tiene un estado físico definido (sujeto a cambios por evolución temporal) 3. Tiene una ubicación especifica en el espacio-tiempo 34 natural y logre relacionar ambas ramas de la física, que por lo general no se relacionan en los libros de texto. El presente trabajo está organizado de la siguiente manera, en la sección II presentamos la forma tradicional en que se exponen los conceptos en los libros de texto, en la sección III se presenta el análisis que estamos proponiendo, a partir del cual se obtiene una ecuación interesante que hemos llamado ecuación cinético-dinámica, y finalmente en la sección V presentamos nuestras conclusiones. Teoría Conceptos fundamentales Cinemática Se representa el concepto de cambio de posición de una partícula que se mueve unidimensionalmente en un sistema de referencia arbitrario como la diferencia Δx, de acuerdo a la siguiente expresión: (1) el tiempo invertido en realizar este cambio de posición es: (2) el cociente de estas dos cantidades, da lugar al concepto de velocidad promedio o velocidad media: (3) La velocidad media geométricamente representa la pendiente de la recta secante que pasa por dos puntos: inicial (t0, x0) y final (tf, xf) en la curva que describe el comportamiento de la posición con respecto al tiempo Figura 1. Al suponer que el instante temporal es infinitesimal, esto es: tf → t0 se obtiene el concepto de velocidad instantánea: 35 (4) Este límite nos lleva a ver geométricamente que la recta secante se convierte en la recta tangente, por lo que el concepto de velocidad instantánea es la pendiente de la recta tangente que toca el punto (t0, x0), Figura 1. Figura 1: Representación gráfica de la velocidad media e instantánea como rectas secante y tangente. De forma similar se presenta el concepto de cambio de velocidad, cuando existe un desplazamiento los dos estados: inicial y final del movimiento no son los mismos generalmente, por lo tanto: (5) Si el movimiento es MRU, Δv = 0 y la partícula se moverá con velocidad constante vf =v0. El cociente entre la ecuación (5) y la ecuación (2) nos proporcionan un nuevo concepto, la aceleración promedio dado como sigue: (6) La interpretación geométrica es similar que para el caso de la velocidad media, sólo que ahora estamos en otro espacio, el de velocidades como función del tiempo, los puntos inicial (t0 ,v0) y final (tf ,vf) son los puntos por 36 donde pasa la recta secante, por lo que la aceleración media es la pendiente de la recta secante en este nuevo espacio (t vs. v). De forma similar que para la velocidad, se toman elementos infinitesimales y se hace tender el tiempo final al tiempo inicial tf → t0 para presentar el concepto de aceleración instantánea dado por la siguiente expresión: (7) Las ecuaciones de la cinemática traslacional se construyen en términos de estas propiedades, con la única restricción de que la aceleración sea constante, esto implica que Δa=0, por lo tanto suponiendo que el tiempo inicial es cero y que el tiempo que se invierte en el desplazamiento es t, a partir de la ecuación (6) se obtiene la primera ecuación de la cinemática: (8) Mientras que para obtener la segunda expresión de la cinemática traslacional usamos el concepto más intuitivo de velocidad promedio: v = vo + v f 2 , (9) Y al combinar con la expresión (3), igual que antes suponemos que t0= 0 y que el tiempo que tarda el cambio de posición es t: (10) Ahora se hace uso de la expresión (8) donde se sabe cuál es el valor de la velocidad al final de la partícula: (11) De esta última expresión se despeja la posición final de la partícula y se obtiene la segunda expresión de la cinemática. 37 (12) En los libros de texto, después de obtener estas ecuaciones, despejan el tiempo de (8) y lo sustituyen en (12) y así se presenta otra ecuación, donde el tiempo no aparece de forma explícita, asimismo también de (8) se puede despejar la aceleración y sustituir en (12) y presentar otra ecuación, donde la aceleración no esté presente de manera explícita. Se observa que ambas ecuaciones (8) y (12), en realidad son ecuaciones que relacionan las condiciones iniciales del movimiento, con las condiciones finales del mismo, teniendo un parámetro constante, en este caso, la aceleración, y siendo el tiempo la ligadura entre los dos estados inicial y final del sistema. Las ecuaciones así presentadas son una especie de balance entre condiciones iniciales y finales. Es necesario enfatizar que los valores que tomen las condiciones iniciales y finales, dependen única y exclusivamente del sistema de referencia utilizado para estudiar el movimiento, por lo que: posición, rápidez y aceleración, serán positivas o negativas, en conformidad con la elección arbitraria del sistema de referencia. Por último, resaltamos que la resolución de esta clase de problemas, se concreta entonces a resolver un sistema de dos ecuaciones con dos incógnitas. De donde se desprenden casos particulares; si el sistema es un MRU, las ecuaciones (8) y (12) se presentan de la siguiente manera: v f = v0 , (13) x f = xo + v0 t . (14) Si el sistema es MUA, las ecuaciones que los describen son las ecuaciones (8) y (12), tal cual se han presentado en (8) y (12). Dinámica Al estudiar dinámica, en los cursos regulares de física, se presentan las tres leyes del movimiento que fueron formuladas por Newton, la primera ley se expresa de la siguiente forma: 38 Consideremos un cuerpo sobre el cual no opera ninguna fuerza neta externa. Si se encuentra en reposo, permanecerá en ese estado. Si se encuentra en movimiento con velocidad constante (MRU). Seguirá en el mismo estado de movimiento [2]. De esta manera se presenta un nuevo concepto, la fuerza, que se define en la segunda ley de Newton, y que representa la causa por la cual ocurre el movimiento. La tercera propiedad fundamental de la física, después de la posición y del tiempo es la masa. Esta se puede decirse que es una peculiaridad que tiene un cuerpo y que determina su capacidad de resistirse al movimiento [3]. Desde luego, al aplicársele una fuerza, a un objeto con mucha masa, producirá en él una consecuencia menor que la que resulta al aplicar la misma fuerza a un objeto con poca masa. Con este concepto en mente se presenta la segunda ley del movimiento formulada por Newton como: El cambio de movimiento es proporcional a la fuerza externa aplicada y ocurre a lo largo de la línea recta en la que se aplica dicha fuerza [2,3]. Lo que hemos llamado consecuencia, es la aceleración que experimenta el objeto. De acuerdo a lo visto en la sección de cinemática, si el objeto está acelerado entonces cambia su estado de movimiento o en otras palabras cambia su velocidad. En conclusión, la causa del cambio en el movimiento es la fuerza, y el efecto de la fuerza es la aceleración, ambas son directamente proporcionales, mientras que el efecto es inversamente proporcional a la capacidad que tiene el objeto de resistirse al movimiento. En resumen establecemos la segunda ley de movimiento como: (15) La aceleración, así como lo expusimos anteriormente, depende del sistema de referencia, por lo tanto, la fuerza estará determinada asimismo por el marco de referencia del observador. Lo importante y que debe resaltarse es que solamente las fuerzas externas al sistema son las que tienen la posibilidad de producir cambios en el estado de movimiento. 39 Ahora bien, si el objeto está en movimiento y se le aplica una fuerza externa, solo la fuerza paralela o antiparalela a la dirección del movimiento, afectaran el movimiento del objeto, las fuerzas ortogonales a la dirección del movimiento no afectan el movimiento. La tercera ley del movimiento expresada por Newton, resume una observación interesante, que puede experimentarse fácilmente: Cuando un objeto ejerce una fuerza sobre otro, también éste ejerce una fuerza sobre aquel. Ambas fuerzas, tiene la misma magnitud, la misma dirección, pero sentido contrario. A esta ley se le ha llamado la ley de acción-reacción, mientras que a la segunda ley se le llama causa-efecto. La tercera ley nos es útil para entender lo que ocurre en una colisión entre dos objetos y como, la manera de interactuar entre los dos cuerpos que colisionan, es a través de esta acción-reacción. Sin embargo, para comprender mejor el concepto de las colisiones, es que se requiere introducir un nuevo concepto dinámico: el momento lineal, el cual está definido como otra expresión similar a la causa efecto, donde aquí la causa puede ser el momento lineal y es directamente proporcional al efecto, el cual es la velocidad del objeto, mientras que nuevamente la velocidad del objeto en este nuevo concepto es inversamente proporcional a la capacidad que tiene el objeto de resistirse al movimiento. Muy similar a la segunda ley de Newton, matemáticamente el momento lineal se expresa así: P = mv , (16) La velocidad, al igual que la aceleración, dependen del sistema de referencia, por lo tanto, el momento lineal estará determinado asimismo por el marco de referencia del observador. Como sabemos la aceleración es la razón de cambio de la velocidad con respecto al tiempo, se encuentra que la relación entre la fuerza y la cantidad de movimiento o momento lineal está dado por: (17) 40 Donde se ha considerado que la masa es constante, de esta última expresión se desprende uno de los teoremas importantes de la dinámica de partículas, el teorema impulso-momento, al considerar una colisión entre dos cuerpos y obtener el cambio total del momento, durante toda la colisión tenemos que (18) Que es el teorema impulso–momento que dice: El impulso de la fuerza neta que actúa sobre una partícula durante un intervalo determinado, es igual al cambio de momento de la partícula durante el intervalo [2,3]. (19) donde el impulso se define como: (20) Modelo Teórico Consideremos que se presenta el siguiente caso a un estudiante: tres objetos de distintas masas m1=10 Kg, m2=5 Kg y m3= 15 Kg, se dejan caer desde la misma altura de 40 m, de manera simultánea. Despreciando la resistencia al aire ¿Cuál de ellos llegará en primer lugar al suelo?, Desde luego el estudiante responderá correctamente al indicar que no importan los valores de las masas, al despreciar fuerzas de carácter disipativo como la fricción del aire, los tres objetos llegaran al mismo tiempo. Entonces, en nuestro modelo deductivo tomaremos en cuenta las ecuaciones (8) y (12), y observamos que estas ecuaciones no dependen de la masa del objeto que se encuentra en movimiento. Por lo cual el parámetro masa es independiente de la trayectoria de movimiento, a no ser que se requiera un tratamiento de muchas partículas, donde el enfoque cambia al introducir el centro de masa del sistema. 41 Figura 2: Representación gráfica de que ambas ramas están relacionadas, sin embargo no se presentan así regularmente en los cursos de física, antes bien son tratadas como dos ramas distintas de la física. Sin embargo, si consideramos el hecho de que todo objeto que se desplaza tiene masa, entonces podemos multiplicar la expresión (8) por la masa del objeto y obtener una ecuación que nos será familiar: (21) Y con el uso de la ecuación (16) y (17) podemos escribir: (22) Que en el fondo no es más que la ecuación (19), presentada de otra forma: (23) Donde F estará representando la suma de las fuerzas externas que actúan sobre la partícula, t el intervalo temporal en que actúa esta fuerza para producir un cambio en la cantidad de movimiento; esto es el impulso necesario para producir el cambio en el movimiento. Mostramos de esta manera la relación existente entre la cinemática y la dinámica ver Figura 2. Ahora restringimos nuestra atención a un caso especial MRU, por lo que la fuerza que actúa sobre la partícula es cero, entonces al sustituir F=0 en (22) se obtiene la conservación de la cantidad de movimiento: 42 Pf = P0 , (24) Queda mucho más claro, bajo qué condiciones es que se conserva el momento lineal, dese luego la ecuación (17) nos proporciona la misma información si hacemos F=0 se obtiene la expresión de la conservación de la cantidad de movimiento también. Sin embargo, es mucho más claro que esto debe ocurrir cuando el movimiento es rectilíneo uniforme. Debemos recordar que para el caso de colisiones se deduce la conservación de la cantidad de movimiento bajo el supuesto de que no existen fuerzas externas sobre las dos partículas que colisionarán, por lo que antes y después de la colisión la derivada del momento con respecto al tiempo es cero, pero durante la colisión actúa la tercera ley de Newton en su forma fuerte , esto es, la fuerza que ejerce por ejemplo una partícula i sobre la partícula j, resulta de igual magnitud, misma dirección pero sentido contrario a la que la partícula j ejerce sobre la partícula i, y además que estas fuerzas sean paralelas al vector - , donde y son los vectores de posición de cada una de las partículas. Es por esto que la fuerza resultante se anula, en conclusión, para deducir el teorema de conservación de la cantidad de movimiento, la hipótesis que se debe presentar es que no existe fuerza y el movimiento es tratado como si fuese un MRU. Pero si vamos un paso más allá e introducimos la masa en la ecuación (12) lo que obtendremos es lo siguiente: (25) Que con uso de las ecuaciones (16) y (17) podemos escribir como: (26) Y proponiendo que el producto mx tenga una variable especial tal cual se ha propuesto para los productos mv o ma, y recordando que este producto aparece asimismo en la definición del centro de masa, podemos sugerir que q=mx; recordando la nomenclatura de las coordenadas generalizadas utili43 zada en la formulación Hamiltoniana es posible obtener: (27) De donde se desprende con el uso de (22) que (28) Que sería el equivalente de la ecuación (23), y obviamente la segunda derivada nos dará el concepto de fuerza o la segunda ley de Newton: (29) Pero podemos ir aun un paso más adelante introduciendo la masa en la ecuación (8) y (12) podemos eliminar el parámetro temporal obteniendo la siguiente expresión: (30) Que siguen siendo estrictamente hablando las ecuaciones de la cinemática, al multiplicar por la masa tenemos lo siguiente: (31) la ecuación (31) en términos de q según definimos anteriormente es la siguiente expresión,: 44 (32) que se puede escribir como: (33) donde se puede apreciar la definición de trabajo para una fuerza constante, esto es: (34) En donde al definir w*=mW y k*=mK, se obtiene el teorema trabajo energía. (35) Conclusiones Al introducir la masa en las ecuaciones de la cinemática se obtienen expresiones que pueden aclarar el concepto del movimiento. Se deducen al menos dos teoremas importantes en la dinámica de un partícula, al introducir la masa en las ecuaciones de la cinemática y solamente siguiendo un desarrollo algebraico. Técnicamente se fundamenta la relación existente entre dinámica y cinemática. Se provee una visión panorámica al estudiante de los cursos universitarios, que le permita comprender mejor el movimiento y la física. Uno de los inconvenientes que podemos observar es la energía potencial, tal vez sea esta una pieza del rompecabezas que tengamos que estudiar más. 45 Agradecimientos Los Autores agradecen a la Universidad Autónoma Metropolitana Azcapotzalco, al departamento Ciencias básicas y al área de Física Atómica y Molecular Aplicada por las facilidades otorgadas para la realización del presente trabajo. Referencias [1] Robert M. Wald (1984): General Relativity, Chicago University Press, ISBN 0-226-870332. [2] Sears F. W., Zemanski M. W., Young H. D., Freedman R. A., (2005), Física Universitaria, volumen 1, editorial Pearson-Addison-Wesley, undécima edición. [3] Resnick R., Halliday D., Krane K., (2004), Física, volumen 1, editorial CECSA, quinta edición. [4] R. Espíndola and G. Del Valle, (2013), Using conservation theorem to introduce the ergodic hypothesis for a single particle, Latin American Journal of Physics Education. Aceptado para su publicación. 46 Síntesis, Caracterización y Evaluación de las Propiedades de la MOF Cu3(BTC)2 Sandra Loera Serna Universidad Autónoma Metropolitana - Azcapotazalco [email protected] Resumen En la actualidad las líneas de investigación en el campo de ingeniería de materiales se han enfocado en materiales híbridos con características modulables, que pueden tener diversas funcionalidades las cuales les confieren aplicaciones especificas. Tal es el caso de las redes metal-orgánicas, mejor conocidas como MOFs por sus siglas en inglés metal organic frameworks. Estos materiales consisten en centros de iones metálicos, enlazados entre sí por compuestos orgánicos (ligandos). La metodología de síntesis de las MOFs aporta características fisicoquímicas especificas, las que varían en función del tiempo de síntesis, del solvente usado y de la energía del proceso. En este trabajo se presentan los resultados más importantes obtenidos para la estructura Cu3(BTC)2 (BTC=benceno 1,3,5- tricarboxilato), que corresponde a una MOF de cobre con un ligando trivalente. Se ha desarrollado una metodología que mejora las propiedades de la MOF, como: área superficial, rendimiento, capacidad de adsorción y reduce el tiempo de síntesis, adicionalmente se ha determinado la máxima capacidad de adsorción de hidrógeno y algunas propiedades electroquímicas. Cabe señalar que los resultados de la caracterización electroquímica corresponden a una línea de investigación innovadora en cuanto a redes metal orgánicas. Palabras clave: redes metal orgánicas, MOFs, Cu3(BTC)2, electroquímica. Abstract At present the research in materials engineering has focused on hybrid materials with modular characteristics, which confer specific physicochemical properties for different applications. This is the case of metal-organic frameworks (MOFs). MOFs materials are formed by centers of metallic ions linked together by 47 organic compounds (ligands). The synthesis method of MOFs provides specific physicochemical characteristics, which can be modulated depending on the time of synthesis, the solvent used and the energy of the process. In this work we report the most important results obtained for the Cu3(BTC)2 (BTC=1,3,5benzenetricarboxylate) structure, which corresponds to a copper MOF with trivalent ligand. We have developed a method that improves the properties of the MOF, as surface area, yield, adsorption capacity and reduces the time of synthesis. In addition, the maximum hydrogen absorption capacity and some electrochemical properties additionally have been determined. Note that the results of the electrochemical characterization correspond to an innovative line of research in metal organic networks field. Key words: Metal organic framewoks, MOFs, Cu3(BTC)2, electrochemistry. Introducción Entre los materiales híbridos más estudiados en la actualidad se encuentran las redes metal orgánicas mejor conocidas como MOF (por sus siglas en inglés: metal orgánica frameworks). Las principales aplicaciones de las MOF son en catálisis [1], en adsorción de vapores polares [2] y de otros gases [3-5], en separación de hidrocarburos, [6,7] en almacenamiento de hidrógeno [8,9] o de dióxido de carbono [10] y en la dosificación de fármacos [11,12]. Un ejemplo de este tipo de estructuras es la MOF Cu3(BTC)2, conocida también como HKUST-1 o MOF-199, la cual esta formada por centros metálicos de cobre y una molécula orgánica del tipo feniltricarboxilato (BTC= benceno 1,3,5- tricarboxilato). En la Figura 1 se presenta el esquema de la estructura tridimensional de la MOF Cu3(BTC)2, esta estructura pose una porosidad libre de 40.7% y un sistema tridimensional de poros de 9 Å por 9 [13]. Figura 1. a) Ligante orgánico BTC, b) representación de la MOF Cu3(BTC)2. Las esferas de color rojo representan las moléculas de oxígeno, las grises representan los carbonos y las esferas azules representan los centros metálicos de cobre. 48 El almacenamiento de hidrógeno es una propiedad sobresaliente de las MOFs debido a su gran área superficial. Se han reportado valores superiores a 2800 m2/g gracias a su tamaño de poro y logran una capacidad e almacenamiento de 6.1 % en peso. Hasta la fecha estos materiales se les consideran como microporosos y su capacidad de adsorción es muy superior a la de los materiales microporosos convencionales como las zeolitas o los carbones activados [14, 15]. En este trabajo se reportan los resultados más importantes obtenidos para la estructura de la MOF Cu3(BTC)2. Se ha desarrollado una metodología que mejora las propiedades de la MOF, como: área superficial, rendimiento, capacidad de adsorción y reduce el tiempo de síntesis [16], adicionalmente se ha determinado la máxima capacidad de adsorción de hidrógeno de la MOF [17] y algunas propiedades electroquímicas [18]. Las técnicas de caracterización empleadas en este trabajo corresponden a; DRX, IR, TGA, adsorción de nitrógeno y adsorción de hidrógeno. La técnica electroquímica empleada fue voltamperometría cíclica. Metodología Para la preparación de la MOF Cu3(BTC)2 se pesaron 0.5 g de BTC y se disolvieron en 150 mL de agua destilada. Se adicionó gota a gota una solución con 0.86 g de nitrato de cobre disuelto en 40 mL de etanol. La mezcla se agitó 24 horas para garantizar la formación de la MOF. Se llevó la solución a centrifugado a 55 rpm por 20 minutos. El sólido se seco a 50°C por 2 horas. Posteriormente, se procedió a caracterizarlo mediante DRX, IR, adsorción de nitrógeno y TGA. Resultados En la Figura 2 se muestra el difractograma del sólido sintetizado, el cual corresponde a la estructura cristalina de Cu3(BTC)2 reportada [17]. El parámetro de red de la estructura cúbica es de 26.135 Å y el tamaño de cristal de 840 Å. Mediante IR se corroboró la presencia de los grupos funcionales característicos de la MOF: 728.15, 759.14, 1114.4, 1368.35, 1445.07, 1558.04, y 1615.13 cm-1 de grupos aromáticos trisustituidos, 1272.65 cm-1 de alcohol primario y 938.21 cm-1 de carboxilato. Mediante TGA se determinó que la MOF pierde 15 % de peso alrededor de 100 ºC, correspondiente a las moléculas de solvente (agua o etanol) ocluidas en la estructura y que la temperatura de estabilización de la estructura es de 356 ºC. 49 El área superficial obtenida mediante adsorción de nitrógeno fue de 1732 m2/g y la capacidad máxima de adsorción de hidrógeno fue de 2.44 % en peso. Este resultado es de los más altos comparados con otros síntesis reportadas [17] además se realiza en ausencia de solventes coordinates como dietilformamida, dimetilformamida, trietilamina, lo que minimiza los procesos post-síntesis de lavado, para dejar libre la estructura. En la Figura 3 se presenta la respuesta voltamperométrica de la MOF Cu3(BTC)2 con el electrodo modificado de pasta de carbón. La ventana de potencial fue de -0.5 a 0.5 V/SCE. En dichos voltamperogramas se muestran los ciclos 1, 2, 10 y 15 del electrodo modificado, se observan los procesos catódicos CI (c.a -0.07 V/SCE) y CII (-0.32 V/SCE) los cuales están asociados al proceso de reducción del Cu2+ a Cu0, mediante los pasos de reacción con un electrón de transferencia de carga en cada uno. Figura 2. Difractograma de la MOF Cu3(BTC)2. Se muestran los valores de los índices de Miller en las reflexiones principales.[17] Figura 3. Procesos catódicos y anódicos del electrodo modificado. CI y Cii representan los procesos catódicos, mientras que AI y Aii son los procesos farádaicos. 50 Durante el barrido anódico la oxidación del cobre metálico a Cu1+ ocurre entre el intervalo de potencial de -0.08 a -0.03 V/SCE, en c.a 0.17 V/SCE se exhibe el proceso farádico asociado a la oxidación de Cu1+ a Cu2+. Se demostró que la intensidad de corriente disminuye con respecto al número de ciclos, debido a la difusión de los iones cobre desde la interfase del electrodo hacia la solución, por otro lado, el recuadro muestra la variación del proceso farádico AII a los diferentes ciclos, en el ciclo 1 se exhibe solo un pico de oxidación del Cu0 a Cu1+ (c.a -0.03 V/SCE), mientras que en el segundo ciclo esta oxidación puede ocurrir en diferentes sitios de la interfase del electrodo, los cuales desaparecen al incrementar los ciclos. No existen trabajos previos reportados sobre la caracterización electroquímica de MOF, por lo que los mecanismos de procesos redox que ocurren en la estructura deben estudiarse cuidadosamente para poder implementar más aplicaciones de estos materiales en el campo de la electroquímica. Conclusiones Las MOFs tienen propiedades fisicoquímicas que pueden modularse durante las síntesis de las mismas, cambiando determinados parámetros. En este trabajo se propone una síntesis sencilla mediante agitación a temperatura ambiente y se logra una estructura cristalina con alta área superficial (1732 m2/g) y alta capacidad de retención de hidrógeno (2.44 % en peso). Adicionalmente se propone el estudio electroquímico de la MOF y se determinan los potenciales redox de las transiciones del estado de oxidación del cobre. Agradecimientos Al proyecto No. 154736 del CONACyT por el apoyo financiero y al Dr. Hiram Beltrán Conde por la colaboración y el apoyo para el desarrollo de esta línea de investigación. Referencias [1] Farrusseng D., Aguado S., Pinel C. (2009), Metal-Organic Frameworks: Opportunities for Catalysis, Angewandte Chemie, 48, 7502-7513. [2] Bourrelly S., Moulin B., Rivera A., Maurine G., Devautour S., Serre C., Devic T., Horcajada P., Vimont A., Clet G., Daturi M., Lavalley J.C., Loera–Serna S., Denoyel R., Llewellyn P.L., Férey G. (2010), Explanation of the Adsorption of Polar Vapors in the Highly Flexible Metal Organic Framework MIL-53(Cr), J. Am. Chem. Soc.,132(27), 9488-9498. 51 [3] Eddaoudi, M. Li, H. Yaghi O.H. (2000), Highly Porous and Stable Metal-Organic Frameworks: Structure Design and Sorption Properties, J. Am. Chem. Soc., 122(7), 13911397. [4] Millange, F. Serre, C. Férey G. (2002), Synthesis, Structure Determination and Properties of MIL-53as and MIL-53ht: The First CrIII Hybrid Inorganic-Organic Microporous Solids: CrIII (OH)·{O2C-C6H4-CO2}·{HO2C-C6H4-CO2H}x, Chem. Commun., 822-823. [5] Hu, S. Zhang, J.P. Li, H.X. Tong, L.M. Chen, X. M. Kittagawa K. (2007), A Dynamic Microporous Metal-Organic Framework with BCT Zeolite Topology: Construction, Structure, and Ad- sorption Behavior”, Cryst. Growth Des., 7(11), 2286- 2289. [6] Llewellyn P.L., Horcajada P., Maurin G., Devic T., Rosenbach N., Bourrelly S., Serre C., Vincent D., Loera–Serna S., Filinchuk Y., Férey G. (2009), Complex Adsorption of Short Linear Alka- nes in the Flexible Metal–Organic-Framework MIL-53(Fe), J. Am. Chem. Soc, 131(36), 13002-13008. [7] Pan L., Olson D.H., Ciemnolonski L.R., Heddy R., Li J. (2006), Separation of Hydrocarbons with a Microporous Metal–Organic Framework, Angewandte Chemie, 45(4), 616-619. [8] M. Latroche M., Surblé S., Serre C., Mellot–Draznieks C., Llewellyn P.L., Lee J.H., Chang J.S., Jhung S. H., Férey, G. (2006), Hydrogen Storage in the Giant-Pore Metal-Organic Frameworks MIL-100 and MIL-101, Angewandte Chemie, 45(48), 8227-8231. [9] Yildrim T., Hartman M.R. (2005) Direct Observation of Hydrogen Adsorption Sites and Nano–Cage Formation in Metal–Organic Frameworks (MOF), Phys. Rev. Lett., 95(215504), 1-4. [10] Millward A. R., Yaghi O.M. (2005) Metal–Organic Frameworks with Exceptionally High Capacity for Storage of Carbon Dioxide at Room Temperature, J. Am. Chem. Soc., 127(51), 17998-17999. [11] Taylor-Pashow K.M.L., Rocca J.D., Xie Z., Tran S., Lin W. (2009), Postssynthetic Modifications of Iron–Carboxylate Nanoscale Metal–Organic Frameworks for Imaging and Drug Delivery, J. Am. Chem. Soc. 131(40), 14261-14263. [12] Horcajada P., Chalati T., Serre C., Gillet B., Sebrie C., Batti T., Eubank J.F., Heurtaux D., Clayette P., Kreuz C., Chang J.S., Hwang Y.K., Marsaud V., Bories P.N., Cynober L., Gil S., Férey G., Couvreur P., Gref R. (2009), Porous Metal–Organic Framework Nanoscale Carries as a Potential Platform for Drug Delivery and Imaging, Nature, 9, 172-178. [13] Gref Y., Minamitake T., Ttrubestkoy M., Langerll. (1994), Biodegradable long-Circulating Polymeric Nanospheres. Science, 263(5153),1600-1603. [14] Janiak, C. V. (2010), MOFs, MILs and More: Concepts, Properties and Applications for Porous Coordination Networks, J. Chem, 34, 2366-2388. [15] Kuppler, R. J. (2009), Potential Applications of Metal-Organic Frameworks. C. Chem. Reviews, 253, 3042-3066. [16] Beltrán H. I., Loera-Serna S., Flores J., López Núñez L., López- Simeon R. (2013), Síntesis de Redes Metalorgánicas Tipo MOF, Solicitud de Patente, MX/A/2013/014913. 52 [17] Loera-Serna S., López Núñez L., Flores J., López- Simeon R., Beltrán H. I. (2013), An Alkaline One-Pot Metathesis Reaction to Give a [Cu3(BTC)2] MOF at r.t., Rith free Cu Coordination Sites and Enhanced Hydrogen Uptake Properties, RSC Advances, 3, 10962-10972. [18] Loera-Serna S., Oliver- Tolentino M. A., López-Núñez L., Santana-Cruz A., GuzmánVargas A., Cabrera- Sierra R., Beltrán H. I., Flores J. (2012), Electrochemical Behavior of [Cu3(BTC)2] Metal-Organic Framework: The Effect of the Method of Synthesis, J.Alloys Compounds, 540,113-120. 53 Aplicación Móvil para la Práctica de los Verbos Compuestos del Idioma Inglés Lizbeth Gallardo López, Beatriz González Beltrán, Julio César Castillo García Departamento de Sistemas, Universidad Autónoma Metropolitana, Unidad Azcapotzalco {glizbeth,bgonzalez}@correo.azc.uam.mx, [email protected] Resumen Esta investigación considera el concepto de estilo de aprendizaje postulado en el área de psicología y educación, el cual sostiene que cada persona aprende mejor si las tareas están enfocadas a su estilo de aprendizaje, a saber: visual, auditivo, kinestésico y lector-escritor. También considera que los dispositivos móviles son una plataforma adecuada para proponer aplicaciones que apoyen el aprendizaje de temas que requieren de práctica, por ejemplo: el aprendizaje del idioma inglés, el aprendizaje de las tablas de multiplicar, el aprendizaje de la programación. Además, los dispositivos móviles son cada vez más utilizados por la población mexicana, tal y como lo demuestra un estudio realizado por la COFETEL en el cuarto trimestre del 2013, el cual señala que existen 103.6 millones de suscriptores a la telefonía móvil y 16.56 millones de usuarios de banda ancha móvil. En particular, este trabajo presenta el análisis, diseño e implementación de una aplicación para dispositivos móviles destinada a la práctica de los verbos compuestos (phrasal verbs) del idioma inglés. Esta aplicación está enfocada en las personas con estilos de aprendizaje visual y kinestésico. Palabras clave: Aplicaciones móviles, estilos de aprendizaje, herramientas de apoyo al aprendizaje. Abstract This research considers the concept of learning style published in the area of psychology and education, which holds that each person learns better if the tasks are focused on their learning style: visual, aural, kinesthetic and readerwriter. Also considers that mobile devices are a suitable platform to propose applications that support skills practices, for example, english language learning, multiplication tables, programming learning. Furthermore, Mexicans use their mobile devices even more, according to a study conducted by COFETEL in the fourth quarter of 2013, shows that there are 103.6 million subs54 cribers to mobile telephony and 16.56 million of mobile broadband users. In particular, this paper presents the analysis, design and implementation of a mobile application for phrasal verbs skills practices. This application is targeted to users with visual and kinesthetic learning styles. Key words: Mobile applications, learning styles, learning support tools. 1. Introducción Una investigación realizada por Cortés et al. [1] señala que la mitad de los alumnos que estudiaron el idioma inglés, en el Centro de Enseñanza de Lenguas Extranjeras (CELEX) durante el periodo 2005-2007, en la Universidad Autónoma Metropolitana, Unidad Azcapotzalco (UAM-A), alcanzaron un nivel básico. Uno de los tópicos con mayor dificultad para los estudiantes es el uso adecuado de los verbos compuestos (phrasal verb) del idioma inglés. Un phrasal verb está formado por un verbo más una partícula gramatical: un adverbio o una preposición. Una característica de estos verbos es que su significado varía según la partícula gramatical; además, un mismo phrasal verb puede tener más de un significado, según el contexto de la oración donde se emplea; por ejemplo, turn down en la oración: “He turned down the radio”, no tiene nada que ver con la oración “He turned her down”. De acuerdo con el modelo VARK por sus siglas en Inglés Visual-Aural-Reading/Writing-Kinesthetic propuesto por N. Fleming [2], los estudiantes tienen distintas maneras de aprender: 1. Estilo Visual (Visual). Los estudiantes con estilo visual aprenden mejor observando imágenes, tales como: diagramas, ilustraciones, mapas, videos, entre otros. En este estilo de aprendizaje, las personas prefieren las imágenes al texto. 2. Estilo Auditivo (Aural). Los estudiantes con estilo auditivo aprenden mejor escuchando información. En este estilo de aprendizaje, las personas buscan conferencias, cátedras, programas de radio, entre otros y son buenas recordando cosas que escuchan. 3. Estilo Lector-Escritor (Reading-Writing). Los estudiantes con estilo lector-escritor aprenden mejor cuando la información es presentada en forma escrita. En este estilo de aprendizaje, las personas prefieren material basado en texto. 4. Estilo Kinestésico (Kinesthetic). Los estudiantes con estilo kinestésico 55 aprenden mejor tocando y haciendo algo con las manos. En este estilo de aprendizaje, es importante para las personas tener una experiencia práctica. Incluso, algunos estudiantes tienen un estilo multimodal; es decir, según la situación en que se encuentren, emplean uno u otro estilo de aprendizaje [3] . Este trabajo considera diferentes estilos de aprendizaje para proponer recursos educativos para apoyar el aprendizaje de los verbos compuestos del idioma inglés. Además, explora las nuevas tecnologías de la información y la comunicación para poner a disposición estos recursos educativos. Cabe señalar que los teléfonos inteligentes cada vez son más utilizados por la población Mexicana, tal y como lo demuestra un estudio realizado por la COFETEL en el cuarto trimestre del 2013, el cual señala que existen 103;6 millones de suscriptores a la telefonía móvil y 16;56 millones de usuarios de banda ancha móvil. Es por ello que esta investigación propone emplear dispositivos móviles (smarthphone y tablets) como plataforma para construir aplicaciones educativas pero en forma de juego, las cuales puedan ser accedidas por el usuario en cualquier momento y en cualquier lugar. Este artículo presenta una aplicación móvil con sistema operativo Android llamada Phrasal Verbs. Esta aplicación está estructurada como un juego y considera a los alumnos con estilo de aprendizaje visual y kinestésico. Phrasal Verbs consta de tres juegos: Throwing verbs, Phrases soup y Special. Todos los juegos consisten en asociar imágenes con verbos compuestos; donde cada verbo compuesto tienen una correspondencia con la situación que describe una de las imágenes. El juego funciona con la generación dinámica de nuevas partidas, es decir, los ejercicios son propuestos de manera aleatoria. Se manejan tres niveles de dificultad: principiante, intermedio y avanzado; se maneja un cronómetro y un medio de puntuación para que el usuario observe el éxito obtenido en cada uno de los juegos. El artículo está organizado de la siguiente manera: la sección 2 presenta algunos trabajos relacionados con nuestro caso de estudio, a saber: aplicaciones que se han propuesto para la práctica del idioma inglés; la sección 3 presenta parte del análisis y diseño de la aplicación Phrasal Verbs, la sección 4 presenta la implementación de la aplicación, y finalmente se presentan la conclusiones y las perspectivas de este trabajo 2. Aplicaciones para la práctica del idioma inglés Existe una gran variedad de aplicaciones interactivas para la puesta en práctica del idioma inglés, pero pocas se proponen para dispositivos móviles y 56 casi ninguna en forma de juego. Algunos trabajos relacionados son: The Oxford Picture Dictionary [7] es una aplicación móvil desarrollada por la Universidad de Oxford, la cual propone ejercicios que consisten en la asociación de imágenes con el vocabulario de diversas situaciones de la vida cotidiana y estudiantil. Esta aplicación cuenta con un módulo de evaluación en el cual se puede poner a prueba lo aprendido. Esta aplicación no cuenta explícitamente con algún apartado dedicado a los verbos compuestos del idioma inglés. La aplicación Learn and Play English [8] es una aplicación móvil desarrollada por la Compañía DOMOsoft que propone la práctica del idioma inglés en un nivel básico, donde no se incluye un módulo específico para practicar los verbos compuestos del inglés. La aplicación Phrasal Verbs Mobile [9] es una aplicación móvil para la plataforma Android y está dedicada completamente a los verbos compuestos del inglés, dando su significado y proporcionando pequeños ejercicios para evaluar el aprendizaje de quien lo usa; sin embargo, los ejercicios están conformados por asociaciones de los verbos compuestos a sus significados en inglés o sinónimos de las palabras en inglés y no incluye ningún tipo de imagen que permita reforzar la interpretación y el uso de los verbos compuestos en el contexto adecuado. Esta investigación considera que una aplicación con un ambiente de juego no solo hará más atractiva la práctica del uso correcto de los verbos compuestos del inglés, sino que a través de la asociación de los verbos con las imágenes que describen las acciones dentro de un contexto determinado, se toma en cuenta a los aprendices que son visuales y kinestésicos. Además, el uso de dispositivos móviles permitirá que un mayor número de estudiantes practique en cualquier momento y en cualquier lugar, a través del juego, los verbos compuestos del idioma inglés. 3. Análisis y diseño de Phrasal Verbs La aplicación Phrasal Verbs está compuesta de tres juegos: Throwing verbs, Phrases soup y Special, los cuales están enfocados a estudiantes con estilos de aprendizaje visual y kinestésico, principalmente porque estos juegos requieren que el usuario asocie una imagen que representa una acción con el verbo compuesto correspondiente. Todas las acciones del usuario se realizan a través de la pantalla táctil del dispositivo. Los verbos compuestos 57 considerados en la aplicación están formados por solo dos palabras: verbo + partícula (adverbio ó preposición); y se seleccionaron aquellos que son más utilizados en conversaciones cotidianas [4,5]. La descripción de cada juego se presenta a continuación. 1. Throwing verbs. Este juego consiste en un verbo compuesto (expresado de forma escrita), y una serie de imágenes. Cuando el usuario ubica la imagen que representa la acción del verbo compuesto, debe tocar la imagen para que se desplace hacia el verbo. 2. Phrases soup. Este juego consiste en una imagen y seis palabras correspondientes a verbos y partículas. El usuario debe juntar las dos palabras que forman al verbo compuesto correspondiente a la situación que describe la imagen. 3.Special. Este juego inicia con una imagen y una oración, a la cual le falta el verbo compuesto; la imagen que presenta la aplicación es la clave para que el usuario seleccione el verbo compuesto correcto. Cada juego consta de siete partidas; donde el número de ejercicios es determinado por el nivel del usuario, y son escogidos aleatoriamente por la aplicación. Además, cada partida tiene un límite de tiempo que depende igualmente del nivel de cada juego, la tabla 1 muestra los parámetros para cada nivel. Es importante mencionar que el juego Special no tiene un nivel de dificultad asignado, y se proponen treinta ejercicios. Tabla1. Parámetros de juego. Nivel Conjunto de ejercicios Tiempo (minutos) Principiante 10 15 Intermedio 20 10 Avanzado 30 5 Para el desarrollo de la aplicación Phrasal Verbs se utilizaron elementos de un marco de trabajo (framework), propuesto por Mario Zechner [6]. Este framework está basado en el patrón de diseño Modelo-Vista-Controlador (MVC). En particular, se emplearon las clases que se encargan de la representación en pantalla de los elementos gráficos del juego (Vista) y de las clases Controladoras que reciben los movimientos que realiza el usuario sobre la Vista para luego comunicarse con el Modelo del juego activo en ese momento, el cual en respuesta envía el estado del juego a partir de ese movimiento. El diagrama de paquetes de la figura 1 muestra la distribución de las clases en la aplicación Phrasal Verbs. 58 Figura 1. Diagrama de paquetes de Phrasal Verbs. La lógica de la aplicación se encuentra en un conjunto de clases que conforman el Modelo de nuestra aplicación (ver figura 2), las cuales se describen brevemente: 1. La clase abstracta JuegoPV define el protocolo de comunicación del framework con los juegos; además define algunas características, igualmente compartidas por los juegos. 2. La clase Imagen, conserva el identificador de la imagen, así como la referencia a la imagen. 3. La clase ParteVerbo mantiene los identificadores y las palabras que conforman al verbo compuesto (verbo, partícula). 4. La clase VerboCompuesto está compuesta de dos clases ParteVerbo, para obtener un verbo compuesto. 5. La clase EnunciadoVerboCompuesto se emplea en el juego Special conservando los enunciados que deben formarse con los verbos compuestos, haciendo referencia al identificador del verbo y al identificador de la imagen asociados a dicho enunciado. 59 Figura 2. Clases del Modelo de Phrasal verbs. 4. Implementación de Phrasal Verbs Phrasal Verbs funciona en teléfonos inteligentes con sistema operativo Android versión mínima 2.2 (Froyo); aunque se recomienda la versión 2.3 (Gingerbread). El dispositivo deberá contar con pantalla táctil (aunque no se requiere que la pantalla del dispositivo sea multitoque). La resolución para la que se diseñó la aplicación es de 480 x 320 pixeles, aunque en dispositivos de mayor tamaño funcionará sin problemas, dado que la misma aplicación adapta el tamaño de la imagen al tamaño de la pantalla, pero con una pérdida en la calidad en las imágenes. La pantalla principal (ver figura 3) muestra la opción de sonido activo o inactivo y cada nivel del juego activo o inactivo, a partir de la evaluación del nivel previo. Esta figura muestra la pantalla principal de la aplicación cuando el juego Throwing verbs ha sido desbloqueado. Cuando un jugador inicia por primera vez la aplicación, el nivel activo es el de principiante (beginner) y el único juego activo es Phrases soup. Una vez terminadas todas las partidas del juego Phrases soup con un 80% de respuestas correctas, el usuario pasa al juego Trowing verbs del mismo nivel. El usuario pasa al siguiente nivel, cuando ha cubierto los dos juegos del nivel previo. 60 Figura 3. Pantalla principal, cuando el juego Throwing verbs es desbloqueado. La Figura 4 muestra la ejecución del juego Throwing verbs en el nivel de principiante, donde se observa el cronómetro y el número de partidas con respuestas correctas. Al pulsar sobre la imagen, ésta se mueve hacia el verbo compuesto que se muestra en pantalla. Si el verbo compuesto corresponde con la imagen seleccionada, el cuadro que contiene el verbo compuesto cambia a color verde, de lo contrario cambia a color rojo, y si el sonido está activo se reproduce un tono indicando que el movimiento es correcto, o bien otro tono indicando que el movimiento es incorrecto. Figura 4. Juego Throwing verbs cuando el usuario ha seleccionado una imagen. La aplicación Phrasal Verbs cuenta con treinta imágenes con sus respectivos verbos compuestos y sus oraciones; sin embargo, la aplicación tiene un módulo de escritorio llamado PhrasalVerbs Utility, el cual permite agregar o eliminar verbos compuestos con sus respectivas imágenes y oraciones. Desde luego, este módulo es para uso exclusivo de profesores y personas responsables de la aplicación. 61 6. Conclusiones y trabajo futuro En este artículo se presentó una aplicación móvil para la práctica de los verbos compuestos del idioma inglés, llamada Phrasal Verbs. Esta aplicación está estructurada como un juego que permite la práctica del idioma inglés y que considera a los alumnos con estilo de aprendizaje visual y kinestésico. Phrasal Verbs funciona bajo el sistema operativo Android y consta de tres juegos: Throwing verbs, Phrases soup y Special. Todos los juegos consisten en asociar imágenes y verbos compuestos; donde cada verbo compuesto tienen una correspondencia con la situación que describe una de las imágenes. El juego funciona con la generación dinámica de nuevas partidas, con un conjunto de ejercicios propuestos de manera aleatoria. Se manejan tres niveles de dificultad: principiante, intermedio y avanzado; se maneja un cronómetro y un medio de puntuación para que el usuario observe el éxito obtenido en cada uno de los juegos. En el corto plazo, existen varios objetivos en esta investigación: 1) Enriquecer la base de ejercicios para cada juego; es decir, pasar de una base de 30 a 100 verbos compuestos. 2) Experimentar la aplicación con una muestra de alumnos inscritos al CELEX de la UAM-A, para medir la eficacia del aprendizaje de los verbos compuestos por parte de los alumnos con estilos visual y kinestésico. 3) Dotar a la aplicación con sonido para que los alumnos practiquen la pronunciación de los verbos compuestos. Agradecimientos Agradecemos la participación del ilustrador Rubén de la Torre Hernández, quien se encargó de realizar las imágenes que emplea la aplicación Phrasal Verbs. Referencias [1] Cortés G., Serrano D. y Valero-Borrás V. (2012). “Utopías y realidades en el requisito de inglés en los planes de estudio de las carreras de la UAM-A. http://relinguistica.azc.uam. mx /no011/sec01a01.htm. [En línea; consultado el 3 de septiembre de 2014]. [2] Fleming, N. D. (2006). “VARK Visual, Aural/Auditory, Read/Write, Kinesthetic”. New Zealand: Bonwell Green Mountain Falls. 62 [3] Klement, M. (2014). “How do my students study? An analysis of students’ of educational disciplines favorite learning styles according to VARK classification.” Procedia-Social and Behavioral Sciences, Elsevier, vol. 132. p. 384-390. [4] Spears R. A. (2005). Dictionary of American Idioms and Phrasal Verbs, McGraw-Hill. [5] Oxford University (2003). Really Learns 100 Verbs, Oxford University Press. [6] Zechner M. (2011). Beginning Android Games, Apress. [7] Oxford Picture Dictionary. https://itunes.apple.com/mx/app/oxford-picture-dictionary/ id591484885?mt=8. [En línea; consultado el 3 de junio de 2015]. [8] Learn and play US American English. https://play.google.com/store/apps/details? id=free.langame_us.rivex. [En línea; consultado el 3 de junio de 2015]. [9] Phrasal verbs. https://play.google.com/store/apps/details?id=com.aarraappss. phrasalverbs&hl=es_419. [En línea; consultado el 3 de junio de 2015]. 63 Uso de Análogos Estructurales del Ácido Valproico en la Inhibición de Desacetilasas de Histonas, Como Propuesta para el Tratamiento de Glioblastomas Marco Jiménez Olivares, Andrea Alpuche García, Leticia Arregui Mena, Hiram Isaac Beltrán División de Ciencias Naturales e Ingeniería. Universidad Autónoma Metropolitana Unidad Cuajimalpa [email protected], [email protected] Resumen El glioblastoma es uno de los diferentes tipos de cáncer que afectan a la humanidad, y tiene las siguientes características: baja tasa de sobrevivencia de los pacientes y la dificultad que lleva su tratamiento. Recientemente, se ha utilizado el ácido valproico (AVP) como coadyuvante en el tratamiento de glioblastomas, sin embargo tiene diversos efectos secundarios, es por esto que en este trabajo se sintetizaron, caracterizaron y evaluaron análogos estructurales tipo amida del ácido valproico. Resultados: Los compuestos obtenidos fueron 7 valproamidas con diferentes sustituyentes en el anillo aromático de la molécula. La síntesis se realizó empleando el cloruro del AVP para llevar a cabo una reacción de condensación con el orto-aminofenol (APhOH1-5) deseado. La caracterización se llevó a cabo empleando cromatografía de placa fina, espectroscopia IRTF, RMN de 1H, 13C, HETCOR, y determinando los puntos de fusión para cada uno de los compuestos. Para medir su eficacia en el tratamiento de glioblastomas, se probaron los diferentes compuestos en dos líneas celulares, una de rata (C6) y una de humano (U373), los resultados indican que los 7 compuestos nuevos tienen efectos a menores concentraciones que el compuesto base (AVP); los compuestos que tuvieron mayores efectos a menores concentraciones fueron los que tienen átomos de Cl en su estructura, seguidos por los que tienen grupos nitro, después los de metilo y finalmente el compuesto que sólo tiene hidrógenos sobre el anillo aromático. Palabras clave: Glioblastoma, ácido valproico, análogos estructurales, viabilidad celular. 64 Abstract Glioblastoma is one of several types of cancer that affect humanity, and has the following characteristics: low survival rate of the patients and the difficulty that bears its treatment. Recently, it has been used valproic acid (VPA) as an adjuvant in the treatment of glioblastomas, however, it has various side effects, which is why in this work structural amide analogues of VPA were synthesized and evaluated. Results: The obtained compounds were seven valproamides with different substituents on the aromatic ring of the molecule. The synthesis was carried out using the chloride of AVP to carry out a condensation reaction with an ortho-aminophenol (APhOH1-5). The characterization was carried out using thin layer chromatography, FTIR spectroscopy, 1H, 13C and HETCOR NMR, and the melting points for each of the compounds were determined. To measure its efficacy in the treatment of glioblastomas, these compounds were tested in two cell lines, one from rat (C6) and the other from human (U373). The results indicate that the seven new compounds have effects at lower concentrations than base compound AVP; compounds showing the major effects at the lowest concentrations were those containing chlorine as substituent, followed by those with nitro groups, later on those containing methyl and finally the one with only hydrogen atoms in the aromatic moiety. Key words: Glioblastoma, valproic acid, structural analogs, cell viability. Introducción El cáncer es el crecimiento anormal de células, que pueden invadir regiones del cuerpo cercanas, a su foco de inicio o dispersarse a otros órganos[1]. La Organización Mundial de la Salud estimó que el cáncer es una de las principales causas de muerte en el mundo, para el 2012 causó 8.2 millones de defunciones, principalmente por cáncer de pulmón, estómago, hígado, colon y mama [2].Particularmente en México la Secretaria de Salud indica que durante 2010, murieron 7 mil 445 personas a consecuencia del cáncer [3]. El cáncer se origina de una célula con una mutación que le da la capacidad de adquirir nuevos cambios como son otras mutaciones o cambios epigenéticos para afectar la función y expresión de genes involucrados en la proliferación celular, el control del ciclo celular, la muerte celular programada, la diferenciación celular, entre otros [4]. La investigación en cáncer se ha enfocado tradicionalmente en la identificación de mutaciones genéticas, sin embargo diversos estudios han evidenciado la importancia de los cambios epigenéticos como la causa de esta enfermedad [5]. 65 Los mecanismos de control epigenético implican cambios en la expresión de genes por metilación del ADN o modificaciones covalentes de las histonas en aminoácidos específicos, principalmente de sus extremos amino libres, tales como acetilación, metilación, fosforilación, ubiquitinación, etc. [4-6] sin alterar la secuencia de nucleótidos de los genes. Entre estas modificaciones, la acetilación y desacetilación de las histonas tiene un papel central en la regulación epigenética. Un nivel alto de acetilación de histonas caracteriza a la cromatina transcripcionalmente activa, mientras que la cromatina inactiva usualmente presenta niveles bajos de acetilación de histonas [4,6]. En general, se ha descubierto que la ocurrencia de muchos tipos de cáncer está acompañada de una hipoacetilación de histonas [7]. Es por esto que las nuevas estrategias para el tratamiento del cáncer se enfocan entre otras cosas en la restauración del balance entre acetilación/desacetilación empleando inhibidores de desacetilasas de histonas (iHDAC) como el ácido valproico (AVP) [8]. El AVP tiene diversos efectos sobre diferentes tipos de células cancerosas y tumores, induciendo la apoptosis, diferenciación, inhibición de la proliferación, entre otros; estos efectos los realiza de forma autónoma, pero también a través de estos procesos potencia el efecto de otros fármacos[10,11,12]. La actividad como iHDAC del AVP se ha descrito recientemente, de ahí que resulte de interés su uso dentro de las terapias contra el cáncer, ya que es un fármaco utilizado en otros padecimientos al cual se le ha encontrado una nueva función [10]. Sin embargo, a pesar de los efectos prometedores que ofrece el AVP contra el cáncer, se ha detectado que causa diversos efectos secundarios que van desde moderados a severos y que están relacionados con los efectos neurológicos [8]. Los glioblastomas son los tumores cerebrales primarios más comúnes [13] y son de los cánceres más devastadores, ya que los tratamientos convencionales no aumentan la media de supervivencia de los pacientes con este tipo de padecimiento [14], por lo tanto es importante investigar nuevos tratamientos para combatir este tipo de cáncer. Es por ello que este trabajo tiene el propósito de evaluar los análogos del AVP sintetizados y caracterizados en dos líneas celulares de glioma, esperando que cuenten con mayores efectos en dosis menores para poder reducir los efectos secundarios. 66 Métodos Esquema general de síntesis de compuestos AV. Se colocaron 7.3 mL de SOCl2 en conjunto con 0.5 g de AVP en un matraz de bola y se disolvieron con 40 mL de CH3CN para formar el cloruro del ácido, esta etapa de la reacción se llevó a cabo por 24 h en agitación a temperatura ambiente. Después se agregó una cantidad equimolar del ortoaminofenol correspondiente disuelto en CH3CN y se adicionaron 5 mL de trietilamina mediante goteo al seno de la reacción empleando un embudo de adición. Después de la adición la mezcla se mantuvo una hora en agitación magnética y posteriormente se llevó a reflujo, el cual se mantuvo durante 24h. Una vez transcurrido este tiempo se obtiene la amida correspondiente (ver figura 1). Los volátiles se remueven empleando presión reducida hasta sequedad, la mezcla se disuelve con THF quedando insoluble el cloruro de trietilamonio, el cual se separa por filtración. La fracción soluble se lleva a sequedad nuevamente y el sólido resultante se recristaliza en mezclas acetato de etilo:hexano. De esta manera se lograron obtener los compuesto AV1-7 en un rendimientos que van de 23 al 78%. Una vez purificados los compuestos AV1-7 se caracterizaron empleando cromatografía de placa fina, espectroscopia IRTF, RMN de 1H, 13C, HETCOR, y determinando los puntos de fusión para cada uno de los compuestos. En todos los resultados espectroscópicos y de caracterización se puede evidenciar la formación de las amidas correspondientes. Figura 1. Esquema de síntesis de los análogos del AVP. 67 Cultivo Celular Para las pruebas biológicas se utilizaron células de glioma de las líneas celulares C6 (de glioma de rata) y U373 (de glioma de humano). Las células se mantuvieron en medio de cultivo F12 modificado de Dulbecco Eagle (DMEM-F12) con 10% de suero fetal bovino (Invitrogen) y 1 mg de ampicilina-estreptomicina, a una temperatura de 37°C en una atmósfera húmeda con 5% de CO2. Determinación de la IC50 Para determinar las concentraciones inhibitorias 50 (IC50) de los compuestos se realizaron ensayos de viabilidad; para lo cual se mezclaron los compuestos AV1-7 y el AVP con Tween 80 como agente emulsificador (9 Tween 80:1 compuesto) para disolverlos en agua (9 agua:1 mezcla); las células se sembraron en placas de 96 pozos a una densidad de 5 x 103 células/pozo, 24h después de la siembra las células se trataron con AVP o AV1-7 a diferentes concentraciones (1000, 500, 250, 125, 62.5 y 6.25 μM) por 24h para las células C6 y 48h para las células U373. La viabilidad fue evaluada cuantificando la formación de formazán por deshidrogenasas mitocondriales a partir de la sal de tetrazolio WST-1 (Roche) y se cuantificó en un espectrofotómetro a una longitud de onda de 595 nm. Para algunos de los compuestos la viabilidad celular se determinó por conteo directo. Las IC50 se determinaron utilizando el programa GraphPad Prism 6. Además se obtuvieron microfotografías antes de evaluar la viabilidad (200X) en un microscopio invertido para evidenciar los cambios celulares causados. Resultados Se sintetizaron y caracterizaron 7 diferentes análogos tipo amida del ácido valproico (AVP), la posición de los diferentes sustituyentes del anillo aromático y la estructura de los compuestos evaluados se presenta en la Tabla 1. 68 Tabla 1. Estructura de las amidas valproicas, se indica el sitio y los sustituyentes presente en cada molécula AV1-7. Compuesto R4 y R5 AV1 4-H, 5-H AV2 AV3 AV4 AV5 AV6 AV7 Estructura 4-H, 5-Me 4-Me, 5-H 4-H, 5-NO2 4-NO2, 5-H 4-H, 5-Cl 4-Cl, 5-H La evaluación de estos compuestos se realizó en células de glioma de las líneas celulares de C6 y U373, en la figura 2 observamos que los compuestos AV1-7 a una concentración de 250 μM tienen efectos sobre la línea celular C6. Estos efectos se pueden observar a las 24h de tratamiento, por el contrario en las células de la línea celular U373 los efectos se pueden observar hasta las 48h de tratamiento (figura 3) también a una concentración de 250 μM. Figura2. Micrografías de contraste de fase (200X) de la línea celular de glioma C6 (24h). Se observan los efectos de los compuestos AV1-7 en las concentraciones más cercanas a las IC50. También se observa la morfología normal de las células (sin tratamiento), el efecto del vehículo (Tween) y el efecto del compuesto base (AVP) también cercano a su IC50. 69 Figura3. Micrografías de contraste de fase (200X) de la línea celular de glioma U373 (48h). Se observan los efectos de los compuestos AV1-7 en las concentraciones más cercanas a las IC50. También se observa la morfología normal de las células (sin tratamiento), el efecto del vehículo (Tween) y el efecto del compuesto base (AVP) también cercano a su IC50. La concentración de los compuestos AV1-7 requerida para dichos efectos es mucho menor que la que se requiere de AVP para observar cambios semejantes. En especial las células tratadas con los compuestos AV6 y AV7 son las que se encuentran más dañadas, lo cual confirmamos con la evaluación de la viabilidad celular (figura 4 y 5) en ambas líneas celulares. La evaluación de la viabilidad celular confirma que los 7 compuestos sintetizados muestran efectos celulares promisorios en concentraciones menores que el compuesto base AVP (tabla 2). Los sustituyentes electro donadores o neutros, presentes en los compuestos AV2-3 y AV1 respectivamente, tienen las IC50 más altas, lo que significa que tienen efectos sobre la viabilidad celular a concentraciones mayores en ambas líneas celulares (figuras 4 y 5). Por otro lado los compuestos AV4 y AV5 que cuentan con sustituyentes electroatractores tienen una IC50 media, por lo que las concentraciones a las que tienen efecto es menor a los compuestos AV1-3. 70 Figura 4. Gráficas en las que se observan los resultados de absorbancia o número de células (viabilidad celular) ante las distintas concentraciones de los compuestos AV1-7 sobre las células de glioma C6. Las concentraciones se indican como el log de la concentración. Las líneas representan el ajuste de los datos por regresión no lineal para calcular las IC50 (Tabla 2). Figura 5. Gráficas en las que se observan los resultados de absorbancia o número de células (viabilidad celular) ante las distintas concentraciones de los compuestos AV1-7 sobre las células de glioma U373. Las concentraciones se indican como el log de la concentración. Las líneas representan el ajuste de los datos por regresión no lineal para calcular las IC50 (Tabla 2). 71 Mientras que en los compuestos AV6 y AV7, que son los que tienen IC50 menores, la concentración a la cual tienen efectos es muy baja, pues es cuando menos 10 veces menor que la calculada para el AVP. Tabla 2. Valores con desviación estándar de IC50 de las amidas valproicas AV1-7. Compuesto AV1 AV2 AV3 AV4 AV5 AV6 AV7 AVP Conclusiones IC50 C6 IC50 U373 123.9±0.111 188.1±.050 180.3±0.241 180.3±0.101 75.33±0.246 219. 8±0.077 183.5±0.072 38.8±0.212 61.1±0.119 31.5±0.124 19.5±0.072 223.1±0.002 37.1±0.145 931.4±0.137 25.6±0.009 516.7±0.003 Es posible dar lugar a valproamidas por la condensación del cloruro del ácido con aminofenoles. Los compuestos inhiben el crecimiento de líneas celulares de glioma a concentraciones menores que el fármaco convencional AVP. En las células C6 y U373 el compuesto con mejor actividad fue AV6 que tiene en su estructura un Cl como sustituyente, los análogos con grupos nitro tienen una actividad media, seguidos por aquellos que tienen un metilo, dejando en último lugar el AV1 que cuenta con hidrógenos como sustituyentes. Agradecimientos A CONACYT proyecto 47310319, becaria 497183 y a la UAM. Referencias [1] Organización Mundial de la Salud (OMS), 2012. http://www.who.int/mediacentre/factsheets/fs297/es/ consultado el 11 de septiembre de 2014. [2] Internacional Agency for Research on Cancer (GLOBOCAN), 2012. http://globocan. iarc.fr/Pages/fact_sheets_cancer.aspx. Consultado el 11 de septiembre de 2014. [3]Instituto Nacional de Estadística y Geografía (INEGI), 2011. http://www.inegi. org.mx/inegi/contenidos/espanol/prensa/contenidos/estadisticas/2011/cancer11. 72 asp?s=inegi&c=2781&ep=51. Consultado el 11 de septiembre de 2014. [4] Arenas-Huertero F. y F. Recillas-Targa. 2002. Gaceta medica de México 138 (6): 547555. [5] Esteller M. 2007. Nature Publishing Group 2007: 286 (8). [6] Alberts B., Bray D., et al. 2002,”Biología Molecular de la célula” (3ª ed.), Ed. Omega, Barcelona. [7] Delgado V. D. 2004. Real Academia Nacional de Farmacia. Revista electrónica http:// www.analesranf.com/index.php/mono/issue/view/313 consultado el 7 de julio de 2012. [8] Chateauvieux S., Morceau F., et al. 2010. Journal of Biomedicine and Biotechnology 2010: 479364. [9] Domínguez L. W., Rodriguez A. J. R., et al. 2007. Facultad de Ciencias Medicas 2007 (8): 105. [10]Benítez J.A., Arregui L., et al. 2008. Neuroscience 156: 911-920. [11]Wang C., Luan Z., et al. 2011.Neuroscience Letters 497 (2011): 122-127. [12]Eyal S., Yagen B., et al. 2005. Biochemical Pharmacology 69 (2005): 1501-1508. [13]Chen Y., Tsai Y.-H., et al. 2012 J. Neurooncol 109: 23-33. [14]Shao C., Wu M., et al. 2012. Chinese Medical Journal 125 (24): 4338-4343. [15]Michaelis M., Doerr H. W., et al. 2007. Curr Pharm Des 13 (33):3378-93. [16]Catalano M. G., Fortunati N., et al. 2005. J Clin Endocrinol Metab 90 (3):13. 73 Optimización de la Asignación del Personal Docente con Base en una Evaluación Integral Rodolfo Espíndola Heredia1, Enoc Gutiérrez Pallares.2, Jesús Edmundo López Hernández.2, Marco Antonio Pérez Méndez2 Universidad Autónoma Metropolitana-Azcapotzalco, Física Atómica y Molecular Aplicada, Laboratorio de Investigación en Dinámica Rotacional, Avenida San Pablo 180, Azcapotzalco, Reynosa Tamaulipas, 02200 Ciudad de México, D.F. 1 Universidad Autónoma del Estado de México, Unidad Académica Profesional Cuautitlán Izcalli, Av. Prolongación Islas s/n, Col. Atlanta 2ª. Sección, 54740 Cuautitlán Izcalli, México. 2 [email protected]; [email protected]; uapci.planeacion@gmail. com; [email protected] Resumen El desempeño del personal docente en la UAP Izcalli, actualmente se mide en conformidad con tres criterios importantes: 1) la apreciación del profesor realizada por los estudiantes, 2) la evaluación de la clase metodológica y 3) visita a clase por personal del área académica durante el período. Esta información aunque útil, no es utilizada para la asignación de la carga laboral del docente en el período siguiente. En el presente trabajo, presentamos un modelo de programación lineal donde proponemos integrar toda la información disponible sobre el desempeño docente, de tal forma, que la asignación de profesores considere todos los aspectos; tanto de evaluación, cumplimiento, así como sus restricciones. Esta propuesta de asignación, garantizará la optimización del personal docente y al mismo tiempo se reflejará en un mayor aprovechamiento del estudiante. Palabras clave: Educación Universitaria, Investigación Operacional, Administración Docente. Abstract The competence of teachers in the UAP Izcalli currently measured according to three major criteria: 1) teacher appreciation by students, 2) evaluation of methodological class and 3) visit to class by the academic area during the period. This information, while useful, but is not used for allocating the 74 workload of teachers in the next period. In this paper, we present a linear programming model which we propose to integrate all available information on teacher performance, so that the allocation of teachers considers all aspects; Therefore evaluation, compliance and restrictions. This proposal will ensure the optimization allocation of teachers and at the same time will be reflected in higher student achievement. Key words: Higher Education, Operational Research, Educational Administration Introducción El compromiso con la calidad en toda institución de educación pública es preponderante hoy en día, una de las metas de toda institución de educación superior es proveer una formación sólida e integral a sus usuarios, que permita a sus egresados ser incluidos en las distintas dinámicas contemporáneas que la globalización demanda. Para ello es importante que su personal académico se le permita participar dentro de la visión de la institución, haciendo cumplir su misión de manera asertiva. Entonces, es prioridad de quienes dirigen una institución de educación superior, proporcionar información, asesoría y capacitación, así como diversas actividades a fin de fortalecer la mejora continua de la institución, por lo tanto debe pugnarse por una permanente actualización del sistema de gestión de calidad y como consecuencia de la estructura organizacional, considerando siempre la permanente atención, que de manera general debe ser: eficiente, efectiva y amable para satisfacer las expectativas y demandas de los usuarios, desde luego impulsando el conocimiento con valores y realizando las actividades con una alta responsabilidad social. En esta búsqueda de la excelencia por parte de las instituciones de educación superior se adquiere el compromiso de formar a los estudiantes a través de modelos integrales, pertinentes y de calidad, basados en la investigación, difusión, extensión y vinculación, de esta manera se pretende proveer de carácter científico, social, cultural, artístico a todos los egresados, para que aparezcan nuevas y mejores formas de existencia y convivencia hacia sus distintos entornos, además estén capacitados para promover la responsabilidad social, la cooperación y la conciencia universal en los distintos ámbitos del ejercicio de su profesión. Para alcanzar estos ideales, toda Institución de educación superior debe contar con personal académico, el cual se debe encontrar preparado y ac75 tualizado, a fin de que se distinga en la docencia, la investigación, la difusión cultural, la extensión y vinculación y que contribuya al desarrollo de su institución. La selección del personal académico, sin embargo, no siempre se encuentra basada en políticas que las universidades ofrecen abiertamente, es decir, en algunas instituciones es requisito la realización de exámenes de oposición, donde los criterios de un conjunto de académicos que debiese ser un criterio objetivo suele ser a veces subjetivo, y no siempre existe armonía y coherencia entre la misión y visión de la universidad y el personal contratado para cumplir con ellas. En otros casos sólo se basa en el hecho de un concurso curricular, donde predomina un sólo criterio, el puntaje más alto de los concursantes, y no existe una verdadera valoración de sus funciones como docente y mucho menos de las tareas que habrá de realizar dentro de la institución. En otros casos, tal vez los peores, incluso criterios totalmente subjetivos influyen en la contratación o no del personal, en estos casos suele ocurrir que profesores pertinentes para la institución, en algunas ocasiones no son recontratados sólo por obedecer criterios meramente subjetivos. En el presente trabajo proponemos un modelo de asignación que favorezca la optimización en la calidad educativa, modelo que está basado en todos los rubros que el profesor debe cubrir a lo largo de todo un semestre, en el que tiene la oportunidad de presentar su desempeño que lo califique para poder ser recontratado. Hemos tomado como base los criterios propuestos por la Unidad Académica Profesional Cuautitlán Izcalli, de la Universidad Autónoma del Estado de México como objeto de estudio, sin embargo, adaptarlo a los criterios que cada universidad mantiene, no es tarea difícil. El trabajo lo hemos estructurado de la siguiente manera, en la primera sección presentamos la teoría referente a la programación lineal con respecto al modelo de transporte y su derivación al modelo de asignación, en la segunda sección presentamos el modelo que proponemos, sus características y cómo se obtiene la evaluación integral para cada profesor, en la tercer sección presentamos la simulación del modelo propuesto, finalmente en la cuarta sección ofrecemos nuestras conclusiones respectivas. 76 Teoría Modelo de Transporte El modelo de transporte busca determinar un plan de transporte de una mercancía desde varias fuentes hacia varios destinos[1]. Los datos del modelo son: • Nivel de oferta en cada fuente y la cantidad de demanda en cada destino. • El costo de transporte unitario de la mercancía a cada destino. El modelo se considera una opción por medio de la cual algún administrador debe determinar la mejor forma de hacer llegar los productos de sus diversos almacenes a sus consumidores, con el fin de satisfacer las demandas de los clientes a un costo mínimo. Figura 1. Red que representa la idea general del modelo de transporte, las fuentes son las ofertas y los destinos son las demandas, de manera general m≠n. El modelo de transporte es un problema de optimización de redes, donde debe determinarse como hacer llegar los productos desde los puntos de existencia hasta los puntos de demanda, minimizando los costos de envío, ver Figura 1. El modelo es utilizado para realizar actividades tales como: control de inventarios, programación de empleo, flujo de efectivo, programación de niveles de reservas en prensas, asignación de personal, entre otras, siendo éste último el de nuestro interés. 77 De manera general se tiene la función objetivo: (1) donde Cij representa el costo y Xij son las variables de decisión del problema de programación lineal. La meta es minimizar la función objetivo determinada por Z, desde luego que esta función objetivo va acompañada de un conjunto de restricciones propias de cada problema. Modelo de Asignación El modelo de asignación clásico se ocupa de organizar a los trabajadores, los cuales en principio tienen diversas habilidades, con los trabajos por realizar. Suponemos que la variación en la habilidad del trabajador, afectará el costo del trabajo asignado. En el modelo cásico, la meta es determinar la asignación de costo mínimo de los trabajadores a los trabajos[2] De forma general, el modelo considera n trabajadores y n trabajos por asignar, el cual queda representado de acuerdo con la Tabla 1, donde el elemento Cij representa el costo de asignar al trabajador i al trabajo j, sin perder generalidad, vamos a suponer que el número de actividades es igual al número de trabajadores por asignar, debido a que durante la resolución del modelo siempre es posible asignar tanto trabajos como trabajadores ficticios sean necesarios, a fin de que tal suposición sea satisfecha. El modelo de asignación es posible resolverlo al utilizar los métodos propios del modelo de transporte, es decir, ya sea por medio de los métodos: Esquina Noreste, Voguel o Costos Mínimos, pero la suposición de que el número de nodos en la oferta, sea igual al número de nodos en la demanda, produce un desarrollo para su solución aún más simple que los métodos del modelo de transporte, a este desarrollo se le ha llamado el método Húngaro. 78 Tabla 1. Matriz del modelo de asignación, se conoce como matriz de costos mínimo original a partir de la cual se comienza con el procedimiento del método Húngaro y se alcanza la optimización de la asignación. Trabajos n 1 2 C11 C21 C12 C22 C13 C23 ………. ………. C1n C2n 3 C31 C32 C33 ………. C3n 4 C41 C42 C43 ……. ………. …. ………. …. 3 …. 2 …. 1 …. Trabajador C4n Método Húngaro El método Húngaro se encuentra basado en tres pasos importantes, a saber: 1. Determinar pi, donde pi es el elemento de costo mínimo en la i-ésima fila, entonces de la matriz representada en la tabla 1, se selecciona pi, y se resta a todos los elementos de la i-ésima fila, hacer lo mismo con cada una de las filas restantes. 2. Para la matriz resultante del paso anterior, se debe determinar qj, donde qi es el elemento de costo mínimo de la j-ésima columna, hay que restarlo de todos los elementos de la columna j-ésima columna, y hacer lo mismo con cada una de las columnas restantes. 3. Para la matriz resultante del paso anterior, se debe intentar determinar una asignación considerando todas las entradas que han quedado con valores de cero, si es factible hacerlo, esa será la asignación óptima, caso contrario se debe probar las siguientes opciones: Se requiere realizar los siguientes cálculos: i.Trazar el mínimo de líneas horizontales y verticales en la última matriz resultante, a fin de cubrir todas las entradas que tengan el valor de cero. 79 ii.Seleccionar la entrada mínima no cubierta y restarla de cada entrada no cubierta y posteriormente a cada entrada con intersección de dos líneas, sumarle esta entrada mínima. iii.Intentar hacer la asignación, si no es posible, repetir los pasos i, ii y iii. Solver Solver es un programa de cómputo desarrollado para Excel, el cual resuelve problemas lineales y enteros utilizando el método más simple con límites en las variables y el método de ramificación y límite, los cuales fueron propuestos por John Watson y Dan Fylstra de Frontline Systems, Inc [7]. La búsqueda de estos desarrollos surge en ciertos problemas que se presentan en las ciencias administrativas y principalmente en las áreas de ciencias sociales, ingeniería, y en cualquiera de las carreras universitarias que tengan como objeto de estudio: Estadística, Economía, Administración, entre otras. La rama aplicada de las matemáticas que se denomina Investigación de Operaciones, es el lugar donde se construyen modelos para el análisis y la toma de decisiones, regularmente dentro de la administración, decisiones que en tiempos anteriores al desarrollo tecnológico, eran resueltas por algoritmos muy complejos, entre ellos el método simplex y el dual, técnicas manualmente complejas. Solver se utiliza actualmente para determinar el valor máximo o mínimo de una celda modificando otras celdas; por ejemplo, el beneficio máximo que puede generarse al cambiar los gastos de publicidad. Las celdas que se seleccionen deberán estar relacionadas mediante fórmulas en una hoja de cálculo. Si no están relacionadas, cuando se actualice una celda, no se modificará la otra. Con Solver puede variarse el valor óptimo para cierta celda, denominada “celda objetivo”. Solver ajustará los valores en las celdas cambiantes que se especifiquen, las cuales llamaremos “celdas ajustables” para generar el resultado especificado en la fórmula de la celda objetivo. Pueden aplicarse restricciones para limitar los valores del modelo, pudiendo éstas hacer referencia a otras celdas a las que afecte la fórmula de la “celda objetivo”. 80 Modelo Modelo de Asignación de Profesores Esencialmente estamos interesados en optimizar [8], en este caso maximizar la función objetivo con base a la evaluación de los profesores, la ecuación (1) tomará la forma siguiente: (2) donde Pij es la evaluación de los profesores i (en una escala de 1 a 10) por dictar el curso j. Xij representa las variables de decisión, en nuestro caso representan los cursos que se ofertaran en el semestre. Y tenemos las siguientes restricciones: (3) Para toda i dado que un profesor no puede tener más de 3 cursos como política de la universidad (4) Para toda j debido a que cada curso debe contar con un maestro. De manera generalizada tendremos la matriz que se presenta en la Tabla 2 81 Tabla 2. Matriz del modelo de asignación inicial, para el caso de profesores y cursos por asignar. Profesores 1 2 3 ………. n C1 X11 X12 X13 ………. X1n C2 X21 X22 X23 ………. X2n C3 X31 X32 X33 ………. X3n ……. ……. ……. ……. ……. Cursos ……. Cn Xn1 Xn2 Xn3 ………. Xnn La suma en los renglones deberá ser igual a 1 para que a cada curso se le asigne un profesor y la suma total en las columnas como máximo deberá dar 3, lo que representa las materias a impartir por cada profesor. De manera similar se tendrá una matriz, que llamaremos de evaluación la cual deberá desglosarse en todos los rubros con los que el profesor deberá contar desde su contratación y durante el tiempo de permanencia dentro de la institución. Figura 2: Graficas de los rubros de evaluación para la planta docente de la licenciatura en Negocios internacionales de la UAP Izcalli, A) Evaluación de clase metodológica, B) Apreciación estudiantil, C) Entrega de cumplimientos a la coordinación, D) Visita a Clase por la subdirección académica. 82 Tomamos como base el ejercicio de evaluación que se realiza en la Unidad Académica Profesional Cuautitlán Izcalli. Para cada una de las carreras, existen al menos dos procesos certificados para evaluar al personal docente, así como una serie de tareas que se solicitan durante el periodo semestral, estas actividades van desde la entrega puntual de los exámenes de evaluación, hasta la entrega puntual de las actas de calificaciones en la oficina de control escolar. La matriz de la evaluación de profesores Cij estará determinada bajo los siguientes rubros de evaluación de los profesores: • Evaluación de la clase metodológica del profesor. • Evaluación de vivista a clase • La apreciación estudiantil. Donde se evalúan los siguientes rubros: a) Planeación didáctica b) Conocimiento de la disciplina c) Atención al alumno d) Preparación didáctica e) Evaluación del alumno • Entrega y cumplimiento de requerimientos durante el semestre ( exámenes, planeación, temarios actividades diversas) En la figura 2 presentamos los histogramas de los resultados de las 4 evaluaciones que se hacen al profesor, estos histogramas son generados para 28 profesores que forman la planta docente de la licenciatura en Negocios Internacionales. La figura 3 muestra la función de distribución normal para cada una de las evaluaciones practicadas a los 28 profesores, lo que nos permite observar que la información generada por los procesos certificados, así como por aquellos mecanismos de evaluación propios de la Unidad Académica, nos permitirá presentar una buena asignación en función del modelo planteado, ya que hemos de considerar toda la información disponible del profesor, tanto en su desempeño académico, como por su habilidad como profesor. 83 Figura 3. Funciones de distribución normal para cada una de las evaluaciones practicada a la planta docente de la licenciatura en Negocios Internacionales, de izquierda a derecha: cumplimiento con la coordinación, clase metodológica, apreciación estudiantil, visita a clase. Para asignar una calificación al docente, que cubra todos los aspectos considerados en los cuatro apartados descritos anteriormente, se propone la siguiente ponderación: Datos: Y = {Y1, Y2, Y3, Y4}, donde Y1 = Clase Metodológica, Y2 = Visita a clase, Y3 = Apreciación Estudiantil, Y4 = Evaluación de la coordinación. Pesos: W = {w1, w2, w3, w4}, donde w1 = 0.15, w2=0.55, w3=0.35, w4=0.1 son los pesos que proponemos dándole el mayor peso a la vista a clase, posteriormente a la apreciación estudiantil, luego a la clase metodológica, hacemos la observación, de que tal clase se realiza sólo una vez, y finalmente al cumplimiento de las tareas asignadas por la coordinación, con ello podemos obtener una media ponderada de la siguiente manera: (5) En la figura 4, mostramos la gráfica de la distribución normal de las calificaciones obtenidas por el conjunto de profesores de la planta docente de la licenciatura en Negocios Internacionales. De las medias ponderadas obtendremos la matriz de evaluación para todos los profesores y los cursos 84 ofertados. Con un mínimo de calificación de 85 para poder ser aceptado, este es un parámetro que se ha impuesto en el sentido de mejorar la calidad de la enseñanza, el cual estará marcado en la matriz de resultados, es decir como restricción adicional tenemos: Xij ≥85 (6) Figura 4: Función de distribución normal para la evaluación final de los 28 profesores de la planta docente de la licenciatura en Negocios Internacionales, la línea vertical está en el promedio con un valor de 9.22, bajo la hipótesis de que las calificaciones se comporten de manera normal, el 3.6% de los profesores, se quedará sin trabajo, por no cumplir la restricción (6) Simulación Presentamos nuestra propuesta, siguiendo la dinámica descrita en la sección 1 de la teoría, primero se presenta la matriz de evaluación de profesores, en la Tabla 3. Las casillas sin valor corresponderían a ceros en la matriz de evaluación. Hemos cuadrado el número de cursos igual al número de profesores y como se puede observar todas las calificaciones son superiores a 8.5, cumpliendo de esta manera la restricción impuesta en (6). 85 Tabla 3. Matriz del modelo de asignación inicial, con el valor de la calificación asignada a cada profesor, en los cursos que ha impartido. 86 Esta matriz se resuelve con Solver, en principio, si se programa y se proporcionan las instrucciones adecuadas, Solver realiza la resolución de la matriz. Sin embargo, encontramos inconvenientes, ya que Solver está programado para resolver a lo más 200 variables de decisión en la función objetivo, este problema que estamos presentando, en la matriz inicial corresponde a un total de 784 variables de decisión en la función objetivo, razón por la cual no se puede resolver toda la matriz en una sola simulación. Debido a que se consideran dos grupos para el semestre para el cual se está buscando la asignación de profesores, entonces se dividió la simulación completa en cuatro partes, los primeros 14 profesores junto con los 14 cursos de un grupo y los segundos 14 profesores con sus respectivos 14 cursos, teniendo que realizar un total de 4 simulaciones, esto por el inconveniente que presentó Solver. Los resultados son presentados en la tabla 4, donde se puede observar que todos los profesores tienen a lo más tres cursos, también es de resaltar el caso de los profesores P19 y P20 que no tendrían curso asignado el próximo semestre, sin embargo debido a que hay profesores que se les asignará más de un curso, la demanda de los cursos queda cubierta completamente. 87 Tabla 4 Matriz del modelo de asignación resultante, con el valor de 1 si se asigna el curso y 0 si no se asigna el curso. 88 Conclusiones Hemos presentado un modelo de asignación de profesores a los distintos cursos que puede ofertar una institución, en principio de cualquier nivel educativo, siempre buscando contar con los mejores profesores, es decir con el personal mejor calificado. Este modelo de asignación está basado en programación lineal, y puede ser adaptado a cualquier institución educativa que tenga criterios objetivos de evaluación de su personal docente. El modelo de asignación bajo la matriz de evaluación de profesores, brinda la mejor asignación de las materias para los profesores, lo que quiere decir que contaremos con el mejor docente de la institución impartiendo el curso en donde resulta ser más hábil. Esta propuesta de asignación garantizará la optimización del personal docente y al mismo tiempo se reflejará en un mayor aprovechamiento del estudiante. Es posible que este mecanismo pueda ser utilizado de igual forma en la asignación de trabajo colaborativos dentro de cada institución. Sin embargo, existen detalles técnicos que hay que resolver como el problema que enfrentamos con Solver. Se deben incorporar algunas modificaciones, debido a que en esta propuesta no se considera la posibilidad de que el profesor cuente con por primera ocasión con su contrato, lo cual no se consideró en el presente modelo, este hecho arrojaría resultados ilógicos si se considera esta posibilidad junto con profesores que ya tiene un historial en la institución. Por lo que se ve la necesidad de explorar todas las posibilidades a fin de enfocar el modelo. Agradecimientos Los autores agradecemos a la dirección y subdirección académica de la Unidad Académica Profesional Cuautitlán Izcalli, las facilidades otorgadas, así como la información proporcionada que nos fue de gran utilidad. 89 Referencias [1] Fredierick S. Hillier, Gerald J. Lieberman, (2006), Introducción a la Investigación de operaciones, Mc Graw Hill, pp 59-67, México D. F., Octava Edición. [2] Hamdy A. Taha, (2012) Investigación de operaciones, Pearson, pp 200-203, México D.F., Novena Edición. [3] Formato de evaluación del desempeño profesional docente, (2014), Unidad Académica Profesional Cuautitlán Izcalli, Departamento Académico, Selección de personal docente de asignatura. DODA. [4] Anexo 2: Instrumento Evaluador, (2014), Sistema de Gestión de Calidad, Unidad Académica Profesional Cuautitlán Izcalli, Departamento Académico, DODA [5] Reporte de Evaluación de Apreciación Estudiantil, (2014), UAEM. [6] Gabriela Gaviño Ortiz, M. Liliana Antonia Mendoza Gutiérrez, Rodolfo Espíndola Heredia and Enoc Gutiérrez Pallares, (2014), Some practical issues on modeling transport. Revista Investigación Operacional VOL. 35, NO. 2, 104-109. [7] Zuñiga Sergio, (2004), Introducción a la Optimización Usando Excel, Universidad Católica del Norte, Coquimbo Chile, Fecha de consulta: 10 de septiembre de 2014. URL: http://www.sergiozuniga.cl/03/docum_docentes/Optimizacion%2021.pdf [8] S. V. Medina León, K. Raya Díaz, M. R. Contreras Orendain, Utilización del modelo de transporte para la asignación de trabajos a máquinas considerando prioridades, Ingeniería, vol. 11, núm. 2, mayo-agosto, 2007, pp. 47-65 90 Modelo de Personalización para el Desarrollo de Herramientas de Software: Revisión Sistemática de la Literatura Claudia Isabel Martínez Alcalá, José Antonio Calvo Manzano. Departamento Lenguajes y Sistemas Informáticos e Ingeniería de Software Universidad Politécnica de Madrid, ETS de Ingenieros Informáticos, 28660 Boadilla del Monte, Madrid, España [email protected], [email protected] Resumen A lo largo del tiempo el desarrollo de software ha contado con diferentes enfoques que han evolucionado y se han enriquecido tanto en sus tareas como en la variedad de las posibles técnicas a aplicar. Desafortunadamente no todos estos enfoques son utilizados de manera correcta, debido a la falta de conocimiento, pues en muchas ocasiones no se sabe qué técnicas, procedimientos y métodos se deben elegir para cada etapa de desarrollo. Este artículo presenta un modelo de personalización para afrontar el diseño y desarrollo de herramientas software basadas en web que apoyan a las PyMEs en la implementación de mejoras en sus procesos software. Para establecer el modelo propuesto se ha llevado a cabo la integración de conceptos y enfoques de diseño centrado en el usuario y técnicas de personalización. Asimismo se identificaron las herramientas software basadas en web que han sido desarrolladas para brindar soporte a las PyMEs durante la implementación y seguimiento de iniciativas de mejoras de procesos. Palabras clave: Personalización, Diseño Centrado en el Usuario, Herramientas Software, Mejora de Procesos Software, PyMEs, Revisión Sistemática. Abstract Overtime, several approaches on software development have appeared, evolved and improved, along with a variety of tasks and possible techniques to apply in this field. Unfortunately, not all the approaches are used properly. This is due to a lack of knowledge on which techniques, procedures and methods are appropriate for each stage of the development process. This article presents a personalization model to design and develop web-based software tools that support SMEs in the implementation of their software process improvement. In order to conceive the proposed model, a number of user-centered design concepts and approaches, as well as personaliza91 tion techniques, were integrated. Likewise, web-based software tools that support SMEs were identified during the implementation and monitoring of process improvement initiatives. Key words: Personalization, User-Centered Design, Software Tools, Software Process Improvement, SMEs, Systematic Review. Introducción El éxito de un entorno web depende en gran medida de los métodos de adaptación y personalización utilizados para su desarrollo. Es decir, cuando un entorno y/o aplicación web es capaz de adaptar las necesidades del usuario al entorno y con ellos sugerir información útil y relevante, sin duda el usuario volverá a elegirla como herramienta de trabajo. En este contexto, mejorar los enfoques utilizados por los desarrolladores y diseñadores para el desarrollo de herramientas software es un tema clave para obtener herramientas eficaces y de calidad [1]. Actualmente las organizaciones, principalmente las pequeñas y medianas empresas (PyMEs), se han convertido en una pieza clave para la economía mundial [2]. Con el fin de tener éxito en la economía actual, las PyMEs deben enfrentar diversos retos. El primer reto al que se enfrentan las PyMEs es la adopción de nuevas tecnologías de la información (NTIC) para llevar a cabo eficazmente sus actividades. El segundo reto es capacitar a sus miembros para que les sea más fácil interactuar con la tecnología y que pueda acceder e interactuar con todas las fuentes de información y ser más productivos. Y por último, el tercer reto es tener que ser capaces de mejorar y actualizar sus herramientas y aplicaciones empresariales con el objetivo de presentar una visión más amplia de sus procesos de negocio [3]. Estos retos son muchas veces difíciles de superar por que muchas veces las herramientas que se adoptan no cubren todas sus necesidades, y tienen que hacer uso de 1 o más herramientas para poder culminar su trabajo con éxito. En este contexto, dentro de la industria del software, sobre todo en las PyMEs la mayoría de las iniciativas de mejora de procesos no son implementadas con éxito o tienen éxito limitado. Esta problemática se presenta sobre todo porque no las empresas no pueden invertir en la implementación de programas de mejora muy costosos. Asimismo de que las herramientas software que actualmente se desarrollan para facilitar la implementación de mejora no proporcionan una solución eficaz [4]. Por lo tanto, no existe duda de la necesidad de desarrollar herramientas software capaces de apoyar a las 92 empresas a implementar iniciativas de mejora de manera fácil y eficiente. Hoy en día, desarrollar dichas herramientas dentro de un entorno web es la mejor opción, debido a que han facilitado significativamente el intercambio y distribución del conocimiento, convirtiéndose en herramientas fáciles de usar y gestionar para usuarios con pocos conocimientos. El objetivo de este artículo es presentar un modelo de personalización para afrontar el diseño y desarrollo de herramientas software basadas en web que apoyan a las PyMEs en la implementación de mejoras en sus procesos software. Conjuntamente identificar las herramientas software basada en web que apoyen a las PyMEs en la implementación de mejoras en sus procesos. Este artículo está estructurado de la siguiente manera. En la sección II se describen el estado del arte del estudio. En la sección III se identifican y comparan las herramientas software que apoyan la implementación de mejoras de procesos. En la sección IV presenta el modelo propuesto. En la sección V se describen las ventajas y barreras del modelo. Finalmente en la sección VI se mencionan las conclusiones del estudio y trabajos futuros. Estado del arte a. Las PyMEs y la implementación de mejora de procesos de software. Desde hace dos décadas, algunos expertos vienen prediciendo la consolidación de la llamada “nueva economía, economía digital o economía del conocimiento”; conceptos todos que hacen referencia al instrumentación digital con la que actualmente se cuenta. Sin embargo poca es la literatura que pueda indicarle a los empresarios PyMEs, como sobrevivir o desarrollarse en este escenario “de futuro”, muchas de cuyas características ya están siendo implantadas actualmente. De tal manera, uno de los retos más importantes que enfrenta hoy día el sector de las PyMEs se relaciona con las decisiones a tomar para definir las estrategias y los instrumentos a utilizar para implementar sus mejoras de procesos [5]. De acuerdo con el autor [6], el mayor error en la implementación de mejora de procesos es las PyMEs se da por la falta de seguimiento de los planes de acción y de los planes de implantación, debido fundamentalmente a que estas actividades son muy costosas de realizar en todos los sentidos, ya que consumen mucho tiempo y recursos. Según el autor [5], para las PyMEs el reto más difícil es ir modificando los procesos para ir adaptándose a las circunstancias cambiantes. Los autores [7], indican que las limitantes de las PyMEs con respecto a la implementación de ciclos de mejora son: a) escasez de personal calificado, tanto a nivel de empleados como directivos; b) el tamaño de la empresa, lo cual limita la disponibilidad 93 de personal especializado; c) no hay una utilización frecuente y sistemática de tecnologías de información para apoyar procesos administrativos y de producción; y por ultimo d) problemas en la infraestructura. En general, se puede afirmar que casi todos los autores están de acuerdo en que las características de las PyMEs hacen que la implementación de mejora de procesos software deban aplicarse en un modelo particular y visiblemente diferente a como se hace en las grandes organizaciones. Es por eso que la mayoría de las veces la implementación de mejoras en las PyMEs resulta muy complicada y completamente caótica. Con respecto a lo anterior, se puede concluir que para que las PyMEs puedan llegar a tener éxito en la implementación de mejoras deben enfrentar diversos retos. El primer reto al que se enfrentan las PyMEs es la adopción de nuevas tecnologías de la información (NTIC) para llevar a cabo eficazmente sus actividades. El segundo reto es capacitar a sus miembros para que les sea más fácil interactuar con la tecnología y que pueda acceder e interactuar con todas las fuentes de información y ser más productivos. Y por último, el tercer reto es tener que ser capaces de mejorar y actualizar sus herramientas y aplicaciones empresariales con el objetivo de presentar una visión más amplia de sus procesos de negocio. En este contexto, es importante proponer un modelo que permita el desarrollo de herramientas software que apoyen a las PyMEs en la implementación de mejoras. Además este modelo debe garantizar que la herramienta modelada permita al usuario interactuar de manera eficaz. b. Criterios de personalización esperados para una herramienta software basada en web Para establecer los criterios de personalización esperados para una herramienta software basada en web se ha llevado a cabo una revisión sistemática. Las revisiones sistemáticas hacen referencia al proceso análisis metodológico de estudios relevantes, mediante criterios de inclusión y exclusión con el objetivo de establecer el estado del arte de un tema concreto. Esta revisión sistemática se enfoco en identificar los criterios de personalización que debe cumplir una herramienta web. Para esto se llevo a cabo una revisión sistemática de las diferentes técnicas, procedimientos y métodos que se utilizan para desarrollar herramientas personalizadas. De acuerdo con esto, se ha podido identificar un conjunto de técnicas, procedimientos y métodos que se utilizan actualmente para desarrollar herramientas que requieren ser personalizadas. Estas técnicas y métodos son: filtrado colaborativo, filtrado basado en contenidos, filtrado basado en reglas de decisión, minería de datos, ontologías. 94 Como resultado de la revisión sistemática realizada, los criterios de personalización esperados han sido identificados, tomando en cuenta aspectos como: personalización de contenidos, personalización de interfaz y personalización del usuario. Los criterios de personalización esperados son: Diseño intuitivo. Proporciona una interfaz grafica intuitiva con el objetivo de guiar al usuario en las actividades que se debe realizar. Además, proporciona al usuario una definición clara de sus funciones y sus actividades. Navegación intuitiva. Proporciona apoyo al usuario para facilitar la interacción con las interfaces. Una navegación intuitiva sugiere la información o el contenido de inmediato. Además, proporciona asistencia al usuario en todo momento. En otras palabras, reduce la carga cognitiva del usuario al interactuar con la herramienta web. Proporcionar información adecuada. Proporciona al usuario información clave de las tareas y actividades para la toma de decisiones adecuadas. Los usuarios tienen que estar seguros de que sus acciones han tenido éxito. Soporte en la comunicación entre los usuarios. Proporciona comunicación e interacción efectiva entre las partes involucradas. Además, permite el intercambio de información y conocimientos de manera efectiva. Aumento de la satisfacción del usuario. Permite a los usuarios alcanzar sus objetivos específicos, actividades y tareas con facilidad y eficacia. Esto proporciona una experiencia positiva para el usuario. Capacidad de adaptación a las necesidades específicas del usuario. Permite gestionar y coordinar los contenidos, las actividades y tareas de acuerdo a las necesidades específicas del usuario. Usuarios autónomos. Proporciona un ambiente agradable y de fácil comprensión en la que el usuario no necesita soporte técnico para navegar o para realizar sus actividades, lo que permite al usuario centrarse en sus tareas y no en el uso del sistema. Facilitar la colaboración. Permite el intercambio de conocimientos de manera efectiva, en cualquier momento y en cualquier lugar. Reducción de los costos de desarrollo. Permite la participación activa de todos los agentes (usuarios, diseñadores y desarrolladores) evitando el rediseño de la herramienta y la reducción de los cambios posteriores. Esto conlleva una reducción importante en los costos de desarrollo. La identificación de estos criterios tiene como objetivo conocer las ventajas de la personalización en las herramientas basadas en la Web 95 Herramientas software desarrolladas En esta sección se presenta una comparativa de las herramientas que apoyan la implementación de mejora de procesos software que existen actualmente. Cabe mencionar que estas herramientas fueron encontradas a través de la revisión sistemática realizada en este estudio. Es importante resaltar que para este análisis se han considerado solo aquellas herramientas que están desarrolladas en la web, debido a que estás ya contemplan más aspectos de personalización al momento de ser desarrolladas.En la tabla 1 se presenta una comparativa de las herramientas analizadas con respecto a los criterios de personalización esperados. En donde X significa que las herramientas No cumple el criterio y significa que la herramienta Si cumple con el criterio SPIALS [8] Kuali [9] AsistenteHIM [10] MDM [11] A Six Sigma Framework [7] METvalCOMPETISOFT [6] Tabla 1. Comparativa de las herramientas analizadas con respecto a los criterios de personalización esperados. Diseño intuitivo X X X X X X Navegación intuitiva X X X X X X Proporciona retroalimentación adecuada X Da soporte para la comunicación entre usuarios X X X X X X Aumento en la satisfacción del usuario. X X X X X X Habilidad para adaptar las necesidades especificas del usuario X X X X X X Usuarios mas autónomos X X X X X X Facilita la colaboración X X X X X X NA NA NA NA NA NA Criterios de personalización esperados Desarrollado en ambiente web Reducción de costos de desarrollo 96 x Como se puede observar en la tabla 1, las herramientas SPIALS y METvalCOMPETISOFT[6] no cubren ningún criterio de personalización esperado. Esto se debe principalmente a que ambas herramientas se encuentran en etapas iniciales o de desarrollo, por lo tanto existe muy poca información de casos de estudio en los cuales se han aplicado y de los resultados obtenidos de la aplicación de las mismas. Por su parte, las herramientas Kuali, AsistenteHIM, MDM y A Six Sigma Framework cubren un criterio de personalización: proporcionar retroalimentación adecuada. Por lo tanto, se puede afirmar que no existe ninguna herramienta que cubra todos los criterios de personalización esperados, y por consiguiente ninguna de estas herramientas representa una herramienta de apoyo completo para las empresas interesadas en la implementación de mejoras de procesos. Propuesta del modelo La conceptualización de este articulo parte de proponer un modelo de personalización que permita desarrollar herramientas software basadas en la web que apoyen a las PyMEs en la implementación de mejoras. De acuerdo con la revisión sistemática realizada en las anteriores secciones, es importante crear un modelo que haga énfasis en el diseño centrado en el Usuario que se muestra en la figura , el cual se caracterizan por un enfoque en el usuario y en la incorporación de la perspectiva del usuario en todas las fases del proceso de diseño. Otro aspecto que se debe contemplar es la personalización el cual es un método de gran alcance que ha dado lugar a la difusión de sistemas capaces de sugerir información relevante de acuerdo a las características y preferencias de los usuarios finales. La originalidad del modelo presentado en este trabajo de investigación es que vincula 3 aspectos importantes: a) el enfoque de diseño centrado en el usuario, b) el proceso de representación esquemática de las interfaces y, c) las evaluaciones de funcionalidad y usabilidad, que en conjunto permiten considerar un entorno web con aspectos funcionales y satisfactorios para los usuarios. El modelo de personalización es denominado, DeCU (Diseño y enfoque centrado en el usuario) el cual permite el establecimiento de directrices para el desarrollo de herramientas basadas en la Web personalizadas. El modelo DeCU consta de 4 fases (análisis, diseño, implementación y lanzamiento) que se relacionan de forma iterativa y crean un diálogo entre usuarios, diseñadores y desarrolladores. Estas fases pueden ser vistas tanto de forma lineal como iterativa. El resultado de estas fases se materializa con un entorno completamente funcional. 97 Fase de Análisis Esta fase se divide en 3 pasos, las cuales engloban en si el estudio y entendimiento del usuario y su contexto. a) Requerimientos del usuario: Durante esta paso se trata de identificar las necesidades, preferencias y experiencias del usuario con respecto a la herramienta a desarrollar. b) Requerimientos de la organización: en este paso se trata de identificar las necesidades y preferencias de la organización. Las actividades, tareas, procedimientos, técnicas y normas en las cuales se rigen cada uno de los perfiles y miembros que componen a la organización. c) Requerimientos tecnológicos. en este paso se trata de identificar la infraestructura tecnológica con la que cuenta la organización, así como sus limitantes. Con el objetivo de plantear el desarrollo de una herramienta viable y funcional. Fase de diseño En esta fase se plasman los resultados obtenidos de la fase anterior ahora con todos los requerimientos técnicos. En esta fase se crean prototipos en los cuales se especifican la arquitectura de la información 1 y diseño de interacción 2. En la figura 1 se muestran las actividades que se realizan principalmente en esta fase. En esta fase se plasman los resultados obtenidos de la fase anterior ahora con todos los requerimientos técnicos. En esta fase se crean prototipos en los cuales se especifican la arquitectura de la información1 y diseño de interacción2. En la figura 1 se muestran las actividades que se realizan principalmente en esta fase. Figura 1. Representación de actividades de la fase de disño. 1 Arquitectura de la información (AI), es la disciplina y arte encargada del estudio, análisis, organización, disposición y estructuración de la información en espacios de información. 2 Diseño de interacción, define la estructura y el comportamiento de productos y servicios para que estos resulten útiles a las personas. 98 a) Categoría 1- Prototipos de baja fidelidad: se realizan bocetos realizados en papel y lápiz en donde se define la estructura de la herramienta (taxonomía y diagramas de organización) b) Categoría 2- Prototipos de fidelidad intermedia: se realizan Wireframes3 en donde se define los componentes y funcionalidad que tendrá dentro de la herramienta. c) Categoría 3- Prototipos de alta fidelidad: se realizan Wireframes que representen la estructura visual y funcional de manera más clara y con mayor definición. Cada uno de estos prototipos son evaluados por los usuarios mediante la realización te test. Fase de implementación En esta fase se realiza el proceso denominado “maquetación” que consiste en construir la herramienta y programar las funcionalidades de cada uno de los elementos que la integran. En esta fase la herramienta se implementa en un entorno de pruebas para que los usuarios puedan interactuar con esta y detectar errores visuales y funcionales. Las pruebas se realizan tanto con usuarios como con expertos. Con los usuarios con el objetivo de saber si se han logrados los objetivos y demandas planteados al inicio. Con los expertos con el objetivo de saber si la herramienta es realmente una solución ideal para el problema planteado. Fase de Lanzamiento En esta etapa se presenta la herramienta tecnológica en un entorno real complemente funcional y es puesta a disposición de los usuarios para su uso. La figura 2 ilustra el funcionamiento del modelo DeCU y la iteración entre sus fases. 3 Wireframes, representación esquemática de una interfaz web sin elementos gráficos que muestran contenidos y comportamiento de la interfaz. Sirve como herramienta de comunicación y discusión entre diseñadores y desarrolladores. 99 Figura 2. Modelo DeCU basado en el Diseño Centrado en el Usuario. Adaptación del modelo.[12] El modelo DeCU se caracteriza por establecer las pautas que permitan diseñar y desarrollar una herramienta software de calidad, garantizando que la herramienta modelada permita al usuario interactuar de manera eficaz. Igualmente, este modelo cumple con objetivos específicos como: a) identificar las características más relevantes de los usuarios y de la organización; b) analizar y diseñar prototipos que apoyen al desarrollador a crear entornos más aceptables para cada tipo de usuario; c) proporcionar una solución genérica a cada necesidad particular y general del usuario, y de la organización; y d) establecer los instrumentos necesarios que permitan evaluar y validar la herramienta desarrollada [12]; y con ello establecer una herramienta software basada en la web que facilite la implementación de mejora de procesos software. Ventajas y barreras del modelo Como se puede observar en la sección anterior, el modelo DeCU propone el uso de instrumentos específicos para analizar y desarrollar productos, en este caso particular “herramientas”, que satisfagan las necesidades y preferencias del usuario final. Alguna de las ventajas que presenta el modelo son: • • • • 100 Productos fáciles de usar y comprender Aumento de la usabilidad Optimización en el diseño. Participación activa de los usuarios. • Disminución en el mantenimiento y asistencia técnica. • Proporciona una solución genérica a cada necesidad particular y general del usuario. • Disminución de costes. Sin embargo así como proporciona ventajas al equipo, también se deben considerar ciertas barreras (ajenas al modelo) que pueden presentarse al momento de aplicarlo en el desarrollo de una herramienta. A continuación se describen las barreras identificadas que se presentan al momento de aplicar el modelo. • Barrera 1. Dificultad para concebir ideas: Implicar la participación de los usuarios en todo el proceso de desarrollo de un producto es un hecho significativo, que contempla en todo momento el modelo propuesto, pues gracias a este hecho es posible la detección de oportunidades de mejora. Sin embargo, esta tarea a menudo se torno difícil, ya existe diversidad de usuarios, con puntos de vistas diferentes y necesidades diferentes. Lo que dificulta la concepción de ideas y soluciones al momento de levantar los requerimientos. Es entonces cuando los diseñadores y desarrolladores etiquetan al usuario como “problemáticos” o “indecisos” en vez de visualizarlo como un co-creador capaz de aportar soluciones e ideas novedosas. • Barrera 2. Comunicación deficiente: La falta de comunicación por lo general ocurre cuando el usuario malinterpreta, o bien, su participación en la lluvia de ideas es simplemente ignorada. En ocasiones este hecho se debe a que no existe nadie a cargo de la gestión de cambios. Es por ello que las decisiones se hacen ambiguas, lo que implica que las soluciones no cubran con las expectativas del usuario y por ende el usuario está insatisfecho. También es cierto que es imposible satisfacer a todos los usuarios, pero lo que sí es posible, es crear un producto accesible y adecuado para su uso a largo plazo, por lo que al final, los usuarios estarán de acuerdo con la solución que se les proporciona. • Barrera 3. Falta de compromiso: Esta barrera se presenta cuando los usuarios no están informados sobre la importancia de su contribución en el proceso de desarrollo del producto. Debido a esto, los usuarios comienzan a perderse de las evaluaciones y sesiones de trabajo, lo que provoca que se desarrollen productos sin valor o inconclusos. Por otro lado, la falta de compromiso por parte del equipo de trabajo a menudo se deriva debido a que no quieren cambiar su forma de trabajar. Esto es muchas veces no están acostumbrados a trabajar con los usuarios de manera directa. 101 Es importante indicar que estas barreras podria eliminarse con una planificación adecuada. Además de que estas barreras no son exclusivas del modelo descrito en este estudio, por que las empresas deben tomar en cuenta estas sugerencias al momento de adoptar el modelo propuesto o cualquier otra metodología centrada en el usuario. Conclusiones La revisión sistemática realizada en este estudio ha permitido establecer el estado del arte de los criterios de personalización esperados y la identificación las herramientas software basadas en la web que apoyan la implementación de mejoras de procesos en las PyMEs. Mediante este estudio se han podido identificar que las herramientas software actuales no cubren con los criterios de personalización esperados para una herramienta basada en la web. Además se ha identificado que el principal problema en la implementación de mejorar en las PyMEs es que los programas de mejora no son apropiados para PyMEs, debido al tamaño y número de recursos con los que se cuenta. Por lo que es necesario adecuar las herramientas de acuerdo a las necesidades del usuario y de la organización. Este artículo presenta un modelo de personalización para afrontar el diseño y desarrollo de herramientas software basadas en web que faciliten a las PyMEs la implementación de mejoras en sus procesos software. La adopción del modelo DeCU permitirá diseñar una herramienta software basada en la web aceptable y usable que permita implementar mejora de procesos. Asimismo este modelo trae consigo ventajas importantes como: a) usabilidad; b) disminución de costes; y c) proporciona una solución genérica. No obstante, este modelo exige el compromiso de los usuarios y del equipo de trabajo, para poder así, desarrollar herramientas software eficaces y de calidad. Es importante mencionar que como trabajo a futuro se está desarrollando una herramienta cuyo objetivo es facilitar la implementación de mejora de procesos software en las PyMEs mediante la adopción del modelo propuesto en este estudio. Agradecmientos Este trabajo ha sido patrocinado por el Consejo Nacional de Ciencia y Tecnología (CONACYT) y la Universidad Politécnica de Madrid (UPM) a través de la “Cátedra de Mejora del Proceso Software en el Espacio Iberoamericano. 102 Referencias [1] P. Bharatia and A. Chaudhury, “An empirical investigation of decision-making satisfaction in web-based decision support systems,” Decis. Support Syst., vol. 37, no. 2, pp. 187–197, 2004. [2] M. Muñoz, J. Mejia, J. A. Calvo-Manzano, G. Cuevas, and T. San Feliu, “Evaluación de los Procesos Software de una Organización Enfocando en la Disminución de la Resistencia al Cambio,” Comput. Sci. Eng., pp. 66–73, 2012. [3] M. H. Nizam, A. Rodina, and H. Noor Hafizah, “Resistance Factors in the Implementation of Software Process Improvement Project in Malaysia,” J. Comput. Sci., vol. 1, no. 3, pp. 211–219, 2008. [4] M. Muñoz, J. Mejia, A. De Amescua, J. A. Calvo Manzano, G. Cuevas, and T. San Feliu, “Software Tools to Implement Software Process Improvement in SMEs,” Proceeding la 7a Conf. Ibérica Sist. y Tecnol. Inf., vol. I, pp. 82–87, 2012. [5] H. Ongory and S. O. Migiro, “Information and communication technologies adoption in SMEs: literature review,” J. Chinese Entrep., vol. 2, no. 1, pp. 93 – 104, 2010. [6] F. J. Pino, C. Pardo, F. García, and M. Piattini, “Assessment methodology for software process improvement in small organizations,” Inf. Softw. Technol., vol. 52, no. 10, pp. 1044–1061, Oct. 2010. [7] Z. Pan, H. Park, J. Baik, and H. Choi, “A Six Sigma Framework for Software Process Improvements and its Implementation,” in 14th Asia-Pacific Software Engineering Conference, IEEE, 2007, pp. 446 – 453. [8] D. Homchuenchom, C. Piyabunditkul, H. Lichter, T. Anwar, A. Methawachananont, C. Krootkaew, and T. Krisanathamakul, “A light-Weight Software Process Improvement SelfAssessment Tool (SPIALS),” Int. J. Digit. Content Technol. its Appl., vol. 6, no. 21, pp. 16–26, Nov. 2012. [9] C. Strevel, “Kuali: Herramienta Auxiliar para implementación de MoProSoft,” in DevDays, Intellekt, 2005. [10]H. Oktaba, S. Guardati, A. Laureano, and E. Cárdenas, “Herramienta de Guía y Supervisión para el Uso Automatizado del Modelo de Procesos MoProSoft,” in Presented in VII Encuentro Nacional de Computación, México, 2006. [11]D. A. Caballero de la Villa, “Manejador de Documentos de MoProSoft.,” 2005. [12]C. I. Martinez Alcala, “Model customized views to content management in communities I+D+i (Doctoral thesis) - Modelo de vistas personalizadas para la gestión de contenido en comunidades I+D+i,” 2012. 103 Las Álgebras de Funciones Cb(X,A) y Cp(X,A) Alejandra García García Estudiante de Pos-doctorado en la Universidad Autónoma Metropolitana. Área de especialidad: Análisis Matemático (Algebras de funciones, Algebras Localmente Convexas y Localmente Pseudo-convexas). [email protected]. Resumen Dados X un espacio completamente regular de Hausdorff y A un álgebra topológica localmente convexa, podemos definir a Cb(X,A)(Cp(X,A), respectivamente como el álgebra de todas las funciones A- valuadas, continuas y acotadas (continuas y con la cerradura de su imagen compacta, respectivamente) definidas en X . A Cb(X,A) y Cp (X,A) . las podemos dotar de distintas topologías, entre estas nos interesan la topología estricta β y la topología localmente convexa dada por la topología localmente convexa de A. Nos preguntamos sobre propiedades que cumple A y que se pueden heredar a Cb (X,A) y Cp(X,A). En este trabajo presentamos ejemplos de álgebras de este tipo que heredan la propiedad de ser Q- álgebra: es decir, el conjunto de elementos invertibles es abierto. Palabras clave: álgebra de funciones, topología estricta, m-convexa e ideal máximo. Abstract This is a presentation of examples of functions algebras Cb(X,A)(CP(X,A), respectively), since Cb(X,A)(Cp(X,A) respectively) is defined by the algebra of all A-valued continuous and bounded (continuous and compact imagen) functions on X Here X is a completely regular space and A a topological locally convex algebra. On these algebras we defined the strict topology β and the localmente convex topology defined by the topology of A, if A is a locally convex algebra. These examples shows that if A is Q-algebra, then C b ( X , A ) and Cp(X,A) are Q-algebras; i. e. the set of invertible elements is open. Key words: functions algebras, strict topology, m-convex and maximal ideal. 104 Introducción Muchas de las álgebras de funciones tienen aplicaciones más concretas en ecuaciones diferenciales, en nuestro caso nos interesan las algebra C(X,A) de todas las funciones continuas definidas en X con valores en A donde X es un espacio completamente regular y de Hausdorff, y A es un álgebra topológica localmente convexa, conmutativa y unitaria. Por lo que en el presente trabajo trabajaremos con este tipo de espacios y álgebras. Así, decimos que (A, ) es un álgebra topológica si tiene dos estructuras, la de álgebra y la de el espacio vectorial topológico tales que la topología de A, hace continuo en ambas entradas (conjuntamente continuo) a su producto visto como la función. (1) donde A x A es dotado de la topología producto. Si las operaciones de álgebra y de espacio vectorial definidas en A son conmutativas, decimos que (A, ) es un álgebra topológica conmutativa. Si además, A tiene unidad diremos que (A, ) es un álgebra topológica con unidad. En lo que sigue, consideraremos sólo álgebras topológicas conmutativas con unidad. Decimos que un álgebra topológica (A, ) es localmente convexa si su topología está dada por una familia de seminormas {|| ||α}αϵ∆ tales que para cada α∈∆ existe β ∈ ∆,β ≤ α, tal que cumple la desigualdad. (2) para todo a , b ∈ A. Si el índice β en (2) coincide con α para todo α∈∆, entonces decimos que (A, ) es un álgebra localmente m-convexa. En este caso, tenemos lo siguiente: 105 (3) para todo a y b en A. Además, decimos que un álgebra topológica con unidad A es Q-álgebra si el subconjunto formado por todos sus elementos invertibles G(A) es abierto en A. Por otro lado, por un álgebra normada (A,|| || ) consideramos a un álgebra topológica cuya topología está dada por una norma ( || || ). Si el álgebra en cuestión, ( A,|| || ), es completa como espacio topológico, decimos que ( A , | | | | ) es un álgebra de Banach. Las álgebras Cb(X,A) y Cp(X,A). En esta sección definimos las álgebras de funciones que nos interesan y mencionamos propiedades que se cumplen en dichas álgebras. Por Cb(X,A) denotamos a la subálgebra de C(X,A) formada por todas las funciones continuas y acotadas definidas de X en A, mientras que Cp (X,A) denota al álgebra de todas las funciones continuas y con la cerradura de su imagen compacta en A. Ahora nos preguntamos sobre propiedades que cumple A y que se pueden heredar a Cb(X,A) y (Cp(X,A) , por ejemplo ser localmente convexa, Q-álgebra, m-convexa, etc.; donde A no necesariamente es álgebra de Banach. Sea (A,|| ∙ || ) un álgebra normada. Entonces, a estas dos subálgebras, Cb(X,A) y Cp(X,A) , las podemos dotar de distintas topologías, entre estas nos interesan la topología estricta β y la topología normada dada por la topología normada de A. La topología estricta β está definida por la familia de seminormas (4) donde B0 es el conjunto de todas las funciones definidas en X que se anulan al infinito. Esta topología estricta define en Cb(X,A) y Cp(X,A) una topología localmente convexa; es decir, cumplen (2) 106 Por otro lado, si (A,|| || ) es un álgebra normada, entonces en las álgebras Cb(X,A) y (Cp(X,A) podemos definir la norma infinito o del supremo dada por (5) la cual está bien definida ya que, en ambos casos, estamos considerando sólo funciones acotadas. Si (A,|| || ) es un álgebra de Banach, la norma del supremo define una topología normada y completa en Cb(X,A) y (Cp(X,A) (es decir, las hace álgebras de Banach, ver [3]). Como sabemos, las álgebras de Banach cumplen muchas propiedades interesantes, entre estas sabemos que toda álgebra de Banach es Q-álgebra. Por lo que (Cb(X,A) ,|| ||∞) y (Cp(X,A),|| ||∞) son álgebras de Banach, siempre que (A,|| || ) lo sea. Así, en este caso, si (A,|| || ) es una álgebra de banach (entonces se heredan las propiedades de ser álgebra normada, álgebra de Banach y Q-álgebra a Cb(X,A) y Cp(X,A) Ahora, si (A,) es un álgebra localmente convexa, podemos considerar las topologías localmente convexas (m-convexas, respectivamente) en Cb(X,A) y (Cp(X,A) dadas por la topología de (A, )=(A,{|| ||α}αϵ∆) y estas quedan determinadas por la familia de seminormas. (6) En ambos casos, se cumple (2) ( (3), respectivamente) y obtenemos topologías localmente convexas (localmente m-convexas, respectivamente) en Cb(X,A) y Cp(X,A), ver [3]. “De donde, ser localmente convexas (localmente m-convexa, en su caso) también se hereda de A si consideramos la familia de seminormas como en (6). Por lo que ser localmente convexa o m-convexa son propiedades que se heredan a las álgebras Cb(X,A) y Cp(X,A) dotadas con las topologías anteriores Ejemplos En esta sección mostramos dos ejemplos donde se cumple que si A tiene la propiedad de ser Q-álgebra ó álgebra de Banach, entonces Cb(X,A) y Cp(X,A) también la tienen. Ejemplo 1: Sea (A, )=(Cb ( ),β) el álgebra de todas las funciones de en continuas y acotadas, dotada con la topología estricta dadas por la regla 107 (7) Esta es un álgebra localmente convexa completa y no metrizable. Ahora, consideramos a X como el espacio [0,Ω), dotado con la topología del orden. Entonces, X es un espacio pseudocompacto y completamente regular. Así, podemos definir las álgebras (8) Y (9) donde las familias seminormas están definidas por (10) Donde, ya que [0,Ω) es pseudocompacto y de las propiedades de su topología, podemos deducir que si f∈C([0,Ω),Cb( ,β)) y φϵB0 ([0,Ω)), entonces la función gφ:[0,Ω)→ definida como gφ (α)=‖fα ‖φ, αϵ[0,Ω), para cada φϵB0 ([0,Ω)), es eventualmente constante, por tanto acotada, y además Cb ([0,Ω),Cb ( ,β))=C([0,Ω),Cb ( ,β)). Esto implica que las seminormas ‖f‖φ,∞, φϵB0 ([0,Ω)), están bien definidas. Con esta familia de seminormas, las álgebras en (8) y (9) son álgebras localmente convexas y ya que el álgebra Cb ( ,β) lo es. Ejemplo 2: Sea (A, )=(Cb (R),|| ||∞) el álgebra de todas las funciones de R en R continuas y acotadas, dotada con la topología del supremo definida como (11) 108 Esta es un álgebra normada completa (de Banach), conmutativa y con unidad. Ahora, consideramos a X como el espacio [0,Ω), dotado con la topología del orden. Entonces X es un espacio pseudocompacto y completamente regular. Así, podemos ras (12) y (13) donde en este caso tenemos definida la norma ‖f‖∞=sup{‖fα ‖∞αϵ[0,Ω)} ┤=sup{sup{|fα (t)|:tϵR}αϵ[0,Ω)} }. (14) Donde , ya que [0,Ω) es pseudocompacto y de las propiedades de su topología, al igual que en el ejemplo 1, podemos deducir que si f ϵ C ([0,Ω),Cb (R,|| ||∞ )) y φϵB0 ([0,Ω)), entonces la función g:[0,Ω)→ definida como g(α)=‖fα ‖∞, para cada αϵ[0,Ω), es eventualmente constante y por tanto acotada. Esto último implica que la norma ‖f‖∞, están bien definida y que además Cb ([0,Ω),Cb ( ,|| ||∞ ))=C([0,Ω),Cb ( ,|| ||∞ )). Con esta norma, las álgebras en (12) y (13) son álgebras de Banach y por tanto Q-álgebras ya que el álgebra Cb ( ,|| ||∞ ) lo es. También hacemos notar que en el ejemplo 2 el subconjunto de elementos invertibles es abierto y si f ∈Cb ([0,Ω),Cb ( ,||∙||∞ )) es invertible, entonces cada fα , αϵ[0,Ω), es invertible en Cb ( ,||∙||∞ ) para cada αϵ[0,Ω). Conclusiones Al parecer se cumplen varias propiedades para algunos espacios especiales, pero no es cierto en general que dichas propiedades siempre se pueden heredar. Además, existen muchos ejemplos interesantes pero estos dos en particular nos han ayudado mucho y nos han llevado a plantearnos diferen109 tes cuestiones sobre distintas propiedades y tratar de analizar en qué casos es posible heredar estas mismas propiedades a las álgebras Cb(X,A) y Cp(X,A). Agradecimientos Agradezco el apoyo a los miembros de CONACYT y del Departamento de Matemáticas de la UAM-I por todo el apoyo otorgado durante mi estancia pos-doctoral en dicha institución. Bibliografía [1] Arizmendi-Peimbert H. , Carrillo Hoyo A., García-García A., On algebras of Banach algebra-valued bounded continuous functions, Rocky Mountain Journal of Mathematics, volume forthcoming, Number forthcoming (2014). [2] Balachandram V. K., Topological Algebras, North Holland Mathematics Studies 185. Elsevier, 2000. [3] García-García A., Tesis Doctoral: Sobre ideales cerrados y finitamente generados en álgebras topológicas de funciones continuas, Facultad de Ciencias, UNAM, 2011. [4] Gillman, M. Jerison, Rings of continuous functions, Springer Verlag, New York, 1960. [5] W. Rudin, Functional analysis, McGraw-Hill. 1973. 110 Sistema de Aprendizaje Cooperativo Mediado por Tecnologías de la Información y Comunicaciones Blanca Rafaela Silva López, Iris Iddaly Méndez Gurrola, Rosa Elena Cruz Miguel, Hugo Pablo Leyva, Carlos Barrón Romero Universidad Autónoma Metropolitana Azcapotzalco {rbsl,iimg,recm,hpl,cbarron}@correo.azc.uam.mx Resumen En la Unidad Azcapotzalco de la Universidad Autónoma Metropolitana (UAM), para atender la creciente demanda académica se propone el modelo de Sistema de Aprendizaje Cooperativo(SAC) que junto con las Tecnologías de la Información y las Comunicaciones (TIC), son parte importante para lograr que la enseñanza llegue a más alumnos, rompiendo los paradigmas de tiempo-lugar, con gran atención a la calidad del proceso de enseñanza aprendizaje y bajo el compromiso de la UAM de mantenerse a la vanguardia de las instituciones de investigación y de educación superior. La División de Ciencias Básicas e Ingeniería (DCBI) se ha caracterizado desde su creación por ofrecer alternativas en las modalidades de conducción del proceso enseñanza-aprendizaje para lo cual creó el Sistema de Aprendizaje Individualizado (SAI), que ha evolucionado a partir de la experiencia de docentes de la DCBI hasta llegar a la nueva propuesta el SAC basado en un modelo pedagógico denominado Ciclo de Supervisión de Excelencia. Palabras clave: proceso enseñanza-aprendizaje, sistemas de aprendizaje, aprendizaje cooperativo, b-learning. Abstract In Universidad Autónoma Metropolitana (UAM)-Azcapotzalco, to meet the growing academic demand a model Cooperative Learning System (SAC) are proposed, which together with the Information and Communication Technologies (ICT) are an important part for ensure that education reaches more students, breaking the paradigms of time-place, with great attention to the quality of the teaching-learning process, and under the UAM’s commitment to remain at the vanguard of research institutions and higher education. Division of Basic Sciences and Engineering (DCBI) has been characterized since its creation by providing alternatives to driving modalities of the teaching111 learning process, which created the Individualized Learning System, which has evolved from the experience teacher of DCBI up to the new proposal the SAC, based on a pedagogical model called Excellence Monitoring Cycle. Key words: teaching-learning process, learning systems, cooperative learning, b-learning. Introducción La propuesta de modelo para la enseñanza-aprendizaje con TIC, requiere de una revisión de distintas propuestas educativas y de interacción hacia el aprendizaje que resumimos en la sección 1. Marco teórico. En la sección 2 se da una breve descripción de las modalidades de conducción del proceso de enseñanza aprendizaje. En la sección 3, se expone con detalle el SAC, su implementación y los beneficios que se esperan de él. La sección 4 describe la metodología experimental, los experimentos realizados y los programados, así como el análisis de los resultados preliminares. En la última sección se dan las conclusiones y trabajo futuro. Marco teórico Los trabajos de Piaget establecen las bases de la eficacia en las relaciones entre pares, mismas que son desarrolladas posteriormente por la Escuela de Ginebra. Autores como Mugny y Pérez (1988); Mugny y Doise (1983); Ames y Muray (1982); Perret-Clemont y Schubauer-Leoni (1988); Doise, Deschamps y Mugny (1980) entre otros, indican que la importancia es hacia la construcción social de la inteligencia que depende de la interacción social y de la actividad cooperativa entre iguales. Este es un fundamento de nuestra propuesta que enaltece la cooperación entre los alumnos. Por otro lado, el trabajo de Vygotsky establece que los procesos mentales superiores son inherentemente sociales y dependen del contexto cultural en el que se desarrollan los seres humanos, por tanto, para entender el desarrollo individual se debe referir el medio social en el que el individuo se encuentra. En su ley genética general de desarrollo cultural enfatiza que “toda función en el desarrollo cultural del niño aparece dos veces o en dos planos. Primero aparece en el plano social y luego en el plano psicológico” (Vygotsky, 1981: 163). En contraposición de Piaget, para Vygotsky la unidad de análisis debe ser la actividad social. En efecto, considerar la actividad social, fortalece el desarrollo de la empatía con el otro, de las relaciones interpersonales. 112 Es por ello que en el modelo propuesto se incluya la actividad social como eje fundamental de cooperación entre alumnos. Modalidades de conducción del proceso de enseñanza y aprendizaje En la DCBI existen dos modalidades de conducción del proceso de enseñanza y aprendizaje desde la creación de la UAM: la modalidad tradicional y el Sistema de Aprendizaje Individualizado (SAI). Ambas desarrollan diversas habilidades en los alumnos más allá de su formación profesional. Sin embargo, es común que los alumnos de ingeniería tengan problemas serios de socialización para integrarse y trabajar en grupos disciplinarios e interdisciplinarios, se han olvidado valores fundamentales como compartir lo que tienen y lo que saben, ayudar a los demás y viendo la enseñanza como una oportunidad de aprender, compartir y socializar. En éste contexto surge la propuesta de una nueva modalidad de conducción del proceso de enseñanza y aprendizaje, que recupera lo mejor del Sistema de Aprendizaje Individualizado y lo incorpora con la filosofía del aprendizaje cooperativo, dando origen al Sistema de Aprendizaje Cooperativo. En la figura 1 se muestran las principales diferencias entre las modalidades de conducción del proceso de enseñanza y aprendizaje en la DCBI, incluyendo el SAC. Por ejemplo, la organización del contenido temático de un curso en la modalidad presencial se divide en 3 partes, cada una se evalúa de manera independiente estableciendo una fecha, hora y lugar. En la modalidad SAI el contenido se organiza en pequeñas secciones llamadas unidades, el número de unidades depende del curso y del profesor, cada unidad se evalúa de manera independiente, el alumno realiza su autoestudio y presenta su examen, si no lo aprueba tiene oportunidad de repetirlo hasta aprobarlo para poder continuar con la siguiente unidad. Mientras que la modalidad SAC retoma la filosofía del SAI en cuanto a la organización del contenido del curso, con la variante de considerar de 7 a 10 unidades. 113 Figura 1. Características de las modalidades de conducción del proceso de enseñanza y aprendizaje en la DCBI. El SAC rompe el paradigma de tiempo-lugar, facilita la atención al alumno de manera no presencial y cooperativa (apoyándose por medios electrónicos), mientras que el SAI y la modalidad tradicional o presencial requieren de un espacio físico para la atención del alumno. En cierta forma, el aprender es una serie homogénea de conductas y de acciones clásicas para la modalidad tradicional, en el SAI se centra en el autoaprendizaje, pero una de las innovaciones del SAC es atender la diversidad considerando los estilos de aprendizaje y pensamiento del alumno. Fundamento pedagógico y filosófico del Sistema de Aprendizaje Cooperativo Sin importar el curso que se imparta, un profesor puede orientar sus clases para que el alumno: a) tenga que competir con sus compañeros para demostrar quién es el mejor; b) trabaje de manera independiente, individualmente para alcanzar los objetivos establecidos, a su propio ritmo y en su propio espacio; o c) que trabaje de manera colaborativa en grupos pequeños, donde todos se esfuerzan para que el grupo domine el material del curso y todos colaboren (Deutsch, 1962), (Johnson,1991). 114 En la modalidad tradicional se aplica por lo general el aprendizaje por competencia, obliga a los alumnos a trabajar más rápido y con mayor precisión que los demás. Los alumnos más hábiles se convierten en los que merecen pasar y los menos aptos en los que seguramente van a reprobar. Esta estrategia genera una interdependencia negativa entre los logros puesto que la única forma de alcanzar sus metas es a partir de que los demás alumnos fracasen (Deutsch, 1962), (Johnson,1991). En el SAI se aplica el aprendizaje individualista, se enfoca en el trabajo individualizado del alumno y la atención personalizada, cada estudiante cuenta con su material y trabaja a su propio ritmo. El alumno valora sólo sus propios esfuerzos y logros, no se enfocan en el éxito de los demás; los logros de los demás son autónomos. Los alumnos distinguen que el logro de sus metas de aprendizaje no tiene nada que ver con lo que hacen otros estudiantes (Deutsch, 1962), (Johnson,1991). Esta estrategia permite que el alumno conozca sus propias habilidades y destrezas, lo habilita para el autoestudio. En el SAC la filosofía gira en torno al aprendizaje cooperativo, trabajar juntos para lograr metas comunes. Para Johnson y Johnson: “Los individuos buscan resultados benéficos tanto para ellos como para todos los demás integrantes del grupo. El aprendizaje cooperativo es el uso didáctico de grupos pequeños que permite a los estudiantes trabajar juntos para maximizar su propio aprendizaje y el de los demás” (Johnson,1991). La importancia del aprendizaje cooperativo radica en el beneficio mutuo, en compartir lo que saben y lo que aprenden, en preocuparse por los demás. Este es el fundamento pedagógico y filosófico del Sistema de Aprendizaje Cooperativo. Más aún, la cooperación debe llevarse a cabo de manera consciente hasta que se vuelva un hábito y sea la forma cotidiana de actuar e interactuar. Definición del Sistema de Aprendizaje Cooperativo Los lineamientos para la definición y operación de los cursos bajo el Sistema de Aprendizaje Cooperativo mediado por Tecnologías de la Información y Comunicaciones (TIC), fueron aprobados por el Consejo Divisional de Ciencias Básicas e Ingeniería, en su sesión 513 ordinaria, celebrada el día 16 de Octubre de 2012, por acuerdo 513.5. Entran en vigor junto con las modificaciones de los planes y programas de estudio de las diez licenciaturas de ingeniería en el trimestre 13-O. 115 Implementación del SAC Para la implantación del modelo del sistema de aprendizaje cooperativo es necesario que: a) el alumno obtenga una calificación aprobatoria en todas las actividades de evaluación que realice durante el curso; b) el alumno sea informado con precisión sobre lo que tiene que hacer, la forma en que se van a realizar las actividades individuales y colectivas, para demostrar que aprendió el tema; c) el profesor elabore material didáctico de apoyo que facilite al alumno el aprendizaje a excelencia en un tiempo razonable. El alumno se puede comunicar con el profesor (si la tecnología existente lo permite) de manear ubicua aprovechando las TIC, a través de mecanismos síncronos como: chat, videoconferencia, entre otros; y asíncronos: foros, blogs, facebook, entre otros. A los alumnos se les proporciona una planeación de actividades, con la libertad de trabajar a su propio ritmo, poniendo a su disposición sesiones en línea en tiempo real y un sistema de asesoramiento mediado por TIC en el que se le atiende de manera personal o colectiva. Un elemento clave para que se logre un aprendizaje de excelencia es la motivación, para fomentarla se aplican refuerzos positivos, con el objetivo de que el alumno se sienta importante, perciba la preocupación por su rendimiento y aprendizaje. El error es un mecanismo fundamental para el aprendizaje, donde la corrección debe ser continua y personal para el alumno. Al mismo tiempo la felicitación es permanente para que el alumno se motive y siga avanzando, con la satisfacción de adquirir nuevos conocimientos. Con el objetivo de realizar una supervisión y monitoreo de la calidad educativa de los cursos impartidos, se aplica el ciclo de supervisión de excelencia en el que intervienen cuatro actores: profesor, alumno, alumno de servicio social y ayudante de profesor, como se muestra en la figura 2. 116 Figura 2. El ciclo de supervisión de excelencia promueve la calidad educativa en los cursos impartidos en el SAC. El ciclo de supervisión de excelencia permite que alumnos de servicio social interactúen con los alumnos inscritos en el curso, fungiendo como termómetros que equilibran la armonía en el ambiente cooperativo. Mientras que los ayudantes son los termómetros que miden el aprendizaje a través de la verificación de actividades que realizan los alumnos, identifican los errores recurrentes, notifican al profesor para que explique nuevamente el tema o realice más ejercicios, entre otras acciones correctivas. El ciclo de supervisión de excelencia crea un círculo virtuoso y por consecuencia una sinergia positiva que fomenta la mejora continua durante el proceso de enseñanzaaprendizaje. Beneficios del Sistema de Aprendizaje Cooperativo El SAC tiene como objetivo fomentar el desarrollo de habilidades como el pensamiento crítico, el pensamiento complejo, así como un compromiso por compartir y ayudar a los que nos rodean para alcanzar juntos el éxito. Bajo este contexto se propone construir de manera conjunta un paradigma educativo que resulte inclusivo, que no se anteponga a ningún planteamiento teórico en particular, que permita cumplir con la misión de la Institución en cuanto a formar profesionales y ciudadanos aptos y responsables en correspondencia con las necesidades de la sociedad y que optimice los recursos físicos y humanos con los que cuenta la DCBI. 117 Experiencia y trabajo empírico El modelo propuesto es el resultado del trabajo empírico realizado durante los trimestres 11-O al 14-P, en grupos CNP (Curso No Presencial) y SAC (Sistema de Aprendizaje Cooperativo) de la UEA Métodos Numéricos en Ingeniería (uno de los cursos de mayor demanda en el Departamento de Sistemas). Con una prueba de la aplicación de la modalidad SAC durante los trimestres 13-O al 14-P. Metodología El diseño de los experimentos que se implementaron consideraron un conjunto de variables que se fueron modificando hasta obtener buenos resultados en el aprendizaje, disminución de la deserción e incremento en la aprobación. Cada experimento se realizó en un trimestre distinto, se fueron adecuando las variables involucradas con el objetivo de optimizar los recursos necesarios para atender los grupos en modalidad SAC, así como mejorar el aprendizaje del alumno. Con base en los resultados de la experiencia empírica, se define el modelo de supervisión de excelencia (que se muestra en la figura 2). Un segundo bloque de experimentos en los que se implementa la modalidad SAC durante los trimestres del 13-O al 14-P. Experimentos programados Los experimentos inician desde el trimestre 11-Otoño y se concluyen en 14-Primavera, lo que permite realizar 9 repeticiones, con diferentes valores en las variables involucradas como se muestra en la tabla 1. La primera variable considerada es la formación de las comunidades de aprendizaje, considerando la conformación libre a decisión del alumno, aleatoria y acorde con su perfil de aprendizaje (primero manteniendo diversidad y segundo entre alumnos con el mismo estilo de aprendizaje). 118 Tabla 1. Experimentos de campo Variable 11-O 12-I 12-P 12-O – 14-P Formación comunidades aprendizaje Libre Aleatoria Acorde con el perfil de aprendizaje (diversidad) Acorde con el perfil de aprendizaje (homogéneo) Actividades de evaluación Exámenes Programas Ejercicios Incrementales Mapas mentales programas Mapas mentales Programas Autoevaluación Exámenes Mapas mentales Programas Autoevaluación Exámenes Seguimiento Jerárquico Jerárquico Ciclo de Supervisión de Excelencia Ciclo de Supervisión de Excelencia Herramientas cognitivas Aula virtual Colaboratorio Colaboratorio Colaboratorio Apoyos: REM Presentaciones Texto Asesoría presencial Problemas Videoclases Asesoría presencial Clase en videoconferencia Problemas Capsulas de conocimiento Asesoría presencial Ejercicios en videoconferencia Problemas Capsulas de conocimiento Asesoría presencial Ejercicios en videoconferencia La segunda variable corresponde a los tipos de actividades de aprendizaje que apoyan la evaluación. La tercera variable determina los recursos humanos necesarios y el mecanismo de acompañamiento para los alumnos. El modelo jerárquico en el que se requiere un alumno de servicio social por cada 50 alumnos, un ayudante y el profesor, se conforman las comunidades con un máximo de 5 alumnos. En el caso del ciclo de supervisión de excelencia se considera un alumno de servicio social, un ayudante y el profesor para atender hasta 294 alumnos. La cuarta variable está asociada con las herramientas para facilitar el aprendizaje, utilizando inicialmente aula virtual y después utilizando colaboratorios que apoyan las actividades cooperativas. La quinta variable se relaciona con el tipo de recursos educativos multimedia utilizados para apoyar la enseñanza y autoestudio del alumno. 119 Análisis de resultados Los experimentos se realizan en la UEA de tronco general: Métodos Numéricos en Ingeniería. La UEA de Métodos Numéricos en Ingeniería puede ser la primera o la segunda vez que el alumno cursa bajo las consideraciones de los experimentos programados, lo que implica para el alumno que toma una UEA en ésta modalidad, un mayor esfuerzo dado que se enfrenta a una nueva forma de conducción del proceso de enseñanza y aprendizaje, debe comprender el uso de la plataforma, además de aprender el tema disciplinar de la UEA que le permite desarrollar un pensamiento creativo. Esto produce que el alumno adquiera nuevas habilidades cognitivas durante el trimestre y le demanda gran esfuerzo. En la figura 3 se muestran los resultados obtenidos durante los nueve trimestres respecto al índice de aprobación. Figura 3. Índice de aprobación de la UEA Métodos Numéricos en Ingeniería. El índice de aprobación de la UEA de Métodos Numéricos en Ingeniería de la figura 3, presenta un patrón de comportamiento, en el que durante los trimestres de otoño presenta los valores mínimos de aprobación en cada ciclo anual. Mientras que el índice de aprobación sube en invierno y llega a su máximo en primavera, para después repetir el patrón al siguiente año. Se observó que a pesar de atender un mayor número de alumnos (comparado con los grupos tradicionales con un total de 40 a 50 alumnos) con un mínimo de recursos humanos como se muestra en la figura 4 el porcentaje de aprobación es similar que en grupos tradicionales (aproximadamente del 120 50%), sin embargo el número de alumnos atendidos en grupos SAC triplica el cupo, por tanto un mayor número de alumnos aprueba el curso. Figura 4. Alumnos atendidos en modalidad SAC en la UEA Métodos Numéricos en Ingeniería durante los experimentos. Conclusiones y trabajo futuro Dada la alta demanda de alumnos que solicitan su inscripción en UEA de tronco general, es necesario tener alternativas de atención a partir de los recursos físicos y humanos existentes en el Departamento de Sistemas de la DCBI. Para lo cual se propone la modalidad de conducción del proceso de enseñanza y aprendizaje SAC, que habilita la atención a grupos masivos que van de 50 y hasta 294 alumnos. Se logró observar que la implementación de la modalidad SAC permite atender un mayor número de estudiantes con un profesor, un ayudante y un alumno de servicio social, comparativamente con un grupo en modalidad SAI que atiende hasta 30 alumnos o uno en modalidad presencial donde se atienden entre 40 y máximo 50 alumnos. La aprobación de alumnos en grupos SAC comparados con los aprobados en grupos presenciales también es mayor. Es evidente que tener diversidad en las modalidades de conducción del proceso de enseñanza y aprendizaje (presencial, SAI y SAC) permite ofrecer a los alumnos diversas opciones que les permiten desarrollar habilidades cognitivas que van más allá de la temática disciplinar. 121 Hay un gran trabajo por delante, la permanente evaluación, la búsqueda de las correctas motivaciones y la difusión del SAC para lograr una mayor incorporación de profesores y alumnos es un reto por abordar para diversificar la implementación de la modalidad SAC en otras UEA. Referencias [1] Ames, G.J., Murray, F.G. (1982). When two wrongs make a right: Promoting cognitive change by social conflict. Developmental Psychology, 18, 894-897 [2] Deutsch, M. (1962). Cooperation and trust: Some theoretical notes. In M. R. Jones (Ed.), Nebraska symposium on motivation, 275-319. Lincoln, NE: University of Nebraska Press. [3] Doise, W., Deschamps, J.C., Mugny, G. (1980). Psicología social experimental. Barcelona: Hispano Europea. [4] Johnson, D. W. (1991). Human relations and your career (3rd. ed.). Englewood Cliffs, NJ: Prentice-Hall. [5] Mugny, G., Pérez, J.A. (1988). Psicología social del desarrollo cognitivo. México: Trillas [6] Mugny, G., Doise, W. (1983). La construcción social de la inteligencia. México Trillas. [7] Perret-Clemont, A.N. (1988). Interagir et connaitre: Enjeux et régulations sociales dans le développement cognitif. Neuchatel: Delachaux et Niestlé. [8] Vygotsky, L.S. (1981). The genesis of higher mental functions. En J.V. Wertsch (Comp.), The concept of activity in Soviet psychology (144-188). Armonk, NY: Sharpe. 122 Ventajas Sobre el Uso del Quitosano como Coagulante en el Tratamiento de Aguas Residuales Icela D. Barceló Quintal1, Mónica L. Salazar Peláez1, Gustavo A. Martínez Pérez1, Triana C. Cervantes Pérez1, Julisa García Albortante1, Elba Castillo Borges2 Área de Química y Fisicoquímica Ambiental División de Ciencias Básicas e Ingeniería. Universidad Autónoma Metropolitana–Azcapotzalco, Av. San Pablo 180, Col. Reinosa Tamaulipas, Azcapotzalco, México, D.F., C.P. 02200, Mexico. 1 Universidad Autónoma de Yucatán. Facultad de Ingeniería. Av. Industrias No Contaminantes por Periférico Norte s/n, Mérida, Yucatán, México 2 Resumen La problemática de la escasez mundial de agua, ha generado que se realicen grandes esfuerzos a la búsqueda de soluciones que permitan el tratamiento y la disposición de aguas residuales de distintas procedencias y la posibilidad de ser reutilizadas en diversos usos. Entre las etapas de tratamiento de las diferentes aguas residuales, se encuentra la coagulación, proceso mediante el cual las partículas se aglutinan formando pequeñas masas, cuyo peso específico superior al del agua les permite sedimentar y puedan ser separadas mediante decantación, causando en el agua una remoción de la turbidez orgánica y/o inorgánica, eliminación de color, en algunos casos la eliminación de bacterias, virus y organismos patógenos y eliminación de sustancias productoras de sabor y olor, y de sólidos suspendidos, entre otros. La mayoría de los procesos de tratamiento del agua emplean sulfato de aluminio como coagulante. La principal consecuencia de la aplicación de este material es la generación de una importante cantidad de lodos ricos en aluminio. Durante mucho tiempo el aluminio fue considerado no tóxico y, en especial, inocuo para los seres humanos; sin embargo, se ha demostrado que puede producir efectos adversos en plantas, animales acuáticos y seres humanos, cuando se libera al ambiente. En México, la NOM-127-SSA1-1994 establece un límite máximo de aluminio en el agua potable de 0.2 mg/L considerando que niveles más elevados pueden afectar la salud humana. En los últimos años se ha observado un creciente interés en el desarrollo de coagulantes naturales, como el quitosano, que proviene de la síntesis de la quitina de crustáceos. En este trabajo se presenta el aprovechamiento de la cáscara de camarón, que es un desecho que puede ser utilizado para la obtención de este compuesto, para su uso como coagulante en el tratamiento de aguas municipales. Además su uso como coagulante natural resulta ser muy atractivo debido a su menor costo en comparación con los agentes sintéticos, además es 123 biodegradable y no afecta las cepas bacterianas cuando se requiere la estabilización de los lodos en los tratamientos aerobios y pueden ser utilizados, por ejemplo en la adecuación de suelos por su alto contenido de materia orgánica. Además con pruebas en el laboratorio se ha demostrado que el uso del quitosano mejora las propiedades de sedimentación de los lodos de origen municipal, sustituyendo a los coagulantes sintéticos.. Palabras clave: Coagulante, sulfato de aluminio, quitina, quitosano ABSTRACT The issue of global water scarcity has led to great efforts to finding solutions to the treatment and disposal of wastewater from different backgrounds and the ability to be reused in different applications. Among the processing steps in treatment of wastewater; coagulation process is important, this consist whereby the particles coalesce into small masses, where specific gravity greater than water allowing sediment, they can be separated by decanting causing turbidity removal of inorganic and organic substances, color, suspended solids, removal in some cases bacteria, viruses and pathogens and eliminating substances producing bad taste and odors from waste waters. Most water treatment processes employ aluminum sulfate as a coagulant. The main consequence of the application of this material is the generation of a significant amount of sludge rich in aluminum. Long aluminum was considered non-toxic and, especially, harmless to humans; however, it has been shown to produce adverse effects on plants, aquatic animals and humans, when released to environment. In Mexico, the NOM-127-SSA1-1994 sets a maximum limit of aluminum in drinking water of 0.2 mg / L whereas higher levels can affect human health. In recent years there has been an increasing interest in the development of natural coagulants, such as chitosan, which comes from the synthesis of crustacean chitin. In this work is presented the utilization of shrimp shell, which is a waste product, can be used for the preparation of this compound for to use as a coagulant in municipal water treatment. Besides its use as a natural coagulant is very attractive due to its lower cost compared with the synthetic agents, it is biodegradable and does not affect the bacterial strains as the stabilization of sludge in the aerobic treatment and the sludge generated is required can be used for example in matching soil for its high content of organic matter. In addition to laboratory tests demonstrated that the use of chitosan improved settling properties of the sludge from municipal sources, replacing the synthetic coagulants. Keywords: Coagulant, aluminum sulfate, chitin, chitosan 124 Introducción Debido a la creciente problemática de la escasez mundial de agua, la comunidad científica internacional dedica grandes esfuerzos a la búsqueda de soluciones que permitan el tratamiento y la disposición de aguas residuales de distintas procedencias y la posibilidad de ser reutilizadas en diversos usos. Entre las etapas de tratamiento de las diferentes aguas residuales, se encuentra la coagulación (Hernández, 1990), proceso mediante el cual las partículas coloidales que no sedimentan debido a que forman coloides estables, es necesario mediante ciertas sustancias desestabilizarlas y permitir que se aglutinen para formar pequeñas masas, y microflocs, de manera que por gravedad puedan tender a la sedimentación figuras 1a y 1b. Del proceso de coagulación depende en gran porcentaje la mayor o menor eficiencia del proceso subsiguiente: el de la separación de sólidos por sedimentación y filtración. La remoción de turbidez en los sedimentadores y en los filtros así como la calidad del agua que se obtenga en ellos, se relacionan directamente con la manera como las partículas sean desestabilizadas y con la intensidad de las fuerzas que las aglutinan. (a) (b) Figura 1. (a) Formación de microfloc a partir de coloides estables. (b) Esquema de como se encuentran las cargas para una desestabilización de los coloides para lograr que formen los flocs. En la actualidad, la mayoría de los procesos de tratamiento del agua emplean sulfato de aluminio como coagulante, cuyas cantidades usadas dependen del contenido de sólidos presentes en el agua. La principal consecuencia de la aplicación de este material es la generación de una importante cantidad de lodos ricos en aluminio. Estos lodos se caracterizan por presentar entre 125 0.1 a 27.0% de sólidos totales, de 4.0 a 40.0% de aluminio y valores de pH entre 5.5 y 8.0 (Panizza, 2006). Estas condiciones pueden contribuir de manera importante a la contaminación de los suelos, por lo cual es necesario tratarlos o buscar alternativas al uso del sulfato de aluminio. Durante mucho tiempo el aluminio fue considerado no tóxico y, en especial, inocuo para los seres humanos; sin embargo, se ha demostrado que puede producir efectos adversos en plantas, animales acuáticos y seres humanos, cuando se libera al ambiente. Las concentraciones a las cuales el aluminio genera efectos adversos en los seres vivos dependen del tipo del ser vivo, de la biodisponibilidad del metal y del tiempo de exposición al mismo (Panizza, 2006, Panizza et al, 2008). En México, la NOM-127-SSA1-1994 establece un límite máximo de aluminio en el agua potable de 0.2 mg/L considerando que niveles más elevados pueden afectar la salud humana (DOF, 1996). Históricamente, los primeros coagulantes fueron de origen mineral o vegetal, pero la falta de conocimiento científico de sus mecanismos de acción llevó a su remplazo por sustancias químicas, (Poumaye, et al, 2012). En los últimos años se ha observado un creciente interés en el desarrollo de coagulantes naturales, Mediante el uso de coagulantes naturales se puede alcanzar considerables ahorros en sustancias químicas y en el tratamiento de lodos (Bina et al, 2010). Actualmente en el área de la ciencia de los biomateriales, los científicos se han enfocado al estudio de coagulantes que sean biodegradables para una posterior utilización de los lodos. Entre estos biomateriales se encuentra la quitina y el quitosano. La quitina es un biopolímero que se encuentra presente en el exoesqueleto de artrópodos como: langostas, cangrejos y camarón; insectos y también se encuentra en la pared celular de las diatomeas, y otras algas, y hongos; este material no es tóxico y es relativamente fácil de degradar, por lo que su aplicación es ambientalmente aceptable (Crini, 2005, Rinaudo, 2006). La quitina tiene por nombre sistemático poli-N-acetil-D-glucosamina, es el segundo polímero natural más abundante en la tierra después de la celulosa. Es un polímero lineal de alto peso molecular y se estima que por lo menos, 10 gigatoneladas (1x1013 kg) de quitina son producidas e hidrolizadas cada año en la biosfera (Shahidi y Abuzaytoun, 2005). La palabra quitina viene del griego tunic, túnica (Lárez, 2003; Shahidi y Abuzaytoun, 2005; Synowiecki y Al-Khateeb, 2003). La estructura química de la quitina, figura 2b es muy parecida a la de la celulosa, figura 2a, sólo que en la posición C2 de cada hexaciclo, se tiene un grupo acetamida, figura 2b, encerrados en los círculos, que está reemplazando a un grupo hidroxilo en el caso de la celulosa (Shahidi y Abuzaytoun, 2005), por lo que existió una controversia sobre las diferencias entre la celulosa y la quitina, debido a que se pensaba que la presencia de nitrógeno reportada en algunas investigaciones se debía a residuos de proteínas que no podían ser 126 completamente eliminados de las muestras y no a las diferencias descritas (Lárez, 2003). Dependiendo de su origen, la quitina puede presentarse en dos formas, llamadas α y β, figuras 3a y 3b. Figura 2. (a). Estructura de la celulosa. (b) Estructura de la quitina. Donde ambas estructuras pueden distinguirse por espectroscopia infrarroja, por lo que se han desarrollado diversos estudios (Rinaudo, 2006) para la interpretación del espectro infrarrojo como el que se muestra en la figura 3, que es típico de los polisacáridos, encontrándose una diferencia interesante en la región de estiramiento del enlace C=O y las vibraciones de deformación del enlace del grupo amida entre 1600 y 1500 cm-1. Para la α-quitina, la banda de la amida I está en 1656 y 1621 cm-1, mientras que para la β-quitina sólo hay una banda en 1626 cm-1. En contraste, la banda de la amida II es única para ambas formas de quitina, 1556 cm-1 para α-quitina y 1560 para β-quitina. El hecho de que se presenten dos bandas para la amida I de la β-quitina es motivo de discusión, pero la hipótesis más aceptada es que la banda en 1621 cm-1 se trata de un enlace específico de hidrógeno del C=O con el grupo hidroximetil del siguiente residuo de quitina de la misma cadena (Brugnerotto et al., 2001). 127 Figura 3 Espectro infrarrojo (a) de la α-quitina. (b) de la β-quitina. Como materia prima del quitosano, la quitina es el segundo biopolímero de mayor importancia en nuestro planeta (sólo después de la celulosa), figuras 4a y 4b. A diferencia del sulfato de aluminio, el quitosano es un floculante completamente biodegradable (Poumaye et al, 2012). El quitosano a través de la quitina, se obtiene típicamente de los artrópodos, caparazones de crustáceos y de algunas levaduras (Fabris, 2010). Los grupos funcionales NH2 presentes en la estructura del quitosano hacen que su molécula esté cargada positivamente, lo cual facilita la interacción con materiales coloidales y con materiales aniónicos suspendidos. El quitosano, como agente coagulante, es eficiente a concentraciones mucho menores en comparación con las sales metálicas convencionales, y no deja metales residuales después de la coagulación (Zonoozi, 2011). (a) (b) Figura 4. (a) estructura de la quitina. (b). Estrutura del quitosano. En este trabajo se presenta la obtención primero de la quitina como materia prima para la obtención del quitosano de la cáscara de camarón figura 5 y probar su capacidad como coagulante, para su uso posterior en aguas re128 siduales con alto grado de material en suspensión y alta carga orgánica. Es importante considerar algunos aspectos básicos sobre el camarón, debido a la calidad de quitina y por lo tanto del quitosano. Aun cuando en el ámbito mundial existen 342 especies de camarón con valor comercial, son unas cuantas las especies que son importantes en el mercado. Esas especies se pueden clasificar en tres grupos básicos: a) El camarón tropical, b) El camarón de río o de aguadulce, y c) El camarón de agua fría. Figura 5. Cáscara de camarón para la extracción de la quitina como materia prima del quitosano. a) El camarón tropical, constituye el tipo de camarón más popular y abundante en el mercado. La mayoría se caracteriza por el color de su cáscara cuando están crudos: blanco, café, rosa y tigre negro. Otro tipo de camarón de aguas tropicales es el camarón de roca, y se le conoce así debido a su cáscara dura. El camarón blanco tiene la cáscara de color blanco-grisáceo, la cual se torna rosada al cocinarse. La cáscara del camarón blanco de cultivo es de un tono blanco-grisáceo más claro y son más delgadas que las silvestres. La cáscara más delgada de éstos últimos es consecuencia tanto de la composición del alimento, como del crecimiento en cautiverio. El camarón cultivado tiene un sabor más delicado y una textura más suave, esto se debe a que el camarón silvestre se alimenta de crustáceos y algas marinas, lo que enriquece su sabor y fortalece su cáscara, (Hernández-Núñez et al, 2008). El camarón rosa es capturado en el Golfo de México, el Caribe y Centroamérica. Su cáscara de color rosa claro, muestra una textura nacarada y algunos presentan una mancha distintiva rosada en la cabeza. En cuanto a la floculación, es un proceso mediante el cual las partículas se aglutinan formando pequeñas masas, cuyo peso específico superior al del agua les permite precipitar y puedan ser separadas mediante decantación, causando en el agua una remoción de la turbidez orgánica y/o inorgánica, 129 eliminación de color, en algunos casos la eliminación de bacterias, virus y organismos patógenos, destrucción de algas y eliminación de sustancias productoras de sabor y olor, y de precipitados químicos suspendidos entre otros (Rodríguez et al, 2005).Ver figuras 6a y 6b, en el primer caso 6a, se observa como las partículas coloidales no sedimentan y en el caso de la figura 6b con una previa coagulación las partículas se aglutinan y por gravedad sedimentan. Figura 6. (a)Principio de la floculación de partículas coloidales s. (b)que previa coagulación permiten que sedimenten. Muchos coagulantes requieren posteriormente de alguna sustancia que les permita flocular. La floculación es la aglomeración de partículas desestabilizadas en microflóculos y después en los flóculos más grandes que tienden a depositarse en el fondo de los recipientes construidos para este fin, denominados decantadores. El proceso de floculación es precedido por el de coagulación, por eso suele hablarse de procesos de coagulación - floculación. Los floculantes (o coadyuvantes de coagulación) son productos que favorecen el proceso de formación del flóculo, actuando de puente o unión para captar mecánicamente las partículas en suspensión. La diferencia básica entre coagulante y floculante reside en que el coagulante anula las fuerzas repulsivas entre las partículas coloidales, iniciando la formación de microflóculos figura 7, en cambio el floculante engloba estos microflóculos aumentando su tamaño y densidad de modo que sedimenten más fácil y rápidamente, figura 7. Se pueden utilizar polímeros de alto peso molecular, naturales o sintéticos. Entre lo floculantes naturales se encuentran los almidones y sus derivados, polisacáridos de compuestos celulósicos, como ciertos compuestos proteínicos, alginatos que dan precipitados voluminosos 130 que sedimentan rápidamente. Su uso es, en ciertos casos, ventajoso pues pese a ser necesarios en dosis más elevadas generalmente tienen un costo inferior al de lo polielectrolitos sintéticos. Figura 6. Se observa el papel importante de un floculante que une los coloides desestabilizados y sirve de puente para aumentar el floc y sedimente más rápidamente. En la actualidad, la mayoría de los procesos de tratamiento del agua emplean sulfato de aluminio como coagulante (Pacala et al, 2009), donde estas condiciones pueden contribuir de manera importante a la contaminación de los suelos, por lo cual es necesario tratarlos o buscar alternativas al uso del sulfato de aluminio. Durante mucho tiempo el aluminio fue considerado no tóxico figura 8. Figura 8. aluminio y su efecto en los peces de la laguna de Laguna de Cajititlán en Jalisco. Metodología Preparación de coagulante de Sulfato de Aluminio Se utilizó como coagulante de comparación el aluminio, para cuya preparación se utilizó la sal de Sulfato de Aluminio Baker grado analítico. Se pesó 1 gramo del reactivo y se disolvió en agua desionizada; la solución resultante 131 fue aforada a 100 mL, con una concentración final de 10 mg/mL, con el objeto de facilitar la dosificación del mismo durante las pruebas de jarras. Síntesis de Quitosano a partir de cáscara de camarón Se seleccionó la cáscara que no contenía residuos cárnicos, se lavó la cáscara previamente pesada con extrán neutro al 30%, se enjuagó varias veces con agua desionizda, se secó parcialmente la cáscara a 50°C durante dos horas, se pesó y se complementó la elimininación de la humedad por liofilización previa congelación en una liofilizadora Virtis Benchtop, hasta peso constante, este paso es importante, ya que no es conveniente usar mucho tiempo de calor debido a que se puede degradar el caparazón afectando las propiedades fisicoquímicas de la quitina y quitosano que se sintetizarán de la cáscara. Las cáscaras se molieron en un molino Bel Art Micro Mill y se tamizarán a malla tipo Tyler 100, en un tamizador sónico ATM Products Sonic Sifter. A 200 gramos de la cáscara molida se le efectuó una desmineralización, tratando la cáscara de camarón HCl 0.5N, Baker grado analítico, durante 4 hrs. a 25 ºC, con agitación en un equipo Orbit Shaker Lab-Line, después de este tiempo en contacto con el ácido se lavó hasta neutralidad con agua destilada. El paso siguiente fue el de una desproteinización; para ello se trató el material con una solución de NaOH al 0.5N durante 6 horas a 100°C, obteniéndose la quitina, siguiendo la técnica de Martínez. 2008 y para el control de la eficiencia se efectuó con el método de Mohammad (2008), tomado de Hernández-Núñez et al, 2008, mediante espectrometría infrarroja en un equipo Nicolet modelo iS10 Thermo Scientific, se renovó el NaOH cada 3 horas y al final del tiempo se lavó a neutralidad con agua destilada con centrifugación a 500 rpm durante 30 min, en una centrífuga Centrifuga Allegra 21 dejándose reposar y eliminándose el agua por decantación, se le volvió agregar agua al sólido, repitiéndose la operación hasta que el pH del agua eliminada fue cercano a 7. La quitina producida se sometió a desacetilación por la adición de NaOH al 50% a 100 ºC durante 2 horas. El residuo obtenido se lavó hasta neutralidad con agua destilada y el producto se congeló y se sometió a liofilización. 132 Metodología de la prueba de jarras para la determinación de la dosis óptima Se determinó la temperatura del agua cruda que se iba a tratar por los dos coagulantes (sulfato de aluminio y quitosano), así como el color, la turbidez, el pH y la alcalinidad.Mediante el equipo de prueba de jarras VIRTIS Scientifica JLT 6 se añadieron en diferentes juego de seis jarras el agua y los coagulantes en dosis progresivas, haciéndolos funcionar a 200 rpm, con una mezcla rápida, se disminuyó la velocidad de rotación de las paletas a 25 rpm y se dejó flocular el agua durante 15 minutos, para permitir que las partículas coloidales ya desestabilizadas incrementaran el tamaño del floc. Después de concluido el tiempo, se observó una floculación, se extrajeron las paletas del equipo de jarras y se dejó sedimentar durante 20 minutos. Posterior al proceso de sedimentación, se extrajeron los sobrenadantes para la determinación de turbidez residual. Se compararon los resultados con diferentes dosis para la selección de la dosis óptima de cada coagulante. Se utilizó la espectroscopía de infrarrojo para el seguimiento del quitosano, en el equipo Nicolet modelo iS10 Thermo Scientific. Resultados Experimentales Como coagulante patrón se utilizó el sulfato de aluminio y mediante la titulación para medir su acidez superficial con KOH (0.3 M) se construyeron las siguientes gráficas, las cuales proporcionaron de manera preliminar, el intervalo del pH, para hallar el óptimo y tener la operación adecuada de cada uno de los coagulantes preparados con quitosano, ver figura 9 a y 9ab, donde en la figura 9a se indican los dos pH importantes en el barrido de pH, neutralizado con KOH 0.3M. Figura 9. (a) Barrido de la neutralización del pH del sulfato de aluminio. (b) Se tomó la primera derivada del pH vs Volumen gastado de KOH = 0.3M. 133 Tomando en cuenta que el aluminio es un ácido Lewis acepta en su esfera de coordinación seis moléculas de H2O, [Al(H2O)6], hidrolizándose mediante la pérdida de tres H+, así el coloide tiene la fórmula [Al (H2O)3(OH-)3], esto significa que por cada Al3+ existen tres H+, como se indica en la reacción siguiente:. [Al(H2O)6]3+ → [Al (H2O)3(OH-)3] Posteriormente fue importante determinar la superficie ácida del quitosano a través de la construcción de la Curvas de Gran, donde los mínimos se determinaron mediante la primera derivada del pH vs volumen del titulante (KOH 0,3M). En cuanto al quitosano su estructura contiene seis H+ por cada monómero que se forma, como se representa en la estructura: A continuación se presenta la curva de titulación y la determinación de los mínimos mediante las curvas de Gran y la primera derivada del pH vs Volumen del KOH = .3M 134 Figura 10. (a) Barrido de la neutralización del pH del quitosano. (b) se tomó la primera derivada del pH vs Volumen gastado de KOH = 0.3M. Analizando al coagulante sulfato de aluminio con el coagulante quitosano, se observó que el quitosano presentóa una superficie más ácida, ya que contiene por monómero 6H+. Se caracterizó el quitosano obtenido de la quitina, por espectroscopía IR, y se compararon los espectros con tres quitosanos comerciales de viscosidad alta, media baja respectivamente. La determinación del espectro IR para cada una de la variedades de quitosano (alta, media y baja viscosidad) proporciona información para conocer los grupos funcionales que integran la estructura molecular de cada variedad, esto permitió determinar que el obtenido se acercó más al de viscosidad media. En la figura 11 se muestran los espectros IR de cada variedad de quitosano, en los cuales: Figura 11. Espectros IR de Quitosano de viscosidad alta (QVA), viscosidad media (QVM) y viscosidad baja (QVB). 135 • Pueden observarse los picos característicos del enlace N-H para la banda de aminas primarias con vibración de flexión y una intensidad de absorción fuerte en 1592.01 cm-1. • En el caso del enlace C-N, se presentan picos para la banda de aminas alifáticas en 1024.11 cm-1 con una vibración de tensión y una intensidad de absorción de débil a media, • Para el enlace O-H se ensancha con picos para la banda de alcoholes entre 3360.15 cm-1 y 3342.02 cm-1 con una vibración de tensión y una intensidad de absorción fuerte, • El enlace C-O presenta un pico característico de la banda de los alcoholes primarios en 1058.42 cm-1 con una vibración de tensión y una intensidad de absorción media, • El enlace -C-H presenta un pico característico en 2871.32 cm-1 con una vibración de tensión y una intensidad de absorción media a fuerte, • Para el enlace –CH3 presenta un pico en 1374.24 cm-1 con una vibración de flexión y una intensidad de absorción media a fuerte, • El enlace C-N presenta un pico en 1313.12 cm-1 con una vibración de tensión y una intensidad de absorción débil a media, • El caso del enlace –CH2, presenta un pico en 1419.58 cm-1 con una vibración de flexión y una intensidad de absorción media a fuerte, en la banda del Alcohol secundario en 1149.81 cm-1, • Para el enlace C-C presenta un tipo de enlace conjugado en 1653.62 cm-1. Resultados de la dosis óptima del sulfato de aluminio como coagulante En la figura 12 se presenta la obtención de la dosis óptima vs turbidez residual del sulfato de aluminio, donde se observa siguiendo la gráfica del promedio de las corridas que se requiere una dosis de 160 mg/L. Si bien este coagulante da una buena eficiencia, requiere de un floculante. 136 Figura 12. (a) Obtención de la dosis de Al2(SO4)3. (b) Determinación de % de eficiencia. Resultados de la dosis óptima del quitosano como coagulante En la figura 13 se observan dos zonas de interés: una disminución de la turbidez residual con dosis prácticamente entre 5 y 5.5 mg/L, y una disminución con dosis superiores a 45 mg/L. La dosis de 5 mg/L alcanzó una eficiencia de remoción de la turbidez de alrededor del 32%, figura 14. Como se puede apreciar en la gráfica, con una dosis de 60 mg/L la turbidez residual continúo disminuyendo, por lo que fue necesario realizar pruebas con dosis mayores, como se presenta en la gráfica de la figura 12. Figura 13. Turbidez residual con quitosano como coagulante. 137 Figura 14. Eficiencia de remoción de turbidez vs dosis de coagulante. Con el objeto de estudiar mejor el intervalo de dosis donde se observa el punto de la figura 13, se realizaron pruebas con dosis menores, figura 15. Figura 15. Turbidez residual vs dosis de quitosano Figura 16. Eficiencia de remoción de turbidez vs dosis de quitosano. 138 De acuerdo a lo mostrado en la figura 15, la dosis óptima de quitosano resultó entre 5 y 5.2 mg/L, con lo cual se alcanzó una eficiencia de remoción de la turbidez del 28%. Para estudiar la segunda parte de la figura 12 fue necesario realizar pruebas con dosis mayores para encontrar la máxima eficiencia de remoción de turbidez con una mayor de dosis de coagulante, figuras 17 y 18. Figura 17. Turbidez residual vs dosis de quitosano. Figura 18. Eficiencia (%) de remoción de turbidez vs dosis de quitosano. En las figuras 17 y 18 se puede observar que la dosis óptima de quitosano es de 250 mg/L, con lo cual se alcanzó una eficiencia de remoción de la turbidez de alrededor del 90%. 139 Conclusiones Derivado de la determinación de la acidez superficial del quitosano respecto al sulfato de aluminio, se observó que este presentó menos acidez que el quitosano ya que este último tiene cinco iones H+ por cada monómero. Respecto al análisis de las gráficas presentadas en los resultados, se observó que el sulfato de aluminio como coagulante, genera mejor rendimiento, sin embargo para el proceso de floculación se necesita de un floculante, que normalmente es un polímero comercial sintético y de difícil degradación. En cuanto al quitosano, se determinó que el intervalo en el que se encuentra el pH óptimo para el proceso de coagulación–floculación fue de alrededor de 5. Esto se confirmó mediante una prueba de jarras, misma que se realizó al encontrar la dosis óptima para el quitosano, se observó al efectuar pruebas con dosis mayores para encontrar la máxima eficiencia de remoción de la turbidez con una mayor de dosis de coagulante, donde se encontró que la dosis óptima fue de 250 mg/L, con la cual se alcanzó una eficiencia de remoción de la turbidez alrededor del 90% y además de que este biopolímero actúa también como floculante, lo que es un ventaja sobre el sulfato de aluminio. Referencias [1] Bina, B.; Mehdinejad M.; Dalhammer, G.; Rajarao, G.; Nikaeen M.; Movahedian, H. (2010).Effectiveness of MoringaoleiferaCoagulant Protein as Natural Coagulant aid in Removal of Turbidity and Bacteria from Turbid Waters. World Academy of Science, Engineering and Technology 67. [2] Bragnerotto, J., Lizardi, J., Goycoolea, F. M., Argüelles-Monal, W., Desbrieres, J., Rinaudo, M. (2001). An infrered investigation in relation with chitin and chitosan characterization. Polymer. Vol.42, (3559 – 3580). [3] Crini, G. (2005). Recent developments in polysaccharide-based materials used as adsorbents in wastewater treatment. Prog. Polym. Sci. Vol.30, (38–70) [4] D.O.F, 1996. NOM-127-SSA1-1994, Salud ambiental, agua para uso y consumo humano-Límites permisibles de calidad y tratamientos a que debe someterse el agua para su potabilización. Disponible en: http://www.economia-noms.gob.mx/. [5] Fabris, R.; Chow, C.; Drikas, M. (2010). Evaluation of chitosan as a natural coagulant for drinking water treatment. Water Science & Technology (61.8). [6] Hernández, A. (1990). Depuración de aguas residuales. Cap 6, 369-394. Ed. Paraninfo, S. España. [7] Lárez, C. V., (2003). Algunos usos del quitosano en sistemas acuosos. Revista Iberoamericana de Polímeros. Vol.4(2), (91 – 109). 140 [8] Martínez G.S. (2008). Adsorción de Cu (II), Cd (II) Y Co (II) como contaminantes disueltos en sistemas acuosos mediante quitosano obtenido a partir de la Daphnia pulex, Tesis de Maestría en Ciencias e Ingeniería Ambientales. Universidad Autónoma MetropolitanaAzcapotzalco. México [9] Pacala A.;Vlaicu, I.; Radovan, C. (2009).Application of several aluminiumprehydrolysed coagulants in surface water treatment for potabilization.Environ. Eng. Manage. J. Vol.8 (6), (1371–1376) [10]Panizza, A. (2006). Evaluación de dos alternativas de tratamiento para lodos con sulfato de aluminio provenientes de la potabilización del agua. Tesis de Maestría en Ciencias e Ingeniería Ambientales. Universidad Autónoma Metropolitana- Azcapotzalco. México. [11]Panizza, A.; Aldama, A.; Chacalo, A.; Vaca, M.; Grabinsky, J.; Márquez, C.; Durán, C. (2008). Evaluación del compost elaborado a partir de lodos con alto contenido de sulfato de aluminio. Revista Latinoamericana de Recursos Naturales, Vol. 4 (3), 342-348. [12]Poumaye, N.; Mabingui, J.; Lutgen, P.; Bigan, M. (2012). Contribution to the clarification of surface water from the Moringaoleifera: Case M’Poko River to Bangui, Central African Republic. Chemical Engineering Research And Design Vol.9, (2346-2352. [13]Rinaudo, M. (2006). Chitin and chitosan: properties and applications. Progress in Polymer Science. Vol. 31, (603 – 632) [14]Rodríguez S.; Muñoz, R.; García, O.; Fernández, E. (2005). Empleo de un producto Coagulante Natural para Clarificar Agua.Revista CENIC Ciencias Químicas, Vol. 36, No. Especial, 2005. [15]Shahidi, F. y Abuzaytoun, R. (2005). Chitin, chitosan, and co-products: chemistry, production, applications, and health effects. Advances in Food and Nutrition Research. Vol., (49. 93 – 135). [16]Synowiecki, J., Al-Khateeb, N. A. (2003). Production, properties, and some new applications of chitin and its derivatives. Critical Reviews in Food Science and Nutrition. Vol. 43(2),.(145 – 171). [17]Zonoozi, M.; Moghaddam, M.; Arami, M. (2011). Study on the removal of acid dyes using chitosan as a natural coagulant/coagulant aid. Water Science & Technology, Vol. 9, (63.3). 141 Determinar el Grado de Degradación de un Suelo Agrícola Convencional en una Zona Aguacatera Mediante su Comparación con un Suelo Agrícola Orgánico y Otro con Vegetación Original Icela D. Barceló Quintal1, Yosinia Martínez Méndez1, Victor M. Cetina Alcalá2, Julisa García Albortante1, Mónica L. Salazar Peláez1 Área de Química y Fisicoquímica Ambiental, División de Ciencias Básicas e Ingeniería. 1 Universidad Autónoma Metropolitana–Azcapotzalco, Av. San Pablo 180, Col. Reinosa Tamaulipas, Azcapotzalco, México, D.F., C.P. 02200, Mexico. Colegio de Postgraduados (COLPOS), Campus Texcoco, Estado de México 2 [email protected],[email protected] RESUMEN La degradación del suelo, es el resultado de la combinación de varias causas, tales como las actividades agrícolas no adecuadas, la fragilidad de los ecosistemas, contaminación, urbanización, además de un clima variable y agresivo. En 1999 se estimó que 15% del territorio mexicano estaba degradado, mientras que 49% podía considerarse dentro del área de influencia a los procesos de degradación. Las principales causas de la degradación de los suelos en el país son la deforestación, el cambio de uso del suelo, el sobrepastoreo y las prácticas agrícolas ineficientes. En los últimos años, el estado de Michoacán ha mostrado un incremento en la conversión de bosques templados a huertos de aguacate, lo que ha tenido consecuencias importantes en las características físicas, químicas y biológicas de los suelos, ya que estos presentan un grado de degradación y pérdida de fertilidad edáfica debido a las prácticas de manejo inapropiadas, tales como la agricultura intensiva basada en el monocultivo, la agricultura de subsistencia que se practica en laderas o tierras frágiles, prácticas como la tumba, roza y quema, la deforestación, y el uso excesivo de maquinaria, fertilizantes y agroquímicos, siendo este último facilitan la vulnerabilidad de los cultivo. En este trabajo se presenta una evaluación a través del nitrógeno y carbono orgánico que presenta cada suelo, indicando el estado de la degradación a causa de las malas prácticas agrícolas que se realizan y el uso excesivo de agroquímicos de algunos suelos de los municipios que abarcan la zona aguacatera en el estado de Michoacán y que está afectando la producción 142 del aguacate, se utilizó como testigo un suelo con vegetación original y uno con manejo orgánico sin agroquímicos. Palabras clave: Aguacate, suelo agrícola tradicional, suelo orgánico, suelo forestal ABSTRACT Land degradation is the result of a combination of several causes, such as inadequate agricultural activities, the fragility of ecosystems, pollution, urbanization, considering the variations and aggressive climate. In 1999 it presented one 15% of Mexico’s territory degraded, while 49% could be considered within the zone in degradation process. The main causes of land degradation in the country are deforestation, changing land use, overgrazing and inefficient agricultural practices. In recent years, Michoacán has shown an increase in the conversion of its temperate forests at avocado orchards, which has had a significant impact on the physical, chemical and biological soil characteristics, as these have a degree of degradation and loss of fertility due to inappropriate practices, such as intensive agriculture based on monoculture management, subsistence farming is practiced on slopes and fragile soils, practices such as slash and burn, deforestation, and excessive use of machinery, and agrochemicals, the latter facilitated the vulnerability of crop. In this paper presents an evaluation through the nitrogen and organic carbon having each soil, indicating the state of degradation due to poor agricultural practices carried out and the excessive use of agrochemicals in some soils of the municipalities that comprise the area of avocado producing in the state of Michoacán and that is affecting its production. Was used as control in the investigation, one soil with native vegetation and one organic soil without agrochemicals Keywords: Avocado, traditional agricultural soil, organic soil, forest soil INTRODUCCIÓN En la década de los noventa se realizó una evaluación las actividades humanas que degradan el suelo en México y se observó que había un problema grave en el que existía un total de la degradación de los suelos en el país que abarcaba cerca del 64%. La degradación causada por el hombre reveló un total del 45.2% de los suelos del país y que nivel de degradación predominante iba de ligero a moderado. Una de las principales causas de degradación que se identificaron es el cambio de uso del suelo para fines 143 agrícolas (17.5%). Según Peter, et al., (2007), la agricultura intensiva basada en el monocultivo, uso excesivo de maquinaria, fertilizantes y agroquímicos, la deforestación, agricultura de subsistencia, además dela tumba, roza y quema, donde se pierden nutrientes en lo suelos, es decir el mal manejo de la agricultura en el país, figura 1. Figura 1. (a) Agricultura de subsistencia y monocultivo, (b) Tumba, (c) Roza y quema, (d) Usos excesivo de fertilizantes. Según Cottenie, (1984), así como estudios de Cairo et al, (2008), bajo actividades antropogénicas pierden un 50 % de su productividad, asimismo el deterioro de las propiedades físicas, químicas y biológicas de los suelos, la disminución de los rendimientos agrícolas y más importante aún el deterioro del medio ambiente, es una situación que cada día se hace más evidente, muchos estudios preocupados por el alto grado de deterioro, como San Martín,1995; Restrepo, 1995; Arteaga et al., 1995; Rosset, 1999; García, 2000, León et al., 2005, comentan que la reducción drástica de los nutrientes, materia orgánica y disminución de la actividad de los microorganismos del suelo y la biomasa vegetal, se debe al uso inadecuado de los suelos y a su sobreexplotación, lo que conduce a una pérdida importante de los suelos útiles en México. En 1997, surge la Red Mexicana de Esfuerzos contra la Desertificación y la Degradación de los Recursos Naturales (RIOD-Méx), cuyo objetivo fue el preparar un Mapa de Evaluación de la Degradación del Suelo (SEMARNAT 144 y COLPOS, 2003). Por otro lado en el año 2001, se evaluó la degradación de los suelos causada por el hombre en la República Mexicana utilizando la metodología ASSOD (Assessment of the Status of Human-induced Soil Degradation, donde se indica que cada minuto se pierden 23 hectáreas de tierra productiva a causa de la degradación del suelo, lo que en un año equivale a una pérdida de 12 millones de hectáreas y más del 50% de las tierras agrícolas se encuentran en situación de moderada a severamente degradadas. En 1999 siguiendo la metodología GLASOD (Global Assessment of Soil Degradation) se preparó nuevamente un mapa, donde indican que no solo la erosión hídrica o eólica, sino incluyen la degradación por procesos químicos, físicos y biológicos, (SARH, 1994; SEMARNAT, 1996; Bocco et al, 2001; Mas, 2005; INEGI,2006; Chávez, et al., 2009; APROAM, 2011), también incluye el cambio del uso del suelo en terrenos forestales de manera irregular, que son además causas que modifican las propiedades de los ecosistemas. Un típico caso es el de Michoacán (Alcalá et al., 2001) donde las malas prácticas agrícolas y el uso excesivo de agroquímicos degradan y contaminan los suelos de las huertas aguacateras, en el que existe un incremento en la conversión de bosques a huertos de aguacate, lo que tiene consecuencia en la modificación de las características físicas, químicas y biológicas de estos suelos, El cultivo del aguacate genera crecimiento económico y empleos, sobre la franja aguacatera michoacana (FAM), (APEAM, 2011; APROAM, 2011, FAO, 1994), figura 2 Figura 2. Se presenta en el mapa del Estado deMichoacán la franja aguacatera (FAM). 145 Metodología Se realizaron muestreos en tres tipos de suelos, suelos forestales o de vegetación original, suelos agrícolas convencionales o tradicionales y suelos con agricultura orgánica, en los sitios Ario, Los Reyes, Nuevo Parangaricutiro, Peribán, Tancítaro, Tingüindín, Tocumbo, Uruapan y Ziracuaretiro. Suelos forestales, suelos agrícolas con manejo tradicional y suelos orgánicos, en estos últimos no se utilizan agroquímicos. La zona presenta un clima A w1 (w), la temperatura 20-22ºC, con una precipitación anual 800-1200mm, humedad relativa 70-90%, 1-4 granizadas anuales y de 0-10 heladas anuales. Son suelos de naturaleza andosol (92,7%), luvisol (5,8%), cambisol (0,63%), acrisol (0,44%), vertisol (0,43%). Ver figura 3 Figura 3. Mapa del Estado de Michoacán y la franja aguacatera (FAM). Muestreo en suelos forestales o de vegetación original Estos suelos que no han sido alterados por la agricultura, son suelos boscosos con vegetación forestal, se muestrearon en nueve municipios a una profundidad de 0 a 40 cm de profundidad, sirviendo como patrón y denominándose TRATAMIENTO 1 (T1), en la figura 4 se presenta un caso. Figura 4. Suelos con vegetación forestal (T1). 146 Muestreo en suelos con agricultura convencional o tradicional Se muestrearon suelos con agricultura tradicional en los mismos municipios que en el caso anterios, donde se utilizan agroquímicos para el cultivo de aguacate y se ha sobreexplotado con el tiempo. Estos suelos se muestrearon también a una profundidad de 0 a 40 cm. Este sistema de uso de la tierra con agroquímicos, se denominó TRATAMIENTO 2 (T2), ver figura 5. Figura 5. Huertos de aguacate con manejo convencional (T2). Muestreo en suelos con agricultura orgánica Finalmente con las mismas condiciones de muestreo se tomaron muestras en el suelos orgánicos, que se están también trabajando en los municipios que conforman la llamada zona aguacatera, en donde no se utilizan agroquímicos, sino composta mezclada con el suelo. Se denominó TRATAMIENTO 3 (T3), en la figura 6, se presenta un caso de muestreo. 147 Figura 6. Huertos de aguacate con manejo orgánico,TRATAMIENTO 3 (T3). Para llevar un mejor control del trabajo de muestreo de los tres tipos de suelos, se construyó una malla imaginaria sobre los municipios como se muestra en la figura 7. Los puntos rojos son los suelos destinados al cultivo de aguacate, tanto con agricultura convencional, como orgánica donde en cada municipio de la franja aguacatera también existe bosque que no ha sido alterado y fueron los sitios de muestreo en general de los tres tipos de suelo. Se observa que son nueve municipios de los más importantes económicamente que se encuentran en la franja aguacatera. Figura 7. Malla para el control del muestreo en los municipios aguacateros, los puntos rojos indican los sitios de muestreo de los tres tipos de suelo. Teniendo lo anterior se continuó con un muestreo aleatorio estratificado aleatorio considerando 208 sub-muestras para las huertas de aguacate del suelo T2, 63 sub-muestras para las huertas de aguacate del suelo T3 y 102 sub-muestras para las áreas con vegetación forestal, suelo T1. Este muestreo aleatorio consistió en separar las áreas de muestreo en estratos que presenten cierta homogeneidad en sus características topográficas y edáficas, una vez teniendo la identificación de estratos, dentro de cada uno de estos se realizó un muestreo aleatorio simple. En la figura 8, se puede observar 148 un esquema que representa una parcela con diferentes estratos (pendiente, ondulado y plano), así como se almacenaron las muestras iniciales que se denominaran sub-muestras. Figura 8. Se presentan las muestras y un plano para indicar las zonas de muestreo y las pendientes de la zona. Primero cada conjunto de sub-muestras de suelo por cada tratamiento (T1, T2 y T3) se mezclaron con cada suelo equivalente por municipio (9 municipios en total, formando 9 muestras compuestas primarias), posteriormente se mezclaron cada conjunto de tratamientos/municipio entre si, formando una nueva mezcla compuesta para cada zona de estudio mediante la técnica de cuarteos diagonales, en la figura 9 se muestra como se efectuó para cada tratamiento el cuarteo para formar las muestras compuestas finales por zona = 1 kg 1 k g Figura 9. Técnica de cuarteo para preparar 1 kilo de muestras compuestas de varios sitios de cada suelo. Se realizaron las siguientes pruebas, para cada muestra compuesta por zona de cada tipo de suelo: pH, conductividad eléctrica, potencial redox, utilizando un potenciómetro Hannah instruments HI 98150. El color del suelo es una propiedad que refleja la composición, así como las condiciones pasadas y presentes de óxido-reducción del suelo. FAO, para ello se determinó in situ el color de los tres tipos de suelo (T1,T2 y T3), 149 bajo condiciones uniformes de humedad, los colores se determinaron sin la incidencia directa de los rayos solares y mediante la comparación de un agregado (ped) recientemente quebrado para cada tipo de suelo (vegetación convencional, tr, usando las notaciones para matiz, valor y croma como se da en la Carta o Tabla de Colores de Suelo Munsell (Munsell, 1975). La determinación del color del suelo se realizó in situ, bajo condiciones físicas uniformes y de humedad, los colores se determinaron sin la incidencia directa de los rayos solares y mediante la comparación de un agregado (ped) recientemente quebrado, usando las notaciones para matiz, valor y croma como se da en la Tabla de Munsell, como se indica en la figura 10. Figura 10. Tabla de colores de Munsell y forma de determinar del color en los suelos. Para la determinación de nitrógeno total de cada muestra compuesta por zona, se utilizó la técnica de Kjeldahl. Se obtuvo relación C/N con el fin de evaluar la calidad de cada suelo, determinándose previamente el carbono orgánico, el inorgánico y el total con un equipo Analitykal Jena. Se preparó un diseño de experimentos, donde se presenta en la figura 11 el esquema. 150 Diseño de experimentos Bloques al azar 3 tratamientos Tratamiento Suelo 3 repeticiones TI T2 T3 Suelo Agricultura convencional Agricultura orgánica Forestal Prueba de Dunnett α= 0.05, Comparando el tratamiento uno con respecto a los otros dos Interpretacion de resultados T2 T3 T2 T1 Agricultura convencional Agricultura orgánica Agricultura convencional Sin agricultura (suelo forestal) SAS 9. 1.3 Figura 11. Esquema seguido mediante un diseño de experimentos. En el siguiente diagrama, figura 12, se presenta la metodología para la valoración de los tres tipos de suelos, para la granulometría se utilizaron cedazos Tyler y por la técnica de Bouyoucus el tipo de suelo a través del tríangulo de texturas, el carbono orgánico con un analizador de carbono Analityca Jena y el nitrógeno por el método de Kjeldahl, como se indicó anteriormente: 151 Muestreo de los tres suelos Granulometría de cada suelo Determinación de carbono orgánico Determinación de nitrógeno orgánico Determinación de la calidad de cada suelo mediante la relación C/N Figura 11. Metodología seguida para valorar cada tipo de suelo. RESULTADOS Respecto al pH y la conductividad se obtuvieron los siguientes valores como se indica en la tabla 1. Tabla 1. Resultados en cada suelo del pH y la Conductividad eléctrica. Conductividad Ms/Cm T3 T2 T1 0 50 100 150 200 250 R3 T1 59 T2 134 T3 204 R2 58 129 198 R1 64 117 201 Se puede observar que el suelo forestal (T1) presentó la mayor acidez y el suelo orgánico la menor muy cercano a la neutralidad lo cual se debe a su 152 contenido menor de carbono orgánico. En la tabla 2 se representa la variación del potencial redox en cada suelo, donde el suelo forestal (T1) presentó el mayor valor del potencial redox lo que significa que mayor oxigenación en el mismo. El suelo orgánico presentó el menor potencial redox con menor oxigenación, sin embargo los tres presentaron potenciales positivos, que significa una oxigenación creado por las lombrices presentes que permiten en sus excavaciones esta oxigenación. Tabla 2. Valores del potencial redox en los tres suelos. Tratamiento 1 Suelo forestal Tratamiento 2A. convencional Tratamiento 3 A. Orgánica T3 T2 T1 200 210 220 230 240 R3 T1 238.7 T2 228.8 T3 217.8 R2 235.7 228.9 217.3 R1 236.4 226.9 216.9 250 POTENCIAL REDOX (mV) EN SUELOS Considerando el triángulo de texturas, la clasificación de cada suelo resultó: • T1(Forestal): Franco-arcilloso, debido a la presencia de más material limoso • T2(Convencional): Arcilloso arenoso, este suelo resultó con más arcilla • T3(orgánico): Franco- arcilloso-arenoso, presentó los tres casos con la diferencia del T2 es su contenido de más carbono. Por otro lado si se toma en cuenta la consideración de Moreno, 1978, ver tabla 3, se puede evaluar cada suelo como: 153 Tabla 3. Relación de la calidad de un suelo en función de su contenido en nitrógeno. • T1 (Forestal): se determinó que su contenido en % de nitrógeno orgánico (NO) fue de 0.0304, si se considera la tabla 3, resulta un suelo pobre en nitrógeno. • T2 (Convencional): su valor en % de nitrógeno orgánico fue de 0.0588, considerado menos pobre que el anterior, debido al uso (NO) de fertilizantes nitrogenados. • T3 (Orgánico): tuvo un valor en % de NO de 0.1058, en el cual se ha utilizado nitrógeno que proviene de la composta, donde esta a su vez contiene una cantidad de excreta de ganado. En la tabla 4 se presentan los valores de nitrógeno orgánico determinado en cada suelo, a su vez la cantidad de carbono medido como carbono orgánico (CO) en el analizador de carbono indicado en la metodología, se puede observar que: • T1(Forestal) presentó un % de CO de 5.3, lo cual indica una escasez de material húmico • T2(Convencional) presentó un ligero valor más alto que el anterior sin embargo se observa que por su explotación agrícola la presencia de material húmico también es escaso. • T3(Orgánico), este presentó alto valor de CO, esto es justificable por el uso del compost que proviene del material composteado. Pasando a la relación C/N, que normalmente se maneja en los trabajos de suelo en la misma tabla 4 se dan los diferentes valores, así: 154 • En T1(Forestal), se obtuvo una relación de 174.457 que es un valor aceptable a pesar de su pobreza en nitrógeno. • En T2(Convencional), el valor obtenido fue de 95.238, que indica que aún el suelo puede ser explotado un poco más pero pudiera estar en riesgo de ser empobrecido de seguirse usando cada vez más fertilizantes. • En T3(Orgánico), el valor que se determinó fue el más alto ya que su contenido en CO y NO, lo cual demuestra que la calidad es buena, pero es recomendable cuanto tiempo soportaría la explotación aguacatera y cada cuando se agregaría el material proveniente de un composteo. Tabla 4. Resultados en los tres suelos de la región aguacatera de Michoacán. Suelos %C %N C/N T1 5.3 0.0304 174.457 T2 5.6 0.0588 95.238 T3 15.5 0.1058 146.447 Conclusiones Se observó que en general los suelos forestales (T1) son muy pobres en nitrógeno, los de agricultura tradicional o convencional (T2) resultaron pobres en este elemento y los orgánicos (T3) fueron considerados término medio. Esto se puede explicar mediante la consideración de que las plantas con mucho follaje como es el caso del aguacate requieren cantidades elevadas de nitrógeno que hacen que disminuya este del suelo y en el caso de la agricultura tradicional utilizan un uso inmoderado de material nitrogenado a través de agroquímicos, esto genera una pobreza en el suelo de este elemento. En cuanto a la relación C/N el forestal y el orgánico resultaron de mejor calidad, es decir presentan un material húmico mayor Referencias [1] Alcalá de Jesús, M., Ortiz Solorio C.A., Gutiérrez Castorena M. del C, (2001), clasificación de los suelos de la meseta tarasca, Michoacán, Terra volumen 19 núm. 3. [2] APEAM, Asociación de Productores y Empacadores Exportadores de Aguacate de Michoacán (2011) Sistema de Información Meteorológica. Disponible en www.apeamclima.org (Febrero 2012). 155 [3] Arteaga, O.; L. Ojeda.; Hernández, C.; Brunet, E. & Espinosa, W (1995): Agricultura orgánica en Cuba. Estudios Agrarios. Revista de la Procuraduría Agraria 1: 154-156 pp. [4] Asociación Agrícola de Productores de Aguacate en Michoacán APROAM (2011). Boletin Aguacatero # 63. [5] Bocco, G.; Velázquez, A. & Torres, A. (2001). Comunidades indígenas y manejo de recursos naturales: Un caso de investigación participativa en México. Interciencia 25:9-19 [6] Cairo, P.; Vargas, S.; Díaz, v.; Nodal, E.; Torres, P.; Jiménez R.; Davila, A.; Rodriguez, O. & Rodriguez A. (2008) Influencia del manejo de los suelos pardos sialíticos sobre sus propiedades físicas, químicas y biológicas bajo condiciones de producción Ganadera y Agrícola. II taller nacional de fertilidad de los suelos de la ganadería. Instituto de Ciencia Animal. La Habana, Cuba. [7] Chávez, L.; Alcantar, R.; Bustos, T.; & Contreras, J.; (2009). Expansión del cultivo del aguacate y deforestación en Michoacán. Ponencia. Conferencia de Usuarios de SIGSA ESRI. México, D.F., 27-29 de agosto de 2008. [8] Cottenie, A. 1984. Los análisis de suelos y plantas como base para formular recomendaciones sobre fertilizantes. Boletín de suelos de la FAO 38/2. [9] García, S. (2000). Fisiología reproductiva del aguacate. Pp. 57 - 83. In: Téliz, D. (Ed.). El Aguacate y su Manejo Integrado. Ediciones Mundi-Prensa, México [10]INEGI.(2006). Carta de Uso del Suelo y Vegetación. Serie I. Serie II. Serie III. México [11]León, G.; Hernández, C.; Peña, F.; Valentí, M.; & Bernal, Y. (2005) Efectos de los sistemas de manejo sobre el estado físico de un suelo pardo grisáceo (Inseptisol) del Escambray. Centro Agrícola, año 32, no. 1. [12]Mas, P. (2005). Características de crecimiento de seis especies mexicanas de pino con gran futuro para reforestaciones artificiales. En: Memoria de la Primera Reunión Nacional de Plantaciones Forestales. Dirección General de Investigación y Capacitación Forestal 1970. SARH. México. D. F. pp: 27-72 [13]Moreno, D. (1978) Clasificación de pH del suelo, contenido de sales y nutrimentos asimilables. INIA, SARH. México, D.F. 22 p. [14]Munsell Color Co. (1980). Munsell book of color. Macbeth, a Division of Kollmorgen Corp., Baltimore, MD [15]Organización de la Naciones Unidas para la Agricultura y la Alimentación FAO (1994), El estado mundial de la Agricultura y la Alimentación Roma Italia. Colección FAO: Agricultura No 27 ISBN 92-5-303550-1 [16]Peter E.V. Charman and Brian W. Murphy (2007) Soils: their properties and management / edited by Peter E.V. Charman and Brian W. Murphy. 3rd Ed. 461 pp., Oxford University Press. [17]Restrepo, J. (1995): Notas sobre agricultura orgánica y una crítica del modelo convencional. Agricultura Orgánica año 1, no. 2, 23 pp, [18]Rosset, P. M. (1999): La crisis de la agricultura convencional, la sustitución de insumos y el enfoque agroecológico. Agroecología y Agricultura Sostenible. Módulo 1. CEAS, UNAH, ACTAF, pp.2-12. 156 [19]San Martín, J. (1995): Agroforesteria y cultura Andina. En Bosque y desarrollo, no. 14, Perú, nov., pp. 34-37. [20]SARH. (1994) Inventario Nacional Forestal Periódico. Memoria Nacional. Subs Forestal y de Fauna Silvestre. México 81pp. [21]SEMARNAT y Colegio de Postgraduados C.P. (2003). Evaluación de la Degradación de los Suelos Causada por el Hombre en la República Mexicana, escala 1:250 000. Memoria Nacional 2001-2002. México. [22]SEMARNAT (1996) Convención, lucha contra la desertificación Programa de las Naciones Unidas para el Medio Ambiente (PNUMA). 157 Estrategia de Aprendizaje Basado en Problemas para el Laboratorio de Ingeniería I de la Licenciatura en Ingeniería Biológica Maribel Hernández Guerrero, Alejandra García Franco Investigación Educativa Departamento de Procesos y Tecnología. División de Ciencias Naturales e Ingeniería. Universidad Autónoma Metropolitana Unidad Cuajimalpa. Av. Vasco de Quiroga 4871, Colonia Santa Fe Cuajimalpa, Delegación Cuajimalpa de .Morelos, México, Distrito Federal, C.P. 05300. México. [email protected], [email protected] Resumen En este trabajo se presenta un estudio exploratorio de diseño e implementación de un enfoque de aprendizaje basado en problemas para la UEA de Laboratorio de Ingeniería I de la licenciatura en Ingeniería Biológica. Particularmente se planteó a los estudiantes la necesidad de diseñar y construir un prototipo de tanque de suministro de agua para lo cual se requirió la aplicación de conocimientos de mecánica de fluidos. Se presentan el marco conceptual y la forma en la que se implementó la estrategia la cual consistió en plantear el problema, guiar a los alumnos hacia la solución, evaluar mediante una presentación pública, auto y co-evaluaciones y la aplicación de un cuestionario para recopilar las reflexiones de los alumnos. Se recogen también las reflexiones de la profesora (primera autora) y algunos comentarios de los estudiantes que permiten dar cuenta de la percepción en la efectividad de la implementación de la estrategia y de aspectos que requieren mejorarse. Palabras clave: laboratorio de ingeniería, ingeniería biológica, mecánica de fluidos, heurística de escritura, desarrollo de proyectos. Abstract This work presents the results from the design and implementation of an exploratory study of a problem based learning approach for the Engineering Laboratory I of the major of Biological Engineering. The problem consisted in the design and construction of a prototype of water tank and it required the use of concepts from fluid mechanics. The work presents the conceptual framework and the implementation strategy which consisting on stating the problem, guiding the students towards the solution, evaluation and grading 158 through a public presentation, auto and co-evaluation of team work and a survey to recover the impressions of the students. The impressions of the teacher (first author) are also considered together with comments from the students to highlight the efficiency of the implementation of the strategy and the aspects to improve. Key words: Engineering lab, biological engineering, fluid mechanics, writing heuristic, project development. Introducción El Laboratorio de Ingeniería I es una unidad de enseñanza aprendizaje (UEA) de la licenciatura en Ingeniería Biológica que forma parte del bloque de formación profesional. Se encuentra situada en el octavo trimestre y se desarrolla en sesiones semanales prácticas de 5 horas. Con base en el diseño flexible de la licenciatura en Ingeniería Biológica, la UEA de laboratorio de Ingeniería I no tiene seriación. Sin embargo, es requisito una autorización para que el alumno pueda cursarla. La autorización se otorga a los alumnos que hayan cursado las UEA: Balance de Energía, Mecánica de fluidos, Transferencia de Calor y Masa I. Usualmente, la UEA se imparte de manera ‘tradicional’ mediante la realización de prácticas de laboratorio que, en la mayoría de las ocasiones, consisten en un protocolo en el que los estudiantes siguen una ‘receta’ en la que ni los objetivos, ni la metodología, ni los resultados están determinados por ellos. Como ya se ha documentado ampliamente, (Mills y Treagust, 2003) la realización de estas experiencias de laboratorio no promueve el desarrollo de habilidades requeridas por los científicos e ingenieros, y promueven una versión distorsionada de las ciencias y las ingenierías. Desde sus inicios, la UAM Cuajimalpa se basa en un modelo educativo considerado innovador puesto que, de acuerdo con un enfoque constructivista, pone en el centro del proceso de enseñanza-aprendizaje al estudiante. Así, en el trimestre 14-I se decidió modificar la forma en la que se imparte el Laboratorio de Ingeniería I y se planearon, diseñaron y evaluaron proyectos de laboratorio en concordancia con el modelo educativo. En este trabajo describimos un proyecto en el que los estudiantes debían diseñar y construir un prototipo de tanque de suministro de agua con tres diferentes tipos de tuberías: recta, con reducción de diámetro y doblada en 90º. La actividad se planteó tomando como base la lectura de una tesis de maestría en educación ambiental (Lim, 2010). La evaluación de la activi159 dad se realizó de manera objetiva a través de una heurística de escritura (a diferencia de los laboratorios convencionales en donde se evalúa a partir de reportes de laboratorio) calificada mediante una rúbrica, exposiciones y auto y co-evaluaciones del trabajo en equipo. En este trabajo describimos la forma en la que se realizó el proyecto y se recogen las opiniones de los alumnos, así como las reflexiones de la profesora del curso respecto al desarrollo del proyecto. Este trabajo muestra una primera aproximación a la transformación de las prácticas comunes de enseñanza en el laboratorio y se sitúa en una perspectiva de investigación-acción (Latorre, 2003), en la que una profesora decide emprender y documentar acciones para mejorar su práctica docente. Antecedentes El aprendizaje basado en problemas (ABP) surgió a finales de la década de los sesenta del siglo pasado en la Universidad de McMasters en Canadá en donde se busca cambiar de la enseñanza al aprendizaje basado en experiencias prácticas. Desde entonces el ABP se ha posicionado como una estrategia educativa en distintos campos disciplinares en todo el mundo (Overton, Byers y Seery, 2009). En el campo de la ingeniería desde principios de la década de los ochenta del siglo anterior, se han hecho estudios de corte cualitativo que describen aproximaciones a la enseñanza basada en problemas y proyectos, y también estudios cuantitativos que buscan determinar las ventajas de esta aproximación en la formación de los ingenieros (Faland y Frenay, 2006). Estos últimos han mostrado que cuando los estudiantes aprenden en un enfoque como el ABP no necesariamente desarrollan un mayor nivel de conocimientos. Sin embargo, sí logran un mayor desarrollo de habilidades al compararlos con sus pares que estudian en un enfoque más tradicional. Inscrito en una perspectiva constructivista, el aprendizaje basado en problemas permite a los estudiantes poner en juego una serie de habilidades y conocimiento integrándolos en la resolución de un problema y pensando en generar un producto específico. Este producto tiene parámetros evaluables y aunque el ABP tiene muchas versiones y formas de implementarse sus características más fundamentales son (Mills y Treagust, 2003, Overton, Byers y Seery, 2009; Du, de Graaff y Kolmos, 2009): • Está centrado en el estudiante. • Se realiza de manera colaborativa en pequeños grupos. 160 • Los maestros actúan como facilitadores. • Los problemas son el foco y estímulo para el aprendizaje. • Los problemas son vehículos para el desarrollo de las habilidades de solución. • Se adquiere nueva información a través del aprendizaje auto dirigido. Utilizando este enfoque, se espera que los estudiantes sean más capaces de pensar críticamente y de reconocer y resolver problemas complejos del mundo real encontrando y evaluando recursos, a la vez que demuestran habilidades de comunicación y usan el contenido y las habilidades intelectuales para aprender para la vida. que han adquirido en la universidad Objetivos Diseñar e implementar una experiencia de aprendizaje bajo el enfoque de ABP en el laboratorio de Ingeniería I de la Licenciatura en Ingeniería Biológica. Explorar las percepciones de los estudiantes sobre la efectividad de la estrategia y hacer una reflexión docente sobre las ventajas de esta forma de trabajo en el laboratorio. Metodología El problema que presentamos surgió de compartir con los estudiantes una tesis de Ingeniería Ambiental (Lim, 2010) en la que se discute la necesidad de desarrollar experimentos y prototipos de laboratorio para realizar prácticas de mecánica de fluidos en las dos principales universidades de Timor Oriental en el sureste asiático. La falta de clases prácticas en dichas universidades se ve limitada por el presupuesto económico de la Universidad y la poca disponibilidad de materiales en el país. En la tesis se plantea el desarrollo de dos prototipos para realizar experimentos de mecánica de fluidos y percolación con los cuales se pretende que los alumnos, además de reforzar conceptos teóricos, desarrollen conocimientos prácticos en el área de agua y sanitización. Debido a ello, se decidió tomar el estudio de Lim en la parte de mecánica de fluidos para que los alumnos pudieran desarrollar un prototipo cubriendo los dos primeros temas del contenido del curso de Laboratorio de Ingeniería I: propiedades mecánicas de fluidos y movimiento de fluidos. Al inicio de 161 la sesión se explicó la actividad que consistía en desarrollar un prototipo de suministro de agua a escala laboratorio que permitiera estudiar el flujo de agua en tuberías con 3 variantes: tubería recta, tubería con reducción de diámetro y tubería doblada en 90º (en “U”) (Figura1). El prototipo debería ser construido con materiales económicos y accesibles. Se proporcionó la tesis (en inglés) como base para el diseño del prototipo. Los alumnos, integrados en tres equipos de trabajo, tuvieron dos sesiones para hacer una lluvia de ideas, adquirir materiales, ensamblar y probar físicamente el prototipo. Se brindó asesoría a los alumnos dentro del horario de la UEA. La referencia de la tesis de Lim permitió a los estudiantes tener datos comparativos de flujo de agua y de ventajas y desventajas de cada uno de los prototipos. Para la presentación de resultados, se solicitó a los alumnos presentar sus datos experimentales comparando la velocidad de flujo en cada tipo de tubería tomando en cuenta pérdidas por fricción en tuberías, válvulas y conexiones aplicando el principio de Bernoulli, diagrama de Moody y el número de Reynolds para determinar si el flujo obtenido era laminar o turbulento. Además, se pidió a los alumnos listar los materiales utilizados, calcular costos de su prototipo así como documentar el proceso de ensamble y pruebas con el prototipo. Para la evaluación de la actividad, los alumnos hicieron una presentación de su prototipo ante la profesora y su grupo, así como frente a dos profesionales externos a la clase quienes fungieron como observadores y dieron su opinión y crítica constructiva a los alumnos. De igual manera, se solicitó la entrega de una heurística de escritura (Greenbow y Hand, 2005) que fue calificada con una rúbrica previamente compartida con los estudiantes. En dicha rúbrica se calificaron 6 puntos: planteamiento del problema (20 puntos), introducción (10 puntos), método (5 puntos), observaciones y evidencias (calidad y presentación 20 puntos), análisis (30 puntos) y conclusiones (15 puntos). También se pidió a los estudiantes que evaluaran su trabajo en equipo y coevaluaran el desempeño de sus compañeros. Las evaluaciones consideraron un promedio de calificaciones de la participación y aporte general, la parte experimental y la puntualidad así como un apartado de comentarios generales. Ocho semanas después de terminado el trabajo, se pidió a siete de los dieciocho estudiantes del curso que respondieran un cuestionario con siete preguntas abiertas en las que describían lo que ellos consideraban los aspectos más importantes de la experiencia de aprendizaje y lo comparaban con 162 sus experiencias en UEA de laboratorio más tradicionales, como en las que han participado a lo largo de su formación en la licenciatura. Las preguntas del cuestionario consideraron lo siguiente: • Percepción de la experiencia de los alumnos durante el proyecto. • Comparación de si la participación de los miembros del equipo fue mejor, igual o menor que comparada con lo observado en prácticas tradicionales. • Dada la oportunidad, la posibilidad y razones de preferencia de elección de trabajo por proyectos o de manera tradicional. • Preferencia para reportar resultados mediante una heurística o mediante un reporte de laboratorio tradicional. • La percepción de los alumnos acerca de lo que consideraron más importante y aprendido durante los proyectos. • Sugerencias para la actividad. La metodología de este trabajo se puede ubicar desde una perspectiva cualitativa de investigación-acción que busca contribuir en la documentación de estudios de caso con detalle (Du, de Graaff y Kolmos, 2009). Lo que aquí presentamos es la fase descriptiva y exploratoria del estudio. En una fase posterior se planea estudiar la forma en la que estas estrategias impactan el aprendizaje de los estudiantes tanto en lo conceptual, como en el desarrollo de habilidades. Resultados y Discusión Desarrollo de los prototipos Los alumnos de los tres equipos lograron diseñar prototipos diferentes con materiales económicos y accesibles con un costo variable entre $686 y $208. Un equipo integró en su prototipo las tres tuberías solicitadas, mientras que los otros dos prototipos fueron diseñados con tuberías intercambiables. Todos los equipos lograron reafirmar conocimientos de mecánica de fluídos al realizar cálculos de flujo en tuberías y caídas de presión. Se calcularon las diferentes velocidades de flujo para cada tubería tomando en cuenta el área de la tubería y pérdidas en tubería, válvulas y conexiones calculadas a partir del Principio de Bernoulli, factores de fricción (diagrama de Moody) y el tipo de flujo (laminar o turbulento) de acuerdo al número de Reynolds. Finalmente, se comparó el flujo en cada una de las tuberías. Durante las asesorías y la evaluación del curso se apreció una muy activa 163 participación de todos los alumnos. A diferencia de otros cursos, en donde se logra distinguir la imagen de un líder, en esta actividad la participación de todos los miembros del equipo fue equitativa. Las decisiones para el diseño se basaron en las opiniones de todos los miembros del equipo y, en algunos casos, en tablas de decisión en donde se le dio peso a factores de diseño como durabilidad, practicidad, estética, costo y disponibilidad de materiales. Durante la exposición de resultados por parte de los alumnos se evidenció, a través del dominio del tema, el uso de conocimientos de UEA previas como mecánica de fluidos, cálculo diferencial, taller de matemáticas e introducción al pensamiento matemático. Todos los alumnos mostraron seguridad al relatar cómo habían llegado a la solución del problema planteado y al hablar de los fundamentos teóricos que respaldaron su diseño y sus cálculos. En general, se logró ver a los alumnos satisfechos de haber resuelto una problemática. A diferencia de otros cursos, al tener dos sesiones libres para el desarrollo de la actividad, se pudo observar que aun cuando la tesis (literatura de base para el diseño) proporcionada estaba redactada en un idioma extranjero, los alumnos tomaron el material con naturalidad. En otros cursos, los alumnos han expresado cierta dificultad o falta de tiempo para manejar literatura en inglés. A diferencia de las presentaciones orales, la escritura de la heurística fue difícil para los alumnos al ser una comunicación de resultados más informal, ya que por lo general en los laboratorios se les solicita escribir reportes más estructurados. La mayor dificultad se encontró en el planteamiento del objetivo del problema que habían resuelto y en general en la expresión escrita de sus resultados. Con base en la primera heurística redactada, se modificó la estructura hasta que los alumnos comprendieron lo que se solicitaba. Después de dicha modificación, la estructura de la heurística solicitada fue muy similar a la de un reporte clásico de laboratorio. Figura 1. Prototipos del tanque de suministro de agua Opiniones de los estudiantes 164 Opiniones de los estudiantes 8 semanas después de terminado el trimestre, pedimos a siete de los estudiantes que cursaron la UEA contestaran un cuestionario de siete preguntas abiertas sobre su experiencia con el diseño del tanque de agua. A continuación resaltamos algunos aspectos relevantes surgidos a partir de las reflexiones de los estudiantes: Algunos de los estudiantes reconocen que participar en este proyecto les permitió desarrollar sus capacidades genéricas que son fundamentales en el desarrollo de las y los ingenieros. En este sentido, algunas de las respuestas de los estudiantes fueron: “Fomenta un pensamiento crítico y amplio” “Aprendí que siempre hay que ser flexible en tu pensamiento, cada persona se acerca a los temas desde su propio enfoque” “La capacidad de intercambiar ideas mejoró y nos permitió explotar distintas habilidades que poseemos y no siempre puedes poner en práctica” “Lo que más aprendí fue organización, comunicación, tolerancia a nuevas ideas y diferentes métodos para llegar a un mismo fin” “… ser flexible en tu pensamiento, cada persona se acerca a los temas desde su propio enfoque” Algunos de los estudiantes reconocieron que el planteamiento de objetivos resultó particularmente difícil, lo cual concuerda con el relato de la profesora y coincide con lo que se reporta en la literatura respecto al desarrollo de competencias científicas (Chamizo e Izquierdo, 2007). Al preguntar a los estudiantes si preferirían reportar sus resultados mediante un reporte o una heurística, la gran mayoría (6 de 7), respondió que prefiere un reporte puesto que es más estructurado, menos ambiguo y es más cercano a un reporte profesional. Esto nos permite identificar que este es un aspecto al que se debe poner más atención en la siguiente implementación. Otro de los puntos que resaltan varios estudiantes es que desarrollar este proyecto les permitió “darse cuenta de que la teoría es diferente que la práctica”, y estar en contacto con materiales de para la construcción de suminis165 tro de agua. Algunos estudiantes también resaltan que realizar este proyecto fomenta la creatividad puesto que reconocen “la capacidad de generar algo nuevo”, “capacidad de innovar y mejorar lo ya hecho, incluso a partir de cero.” En general, los estudiantes realizaron la actividad de manera muy comprometida, y motivados. Por ejemplo, uno de los estudiantes comenta: “Desarrollar un proyecto es siempre excitante.” Conclusiones y reflexión final Esta fue la primera experiencia de la profesora con una aproximación de enseñanza basada en problemas en el Laboratorio de Ingeniería I. A partir de la documentación y el análisis de los productos de los estudiantes (presentación, evaluación, auto y co-evaluación) se apreció que todos los alumnos participaron en la solución del problema planteado. Todos aportaron ideas útiles para llegar al diseño del prototipo. A diferencia de otros cursos, durante la exposición del tema, todos los alumnos manejaron los conceptos teóricos de UEA previa con mucho dominio. Al ser todos los prototipos diferentes, los alumnos tuvieron la oportunidad de notar que existen diferentes enfoques para llegar a la solución de una problemática. A diferencia de los protocolos de práctica convencionales, los proyectos han permitido crear espacios propicios para que el alumno desarrolle un pensamiento crítico e integre conceptos de UEA previas apropiándose del conocimiento al llegar incluso a la etapa de diseño de prototipos a escala laboratorio que ahora están disponibles como parte de la infraestructura experimental de la UAMCuajimalpa. Queremos resaltar que dar a los estudiantes oportunidades para resolver problemas cercanos a la realidad, donde puedan poner en juego su creatividad y sus conocimientos, así como las habilidades para trabajar en equipo y comunicarse puede ser muy importante en el desarrollo profesional. El aprendizaje basado en problemas ha demostrado tener mucho potencial para implementarse con los estudiantes de Ingeniería Biológica por lo que continuaremos trabajando en este sentido, desarrollando la experiencia con otros laboratorios y evaluando de manera más puntual las habilidades que se desarrollan y la mejor forma de reportar estos aprendizajes. En la siguiente fase del estudio, buscaremos también comparar las aproximaciones ‘tradicional’ y basada en proyectos para dar mayor sustento a esta forma de plantear las experiencias en el laboratorio de Ingeniería. 166 Finalmente, citamos a uno de los estudiantes quien sintetiza su experiencia en la siguiente frase: “Fue interesante tener la posibilidad de construir cosas con nuestras propias manos, para construir nuestro primer aparato como ingenieros.” Referencias [1] Chamizo, J.A. e Izquierdo, M. (2007). Evaluación de las competencias de pensamiento científico. Alambique, 51, 9-19. [2] Du, X, de Graaff, E. y Kolmos, A. (2009) PBL – Diversity in Research Questions and Methodologies En X. Du, de Graaff, E. y A. Kolmos (eds.), Research on PBL Practice in Engineering Education, 1–7. Rotterdam: Sense Publishers. [3] Faland, B. & Frenay, M. (eds.) (2006). Problem and Project Based Learning in High Education: Impact, Issues, and Challenges. Louvain-la-Neuve: Presses Universitaires de Louvain. [4] Greenbowe, T. J. y Hand, B. M. (2005) Introduction to the Science Writing Heuristic. In; N. P. Pienta; M. M. Cooper; T. J. Greenbowe, Chemists’ Guide to Effective Teaching. Prentice-Hall: Upper Saddle River. [5] Latorre, A. (2003) Investigación-acción Conocer y cambiar la práctica educativa. Barcelona: Grao. [6] Lim, W. (2010) Designing Fluid Mechanics Laboratory Experiments for the Universities in East Timor. Thesis for the degree of Environmental Engineering, School of Environmental Systems Engineering, The University of Western Australia. [7] Mills, J. y Treagust, D (2003) Engineering education – is problem based or project-based learning the answer? Australasian Journal of Engineering Education, 2 -16. 167 Reducción de Psicofármacos en Aguas Residuales Después de la Filtración con Membranas Isabel Del Castillo1, Aurelio Hernández1, Ma. Estela Montes2 Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos de la Universidad Politécnica de Madrid, España. Profesor Aranguren 3. Campus Ciudad Universitaria. C.P. 28040. Madrid, España. Tfno: 91 336 66 87. 1 2 Instituto de Ingeniería, Universidad Veracruzana. Boca del Río, Ver. [email protected] Resumen Se analiza la presencia de diferentes psicofármacos en el agua residual y los rendimientos de eliminación obtenidos en una depuradora convencional. Los psicofármacos prácticamente no se eliminan en el tratamiento biológico. Sin embargo, se ha obtenido una biodegradación considerable debido al tipo de compuesto y de la edad del fango. Además se estudian las retenciones de estos compuestos empleando tratamientos terciarios convencionales y plantas piloto de ultrafiltración y nanofiltración. Las eliminaciones obtenidas no difieren demasiado de un tipo de membrana a otro a pesar del diferente tamaño de paso entre ellas. Palabras clave: Fármacos, psicofármacos, tratamiento terciario, ultrafiltración, nanofiltración. Abstract The presence of different psychotropic drugs in wastewater was analyzed, as well as the removal efficiencies obtained in a conventional treatment plant. The psychotropic drugs was no eliminated with the biological treatment. However, we have obtained substantial biodegradation due to the type of compound and the mud age. Besides the withholding of these compounds using conventional tertiary treatment and ultrafiltration and nanofiltration in pilot plants were studied. The deletions obtained with the membranes do not differ greatly from one type to another, despite the different size each other. Key words: Pharmaceuticals, psychotic drugs, tertiary treatments, ultrafiltration, nanofiltration. 168 Introducción En los últimos años se han publicado bastantes estudios relativos a la presencia de fármacos y productos de higiene personal (PPCPs) en aguas residuales y en aguas superficiales empleadas como fuentes para abastecimiento, debido a su posible riesgo sobre el hombre y vida acuática incluso a concentraciones traza (µg/l ó ng/l). Los PPCPs representan un gran grupo de compuestos que incluyen medicamentos y productos de cosmética e higiene personal (fragancias, champús, cosméticos, protectores solares, etc.). Los fármacos están formados por moléculas grandes y químicamente complejas, pero muy diferentes en peso molecular, estructura, funcionalidad, forma, etc. Algunos de estos compuestos son polares y no volátiles por lo que es difícil que se escapen del medio acuático. Su persistencia es variable y pueden acumularse induciendo efectos adversos en los organismos vivos incluso a concentraciones por debajo de los µg/l. Los principios activos de los fármacos están diseñados para ser muy eficaces e interaccionar con receptores específicos en el hombre y animales, o bien para resultar tóxicos para organismos infecciosos como bacterias, parásitos, etc. Estas características y la posible exposición continuada de los organismos acuáticos a este tipo de compuestos, los hacen potencialmente dañinos o perjudiciales para la fauna y flora acuática. Además aunque a corto plazo no se pueden detectar efectos graves sobre la salud o sobre el medio ambiente, son probables efectos potencialmente acumulativos de los fármacos a medio o largo plazo, proliferación de microorganismos resistentes a los antibióticos y alteración de la estructura de las comunidades biológicas. También parece posible que la combinación de diferentes metabolitos y compuestos biológicamente activos produzcan efectos sinérgicos o aditivos, aunque es un tema todavía bastante desconocido. La vía de exposición al hombre puede ser la presencia en el agua potable de cantidades traza, el consumo de peces que tengan acumulados fármacos o sus derivados o el baño en aguas superficiales que estén contaminadas con estos compuestos. Sin embargo las pequeñas cantidades a las que está expuesto el hombre no parecen ser preocupantes a corto plazo. Dentro de los fármacos pueden considerarse como más representativos los grupos terapéuticos mostrados en la Tabla 1. 169 Tabla 1. Principales grupos terapéuticos. Grupo terapéutico Función Principios activos Antinflamatorios y analgésicos Combatir el dolor e inhibir la síntesis de compuestos involucrados en la respuesta inflamatoria. Tienen propiedades analgésicas y antipiréticas. Paracetamol, Ácido acetilsalicílico, Ibuprofeno, Diclofenac, Naproxeno Antidepresivos y sedantes Aumentar la actividad de ciertos neutransmisores inhibidores, produciendo disminución de la ansiedad y relajación muscular. Fluoxetina, Paroxetina, Venlafaxina, Diazepam, Lorazepam, Bromazepam Anticonvulsivos Evitar la acumulación excesiva, rápida y repetitiva de impulsos eléctricos, manteniendo normal la actividad cerebral. Carbamacepina Antineoplásicos Tratamiento del cáncer Bisulfan, Ciclofosfamidas Hipolipemiantes Bajar los niveles de colesterol en sangre en personas con arterioesclerosis. Reducen los niveles de triglicéridos y aumentan los niveles de HDL (fibratos) o actúan sobre el LDL (estatinas). Bezafibrato, Simvastatina, Atorvastatina, Pravastatina Betabloqueantes Bloquear los receptores beta del corazón, disminuyendo la necesidad de oxígeno, reduciendo el ritmo cardíaco y la fuerza de contracción del corazón y vasos sanguíneos. Combaten la hipertensión arterial, angina de pecho, arritmias cardíacas, etc. Atenolol, Propanolol, Metoprolol, Amlodipina Antiulcerosos Bloquear los receptores H1 y H2 de la histamina, reduciendo su unión a estos receptores y evitando así la producción de ácido. Combaten la acidez de estómago, úlceras y otras alteraciones estomacales Ranitidina, Omeprazol, Pantoprazol, Lansoprazol Antiprostáticos Antagonista de receptores a-adrenérgicos. Trata la hiperplasia prostática benigna. Tamsulosina Antibióticos Destruir o detener el crecimiento de organismos infecciosos Sulfonamidas, Trimetropin Fluoroquinolonas Psicofármacos y drogas de abuso Sustancias que alteran la mente sin una necesidad médica y que con frecuencia son objeto de abuso Cocaína, Metadona, Heroína, Anfetaminas Presencia de fármacos en las aguas y eliminación en procesos de depuración Los fármacos llegan al agua residual a través de la orina o residuos fecales del hombre. Es decir el medicamento es absorbido por el paciente y es metabolizado por diversos mecanismos, excretándose en forma de conjugados, como un metabolito principal, o como una mezcla de varios metabolitos. La parte no absorbida, muchas veces una fracción significativa de la sustancia original, puede ser excretada sin metabolizar a través de la orina o heces. Las formas conjugadas de los fármacos (derivados más polares y solubles en agua y menos tóxicos que el compuesto original), pueden convertirse otra vez en sus formas activas por vía enzimática o por hidrólisis química entre la recogida de las aguas residuales y la salida de las depuradoras. La desconjugación ocurre en parte debido a la presencia de la bacteria Escher170 cihia coli en los desechos fecales, ya que esta bacteria sintetiza la enzima β-glucuronidasa, responsable de la transformación anterior. Gran parte de estas sustancias no son eliminadas totalmente en las depuradoras, lo que significa que los medios receptores están continuamente expuestos a los fármacos que no han sido eliminados. Los principales mecanismos de eliminación de estos compuestos durante el tratamiento de las aguas residuales son la biodegradación y la adsorción. Además las concentraciones ambientales de los fármacos pueden diferir de unos países a otros ya que depende de los patrones de consumo, así como de los diferentes procesos de tratamiento de depuración de aguas. Metodología Fundamentado en lo expresado anteriormente se decidió realizar una investigación consistente en estudiar la concentración de diferentes fármacos en agua residual, su grado de eliminación en un sistema de depuración convencional de fangos activos, y la eficacia en la retención de estos compuestos utilizando tratamientos terciarios convencionales (coagulación-floculación seguida de filtración rápida sobre arena) y sistemas de filtración con membranas con diferentes tamaños de paso. Esto permite predecir en función de los distintos tratamientos, cuál es la reducción de estas sustancias y las concentraciones vertidas a los cauces receptores. Los fármacos a estudiar se seleccionaron de forma que aparecieran diferentes grupos terapéuticos y dentro de ellos los más empleados habitualmente. De esta forma se decide evaluar el comportamiento de: Ibuprofeno y Naproxeno (analgésicos y antinflamatorios), Bezafibrato (hipolipemiante), Carbamacepina (anticonvulsivo), Propanolol (betabloqueante), Ranitidina (antiulceroso), Sulfametoxazol y Eritromicina (antibióticos), y benzodiacepinas, opiáceos, cocaína y metadona (psicofármacos y drogas de abuso). 171 Tabla 2. Características de los penetrantes al sistema de membranas. Compuesto Fórmula molecular P.M. log Kow pKa Acetaminofen Ibuprofeno Naproxeno Bezafibrato Mevastatina Carbamazepina Diazepam Ranitidina Atenolol Propanolol Eritromicina Sulfametoxazol Trimetroprim Azitromicina Cocaína Metadona C8H9NO2 C13H18O2 C14H14O3 C19H20ClNO4 C25H38O5 C15H12N2O C16H13ClN2O C13H22N4O3S C14H22N2O3 C16H21NO2 C37H67NO13 C10H11N3O3S C14H18N4O3 C38H72N2O12 C17H21NO4 C21H27NO 151 206 230 362 391 236 285 314 266 260 734 253 290 749 304 310 0.5 4.0 3.2 4.3 4.0 2.4 2.8 1.1 0.2 3.5 3.1 0.9 0.8 0.9 2.3 0.9 9.4 4.9 4.2 ----13.9 3.3 8.2-2.7 9.2 9.4 8.9 5.8 7.1 8.7 8.6 8.3 La depuradora seleccionada dispone de los siguientes procesos básicos en la línea de agua: pretratamiento-tratamiento primario con adición de reactivostratamiento biológico por fangos activos-tratamiento terciario (microfloculación y filtración sobre arena). Los puntos de la depuradora en los que se efectuó la toma de muestras tres veces por semana están representados en la figura 1. Figura 1. Puntos de muestreo de la depuradora seleccionada. 172 La eficacia de los tratamientos de membrana en la separación de estas sustancias se realizó empleando dos plantas piloto con membranas que trabajaban en el rango de la ultrafiltración y de la nanofiltración. Las plantas se alimentaban con el efluente del filtro de arena de la depuradora, y se operaban 3 días a la semana durante los cuales se tomaban muestras a la salida de las dos plantas de membranas. En la figura 2 se muestran los puntos de toma de muestra para evaluar el rendimiento de estos tratamientos. Figura 2. Puntos de toma de muestra para evaluar el rendimiento de estos tratamientos. La planta piloto de membranas de ultrafiltración utilizada es el modelo M38HR-9-3 fabricada por Dow Danmark A/S. Tiene una capacidad máxima de 2500 l/h y está compuesta por un tanque de balance o depósito de agua de 200 litros de capacidad, una bomba de alimentación con caudal de 2.5 m3/h y altura máxima de impulsión de 32.4 m, una bomba de recirculación, un módulo para membranas de ultrafiltración, un filtro de seguridad de 100 micras, un termostato, un intercambiador de calor, y válvulas e instrumentos necesarios para la medición y operación de la planta. El nivel del tanque se controla automáticamente por la apertura y cierre de las válvulas de entrada, así mismo, cuenta con un control automático para calentamiento y enfriamiento del agua y un compresor de aire de 1.5 HP empleado para los propósitos de regulación. Las especificaciones de las membranas de ultrafiltración son: tipo DSS-GR95PP, tamaño del poro de 2000 Daltons, rango de operación de pH de 1-13, temperatura de 0- 75ºC (30ºC), presión de 1-10 bar (4 bar) y el material de la membrane de polietersulfona. La planta a escala piloto de membranas de nanofiltración utilizada es modelo LabStak M20 fabricada por Alfa Laval Naksskov A/S. La planta piloto de Nanofiltración es una planta que permite trabajar en todos los rangos de filtración (Ósmosis inversa, Nanofiltración, Ultrafiltración y Microfiltración), tiene una capacidad aproximada de 3.5 a 24 l/min. 173 Está compuesta por un tanque de 7 L., una bomba de alta presión, un filtro de seguridad, un intercambiador de calor, válvulas y manómetros. Tiene una bomba de alimentación con una capacidad de 8 l/min a una presión de 64 bar, con un motor de 3 KW. El área de membranas es de 0.036 a 0.72 m2, con 0.018 m2 por membrana. El rango de temperatura al que trabajan es de 0 a 60ºC y el del pH de 1 – 14. Especificaciones de las membranas de nanofiltración: tipo DSS-NFT-50, rechazo de MgSO4> 99% (Medido en 2000 ppm MgSO4, 9 bar, 25ºC), rango de operación de pH de 2-10, temperatura de 0- 50ºC (25ºC), presión de 1-55 bar (38 bar), material de la membrana de poliéster. Especificaciones de las membranas de ósmosis inversa: tipo DSS-HR98PP, rechazo de NaCl > 96% (medido en 2000 ppm MgSO4, 9 bar, 25ºC), rango de operación de pH de 2-10, temperatura de 0- 50ºC (25ºC), presión de 1-55 bar (38 bar) y material de la membrana de polipropileno. Las muestras tomadas en cada punto fueron compuestas sobre 24 horas proporcionales al caudal tratado, tomándose las mismas por medio de muestreadores automáticos. En cada muestra se analizaron los fármacos anteriormente citados y las características del agua (DQO, SS, turbidez, nitrógeno total y fósforo total). A continuación aparecen las plantas piloto utilizadas y características de las mismas. Figura 3. Planta piloto de Ultrafiltración. 174 Figura 4. Planta piloto de Nanofiltración. Los análisis de ibuprofeno, carbamacepina, bezafibrato, eritromicina, ranitidina, sulfametoxazol, propanolol y naproxeno se realizaron empleando extracción en fase sólida (SPE) seguido de cromatografía líquida acoplada a espectrometría de masas triple quadrupolo (LC-MS/MS) mediante ionización electrospray. El límite de detección del método (MDL) varía entre 0.002 a 0.020 ng/mL. La precisión del método, calculada como desviación standard relativa (RSD), oscila del 0.2 al 6% y del 1 al 11% en el análisis en días diferentes y en análisis en el mismo día, respectivamente. Los análisis de benzodiacepinas, cocaína, metadona y opiáceos se realiza por inmunoanálisis de polarización de la fluorescencia especialmente indicado para fármacos de pequeño tamaño molecular, basado en la generación de especies altamente reactivas a partir de precursores estables sobre la superficie de un electrodo y la reacción de unas con otras con producción de luz. Se fundamenta en la reacción del complejo [Ru(bpy)3]+2 con tripropilamina (TPA), cuyo producto quimioluminiscense final se forma durante la fase de detección. Resultados y discusión Como puede apreciarse en la tabla 2 algunos de los compuestos seleccionados en este estudio tienen valores tan bajos que su concentración no ha lle175 gado ni siquiera en el agua residual bruta a alcanzar los límites de detección del método analítico empleado para su análisis. Se trata de los antibióticos (eritromicina y sulfametoxazol), el betabloqueante propanolol y el antiulceroso ranitidina. Tabla 3. Concentraciones medias de fármacos detectadas en el proceso convencional de la depuradora. Principio activo Entrada EDAR (µg/l) Salida tratamiento Primario (µg/l) Salida tratamiento Biológico (µg/l) Ibuprofeno Naproxeno 11.78 2.80 8.76 2.42 2.80 1.37 Bezafibrato 0.41 0.13 0.08 Carbamacepina 0.18 0.15 0.17 Ranitidina < 0.02 < 0.02 < 0.02 Sulfametoxazol Eritromicina < 0.02 < 0.006 < 0.02 < 0.006 < 0.02 < 0.006 Propanolol < 0.007 < 0.007 < 0.007 Entrada EDAR (ng/l) Salida tratamiento primario (ng/l) Salida tratamiento biológico (ng/l) 16.87 15.20 28.35 37.35 12.58 8.93 27.69 33.58 12.27 13.44 26.82 33.05 Psicofármacos y drogas Benzodiacepinas Opiáceos Cocaína Metadona Entre los medicamentos estudiados el principio activo que se ha encontrado a mayor concentración en el agua residual ha sido, como era de esperar, el ibuprofeno (analgésico y antiinflamatorio de uso generalizado muy común). Las concentraciones observadas en la entrada a la planta han oscilado entre 4.23 y 20.11 µg/l con un valor medio de 11.78 µg/l. También se han encontrado en el agua bruta concentraciones bastante significativas de naproxeno (otro analgésico de uso menos frecuente) y de bezafibrato (hipolipemiante). Las concentraciones de medias de naproxeno es 2.88 µg/l, habiendo oscilado sus valores entre 0.74 y 5.50 µg/l. En el caso del bezafibrato las concentraciones de entrada a la planta se encontraron entre 0.01 y 3.87 µg/l con un valor medio de 0.41 µg/l. El principio activo que aparece en el agua residual en la concentración detectable más baja es la carbamacepina, con valores medios de 0.18 µg/l e intervalos entre 0.01 y 0.34 µg/l. 176 Los valores de los psicofármacos y drogas de abuso analizados se han presentado en el agua residual bruta siempre en concentraciones mucho más bajas que los fármacos anteriores, es decir a niveles de ng/l. Las mayores concentraciones se han observado para la cocaína y metadona (valores medios de 28.35 y 37.85 ng/l respectivamente), con menores rangos de oscilación para la cocaína (entre 17.56 y 42.12 ng/l) que para la metadona (entre 2 ng/l y 60.08 ng/l). Las benzodiacepinas y opiáceos en el agua residual han presentado concentraciones medias similares (16.87 ng/l y 15.20 ng/l respectivamente) variando los valores detectados en 2 y 32.45 ng/l para las benzodiacepinas y entre 4.69 y 24.24 ng/l para los opiáceos. Los compuestos hidrofóbicos parece ser que pueden separarse por fenómenos de adsorción a los sólidos, por ello dependiendo del tipo de fármaco pueden apreciarse eliminaciones más o menos grandes en el tratamiento primario. Algunos autores (Strenn, 2004; Clara, 2004) han indicado que la eliminación de bezafibrato (10-97%) e ibuprofeno (12-86%) en las depuradoras de aguas residuales es variable, demostrándose que esta variación depende de la edad del fango. Así con temperaturas de 10ºC y edades del fango de 5 días pueden observarse eliminaciones de ibuprofeno hasta mayores del 90% (Tauxe-Wuersch, 2005). En esta investigación, el bezafibrato e ibuprofeno presentan reducciones medias globales altas (80% y 76% respectivamente), debido fundamentalmente a procesos de biodegradación en el tratamiento biológico (edad del fango > 5 días). Estos datos concuerdan con los expuestos por los autores citados anteriormente. La bibliografía consultada no da resultados claros sobre las eliminaciones de naproxeno en sistemas convencionales de depuración (66% en estudios en Alemania, entre 40-55% en España, y entre 55-98% en Finlandia) y tampoco se muestra una clara influencia de la edad del fango. En este estudio las eliminaciones medias para este analgésico han sido en torno al 50%, bastante más baja que la obtenida para el ibuprofeno y bezafibrato. Por último, la carbamacepina parece ser un compuesto claramente no biodegradable y persistente a los tratamientos biológicos de depuración, ya que los resultados obtenidos en este estudio han mostrado rendimientos medios de eliminación no significativos (aproximadamente un 5%). Gran parte de la bibliografía consultada (Ternes, 1998; Heberer, 2002; Clara, 2004; Strenn, 177 2004) coincide en este hecho, achacando esta baja o nula reducción a la naturaleza hidrofíllica de este principio activo (log Kow < 3) y a su estabilidad química (Tauxe-Wuersch, 2005). En cuanto a las drogas y psicofármacos las eliminaciones globales son bajísimas, y prácticamente nulas en la etapa biológica del tratamiento lo que indica su poca biodegradabilidad. Parece ser que la pequeña fracción que se separa del agua residual es por adsorción a los sólidos en el tratamiento primario. Dado que la eliminación de estos compuestos era en unos casos muy baja, en otros variable, pero nunca total en un proceso de depuración convencional, se estudió el efecto que podía tener el tratamiento terciario convencional existente en la depuradora (microfloculación y filtración sobre arena) y los tratamientos avanzados de filtración con membranas ultra y nanofiltración a través de la operación de dos plantas piloto. La tabla 3 muestra las concentraciones medias de los fármacos analizados a la salida de cada tratamiento. Las plantas piloto de ultrafitración y la nanofiltración no se han ensayado en serie sino en ambos casos la alimentación procede del filtro de arena del tratamiento terciario. Tabla 4. Concentraciones medias de fármacos detectadas después de tratamientos terciarios convencionales y membranas de ultra y nanofiltración. Principio activo Ibuprofeno Naproxeno Bezafibrato Carbamacepina Psicofármacos y drogas Cocaína Metadona Benzodiacepinas Opiáceos Salida trat. Terciario: Microfloculacion + Filtros de arena (µg/l) 2.31 1.79 0.09 0.18 Filtros de arena + ultrafiltracion (µg/l) 0.93 0.49 0.02 0.09 Filtros de arena + nanofiltracion (µg/l) Salida trat. Terciario: Microfloculacion + Filtros de arena (ng/l) 25.56 34.66 15.40 13.84 Filtros de arena + ultrafiltracion (ng/l) 23.08 24.06 10.51 7.83 Filtros de arena + nanofiltracion (ng/l) 0.38 0.24 0.01 0.07 22.43 21.59 8.00 6.42 Los filtros de arena, como era predecible, no muestran ningún efecto significativo en la retención de fármacos. 178 En cuanto a los procesos de ultrafiltración y nanofiltración los efectos de los dos tipos de membrana ensayados no son muy distintos a pesar de la diferencia de tamaño de paso. Las membranas de ultrafiltración empleadas (MWCO 2000 Daltons) teóricamente no deberían separar los fármacos estudiados (su peso molecular se encuentra entre 206 y 362) hasta que no se haya completado la etapa inicial de adsorción. Sin embargo, la presencia de partículas, que tienen la capacidad de adsorber contaminantes, pueden aumentar el potencial de la ultrafiltración para eliminar estos compuestos. Por ello, con estas membranas se han obtenido retenciones entre 48% y 76% para los principios activos, y entre 9% y 43% para los psicofármacos y drogas. Los mejores resultados de separación se han logrado para el ibuprofeno, naproxeno y bezafibrato (83-86%), mientras que para la carbamacepina puede que las características de este principio activo, le impida llegar a separaciones tan elevadas (alrededor de 60%). En el caso de los psicofármacos y drogas de abuso las separaciones con la nanofiltración han sido bastante más bajas que para los principios activos anteriores, llegando incluso retenciones prácticamente nulas para la cocaína. Conclusiones Los principios activos de naturaleza más hidrofóbica pueden eliminarse por adsorción a los sólidos en suspensión, por lo que en parte son separados junto con el fango primario y con el fango en exceso del tratamiento biológico. La eliminación de algunos fármacos en los tratamientos biológicos como fangos activos se debe a procesos de biodegradación. La biodegradación es especialmente efectiva en la reducción de compuestos que no experimentan fácilmente fenómenos de adsorción. El ibuprofeno y el bezafibrato son los dos principios activos estudiados que resultan ser más biodegradables, ya que se han conseguido eliminaciones alrededor del 80%. El naproxeno puede decirse que tiene una biodegradabilidad media y la carbamacepina prácticamente nula. Por ello sería aconsejable que siempre que se pudiera se emplearan principios activos más biodegradables (por ejemplo entre los antinflamatorios preferiblemente ibuprofeno frente a diclofenac que es menos biodegradable). Los tratamientos terciarios convencionales (coagulación-floculación y filtración sobre arena) no tienen ningún efecto en la retención de fármacos. 179 En cuanto a los procesos de membrana, tanto la ultrafiltración como la nanofiltración consiguen obtener reducciones apreciables en general para los fármacos, no siendo demasiado significativas las diferencias apreciadas en función del tipo de membrana estudiado. Es decir, el paso de la membrana no es decisivo y en la separación de los medicamentos influyen otras características como la composición química y propiedades físicas de la membrana y del contaminante. Los psicofármacos y drogas de abuso, si bien se encuentran a concentraciones mucho más bajas que los principios activos en el agua residual, han resultado ser más problemáticos en cuanto a su eliminación, ya que prácticamente no son degradados en el tratamiento biológico y además con las membranas estudiadas las retenciones son menores, quizás debido a la naturaleza de estos compuestos y el tipo de membrana utilizado. La falta de legislación sobre el contenido de fármacos admisibles en los vertidos de aguas depuradas impide decir con absoluta seguridad que los resultados de salida tan bajos obtenidos con las membranas sean suficientes para evitar daños a medio-largo plazo en los organismos vivos de los cauces receptores. Por último, no hay que olvidar que el mejor resultado es el que se puede conseguir con el tratamiento biológico, ya que el compuesto se biodegrada y elimina. El proceso de biodegradación es desconocido actualmente. En el caso de los fármacos que han resultado algo biodegradables, el proceso ha sido una depuradora biológica de fangos activos que funciona con una edad del fango de 12 días. En el caso de las membranas el contaminante sólo se separa del agua, por adsorción a la capa de suciedad que se genera sobre la membrana, trasladándose el problema del agua al concentrado. Los tratamientos con membranas no son la solución a la completa eliminación de fármacos, pero si se reducen sus valores apreciablemente, incluso a valores por debajo del límite de detección del método utilizado para su análisis. Otra vía de eliminación de fármacos podrían ser los procesos de ozonización y oxidación avanzada, que pueden destruir los principios activos. Independientemente de estos tratamientos existen algunas soluciones para minimizar la llegada de fármacos a las aguas residuales, como por ejemplo no medicarse innecesariamente, no verter restos de medicamentos a los sanitarios, etc. 180 Agradecimientos Esta investigación se ha podido desarrollar gracias a la subvención concedida por la Dirección General de Política Tecnológica del Ministerio de Ciencia y Tecnología de España en la convocatoria PROFIT 2004-2007. Referencias [1] Boleda, M.R., Galceran, M.T., Ventura F. (2011) Behavior of pharmaceuticals and drugs of abuse in a drinking water treatment plant (DWTP) using combined conventional and ultrafiltration and reverse osmosis (UF/RO) treatments Environmental Pollution, 159(6) 1584-1591. [2] Castiglioni, S., Bagnati, R., Fanelli, R., Pomati, F., Calamari, D., Zuccato, E. (2006a) Removal of pharmaceuticals in sewage treatment plants in Italy. Environmental Science Technoogy, 40, 357-363. [3] Clara M., Strenn B., Ausserleitner M. and Kreuzinger N. (2004a) Comparison of the behaviour of selected micropolluntants in a membrane bioreactor and a conventional wastewater treatment plant. Water Science and Technology, 50 (5). 29-36. [4] Clara M., Strenn B. and Kreuzinger N. (2004b) Carbamazepine as a possible anthropogenic marker in the aquatic environment: investigations on the behaviour of Carbamazepine in wastewater treatment and during groundwater infiltration. Water Research, 38 (4) 947-954. [5] Heberer T. (2002a) Tracking persistent pharmaceutical residues from municipal sewage to drinking water. Journal of Hidrology , 266 (175-189). [6] Kümmerer (2004) Pharmaceuticals in the environment: source, fate, effects and risks. 2a. Edition. Edit. Springer-Verlag. [7] Kümmerer, K. (2009) The presence of pharmaceuticals in the environment due to human use – present knowledge and future challenges. Journal of Environmental Management, 90 (2354-2366). [8] Santos, J.L., Aparicio, I., Alonso, E. (2007) Occurence and risk assessment of pharmaceutically active compounds in wastewater treatment plants. A ces study: Seville city (Spain). Environment International, 33, 596-601. [9] Strenn B., Clara M. Gans O. and Kreuzinger N. (2004) Carbamazepine, diclofenac, ibuprofen and bezafibrate-investigations on the behaviour of selected pharmaceuticals during wastewater treatment. Water Science and Technology, 50 ( 5), 269-276. [10]Ternes Thomas A. (1998) Occurrence of drugs in German sewage treatment plants and rivers. Water Research, 32 (11), 3245-3260. [11]Yoon, Y., Westerhoff, P., Snyder, S.A., Wert, E.C. (2006). Nanofiltration and ultrafiltration of endocrine disrupting compounds, pharmaceuticals and personal care products. Journal of Membrane Science, 270, 88-100. 181 [12]Zuccato , E., Chiabrando, C., Castiglioni, S., Calamari, D., Bagnati, R., Schiarea, S., Fanelli, R. (2005) Cocaine in surface waters: a new evidence-based tool to monitor community drug abuse. Environmental Health of Global Access Science Source, 4, 1-7. [13]Zuccato, E., Castiglioni, S., Bagnati, R., Chiabrando, C., Grassi, P., Fanelli, R. (2008) Illicit drugs, a novel group of environmental contaminants. Water Research, 42, 961-968. [14]Zwiener C. and Frimmel F. H. (2003) Short-term test with a pilot sewage plant and biofilm reactors for the biological degradation of the pharmaceutical compounds clofibric acid, ibuprofen and diclofenac. The Science of the Total Environment, 309, (1-3), 201211. 182 Densidades de Niveles Nucleares y Teoría de Números Alfonso Anzaldo Meneses Departamento de Ciencias Básicas Universidad Autónoma Metropolitana-Azcapotzalco [email protected] Dedicado a la memoria de la física austriaca Lise Meitner (1878-1968), quien hace 75 años, junto con su sobrino Otto Frisch, publicó la primer explicación física de la fisión nuclear. Resumen Se presentan cálculos analíticos para la densidad de niveles nucleares. Para ello se hace uso de resultados de la teoría analítica de números. Las relaciones obtenidas pueden ser de utilidad para expresar de manera sencilla a las densidades de niveles de núcleos pesados, mismas que son indispensables en el estudio de reacciones nucleares. Las nuevas expresiones se reducen en casos simples a las expresiones de uso más frecuente. Introducción En teoría de números es de importancia la obtención del número de posibles representaciones de un número entero en términos de sumas de números enteros sujetos a diversas restriciones. Dicho problema conocido comó partitio numerorum’, fue estudiado por L. Euler con t´ecnicas hoy denominadas como analíticas coadyuvando con ello al nacimiento de la teoría analítica de los números (ver Rademacher, 1973). Por otro lado en la Física del siglo pasado se abrió paso la mecánica cuántica en la descripción microscópica de la naturaleza (ver por ejemplo Cohen-Tannoudji, 1977). La mecánica cuántica se basa en gran medida en la ‘cuantización’ de cantidades fundamentales, entendiendo por cuantización la introducción de unidades básicas cuyos múltiplos enteros permitieron dilucidar un sin número de resultados experimentales que no pueden ser descritos clásicamente. No obstante, en términos generales el espectro de los operadores asociados a las magnitudes físicas observables puede ser tanto discreto como contínuo dependiendo del problema físico concreto. En este trabajo se analizan solo problemas para los cuales el espectro es discreto como sucede cuando un sistema de partículas se encuentra confinado a una reducida regi´on espacial finita, como sucede para los nucleones en un núcleo atómico estable. El caso de espec183 tros contínuos es también de gran importancia como sucede en problemas de dispersión pero no será tratado aquí. Una característica básica de la Física moderna es el hecho experimental que las partículas elementales pueden ser tan sólo de dos tipos, denominadas bosones y fermiones respectivamente. Estos dos tipos de part´ıculas id´enticas se diferencian en que las primeras pueden estar caracterizadas por exactamente los mismos números cuánticos, mismos que determinan su estado físico completamente, mientras que las segundas estan excluídas de tal situación (‘principio de exclusión de Pauli’). En este trabajo mostramos la aplicación de un resultado del ‘partitio numerorum’ de la teoría analítica de los números al estudio del nu´mero posible de estados excitados de sistemas del segundo tipo. En sistemas con varios tipos de fermiones el problema de particiones de números enteros corresponde al número de sumas de enteros de e ‘colores’ o tipos distintos. Dicho número es denotado mediante pe(n). Así por ejemplo pe(1) = e ya que denotando por un subíndice a cada color tenemos que 1 = 11 = 12 = . . . = 1e , podemos calcular adem´as que pe(2) = e(e + 3)/2, ya que 2 = 2i = 1j + 1k para j ≤ k con i, j, k = 1, . . . , e. Una relación analítica cerrada fue encontrada por Rademacher y Zuckerman hace mucho tiempo (1938). Su elegante método está basado en la teoría de las formas modulares y fue motivado por un resultado clásico de Hardy y Ramanujan (1918) para el caso e = 1. En nuestro problema resulta que, como veremos más adelante, las funciones generadoras fermiónicas como la que ejemplificamos están íntimamente ligadas a la función η de Dedekind (ver Andrews, 1976) (1) Notemos que esta función (y sus potencias) puede ser interpretada como una función generadora de estados de un sistema de bosones. Dado que la potencia (−e)− ésima de η es la función generadora de pe(n), la expresión más importante para nosotros obtenida por Rademacher y Zuckermann es el desarrollo de Fourier (2) 184 con μ = −[−e/24] y α = −e/24 − [−e/24], en donde [x] denota al mayor entero que no es mayor que x. Los coeficientes del desarrollo están dados por la serie convergente para (h,k) = 1 y hh′ ≡ −1(mod k) y Las funciones I1+e/2 son funciones de Bessel modificadas. En particular tenemos que pe(r) = 0 para r < 0 o para r no entero. A continuación mostramos la aplicación de estos y otros resultados de la teoría analítica de los números al cálculo de la densidad de niveles excitados de sistemas de fermiones no interactuantes sobre espectros discretos. Para ello supondremos que dichos espectros son perio ́dicos o bien que las energías de excitación permiten suponer que lo son al menos seccionalmente. La función de partición física Comencemos ahora con sistemas con dos tipos de fermiones no interactuantes. La generalización a más tipos de partículas es clara. Como motivación elemental del análisis hecho en los inicios de la mecánica estadística, consideremos a un sistema de N Fermiones, digamos nucleones en un núcleo atómico estable, colocados sobre un espectro discreto de niveles de energías εj = 1, 2, . . . en unidades arbitrarias. El estado de energía mas bajo es aquel en el cual todos los Fermiones ocupan los primeros N niveles, es único y tiene energía total N(N + 1)/2. El segundo estado posible corresponde al caso en el cual los primeros N − 1 Fermiones ocupan los primeros N − 1 niveles pero el Fermion restante ocupa el nivel N + 1, por lo que la energía total es N(N + 1)/2 + 1. 185 Para describir algebraicamente este procedimiento, basta con escribir en un producto para el nivel j un término 1 + xj y en donde la unidad corresponde a un nivel vacío y segundo sumando a un nivel ocupado de energía j. Por ejemplo si solo hay tres niveles de energías 1, 2, 3, el producto se vería así La unidad corresponde al vacío, el segundo sumando a sólo un Fermion en el primer nivel y los demás niveles vacíos, el tercer sumando a un sólo Fermion ahora en el segundo nivel, así hasta llegar al último sumando que corresponde a tres Fermiones ocupando uno cada nivel y por tanto con energía total igual a seis unidades. Generalizando el ejemplo anterior, se llegó a la definición de la llamada función de partición para fermiones siguiente (3) donde Ya(b) = exp(αa(b)) y αa(b) , α3 y β son parámetros de Lagrange necesarios para contar números de partículas, sus momentos angulares y sus energías y mja(b) es un número cuántico llamado ‘magnético’, asociado a la componente del momento angular de cada nivel, para los tipos ‘a’ y ‘b’ de fermiones con energía εja(b). Los tipos de fermiones corresponden a los colores en el problema de teoría de los números. La serie de potencias formal del producto infinito nos lleva a la definición de la densidad total de niveles del sistema como los coeficientes ρ(Na, Nb, M, E) de la serie (4) en donde la suma corre sobre téminos distintos. Por definición ρ(Na,Nb,M,E) da el número de estados de Na fermiones del tipo ‘a’, Nb fermiones del tipo ‘b’ , con componente ‘z’ del momento angular dada por M del momento angular total y energía E dadas por (5) 186 siendo nsa(b) = 0, 1 los números de ocupación, que indican cuales niveles se encuentran ocupados. Pasemos ahora a un espectro periódico de partícula independiente. Los niveles individuales de energía están dados por εkja(b)= δa(b)(k + νja(b)), k = 0, 1, ...; j = 1, ..., ea(b), en donde ea(b) es la degeneración de cada capa mayor (conjunto máximo de niveles distintos que se repiten) para cada tipo de fermiones, δa(b) es el espaciamiento entre dichas capas y νja(b) es la posición relativa del subnivel j en cada capa. Para poder aprovechar los resultados conocidos de la teoría analítica de los números es conveniente introducir una unidad (de ser necesario tan sólo de manera aproximada) para expresar a todos las energías individuales como múltiplos enteros de ésta. Por simplicidad haremos a dicha unidad igual a uno. Introduzcamos ahora parámetros adicionales de Lagrange para tomar en cuenta la dependencia del momento angular pero también para introducir un conjunto completo de constantes del movimiento. Consideremos por lo pronto a un sólo tipo de fermiones para mayor claridad. Entonces (6) m ij α j en donde los parámetros αi son los parámetros de Lagrange aquí λi = adicionales y las mij son e nu ́meros cuánticos asociados con el j− ésimo parámetro de Lagrange αj. Estos números son por el momento arbitrarios pero posteriormente encontraremos condiciones que los limitan a nuestra conveniencia. Si a continuación dividimos primero al producto infinito en dos partes de acuerdo a que los niveles individuales sean menores o mayores que el nivel ocupado m ́aximo εf = δ(f + νf ) para un entero dado f . Reordenando los términos e introduciendo δβ = −2πiτ, se sigue que (7) 187 Definimos Notemos que N = ef + ex. Ahora supongamos la llamada “degeneración térmica”, esto es que βδf >> 1 y extendamos el límite superior f en el producto infinito sobre n hasta infinito. Esta suposición significa esencialmente que la energía adicionada al sistema no es suficiente como para excitar a los fermiones mas profundos del sistema. Definamos q2 = exp(2πiτ) y usemos a la representación de la función ϑ de Jacobi con características κ y γ como el producto infinito (ver por ejemplo Mumford, 1982) Aquí η(τ) es la función η de Dedekind escrita ahora como (8) (9) La función de partición puede ser reescrita entonces como (10) Consideremos ahora a la siguiente serie de Fourier de la función ϑ en una variable con características κ y γ (11) Por lo tanto encontramos luego de algunas modificaciones elementales (12) Hemos introducido aquí a la red 188 en donde la matriz M está definida haciendo λ = Mα. Hemos definido además |a|2 = (a|a) mediante la forma simétrica bilinear (a|b) = atDb, mediante la matriz diagonal D = (M tM)−1. La última suposición significa que los vectores columna de los números cúanticos de M deben ser ortogonales entre sí, limitando con ello la elección de los números cuánticos mi,j. Además hemos hecho con ν siendo el vector con componentes νi. La densidad de estados excitados A continuación consideremos a un conjunto completo de constantes del movimiento. Para un sistema de dos componentes la función de partición es el producto de las funciones de cada componente (13) con coeficientes (14) en donde el contorno C rodea al origen. Estos coeficientes dan el número total de estados excitados de un sistema de A fermiones (si A > 0), o alternativamente de A antifermiones o ‘agujeros’, distribuidos sobre el espectro de niveles individuales {εjk }a,b con energía total E. La función numérica ρ(N, E) incluye niveles degenerados en M. La integral de contorno en la ecuación para ρ puede ser evaluada exactamente usando el resultado ec.(2). La aplicación del desarrollo en series ec.(12) a la integral para ρ conduce a (15) en donde e = ea + eb, Λ = Λa ⊕ Λb y en donde hemos extendido el producto bilinear para incluir a ambos tipos de fermiones. Nuestro resultado principal está dado por la fórmula ec.(15). Proporciona una fórmula de densidades de niveles exacta que incluye efectos de capas así como su dependencia del momento angular. 189 Conclusiones En este trabajo se ha mostrado como los métodos de la teoría analítica de los números son de utilidad para resolver problemas en aplicaciones de la mecánica cuántica a la Física nuclear. Referencias [1] Andrews G. E., “The theory of partitions”, Addison-Wesley, Reading Mass., 1986 CohenTannoudji C, Diu B. and Laloe ̈ F., “Quantum Mechanics”,Wiley- Interscience, New York, 1977 [2] Hardy G.H. and Ramanujan S., Proc. London Math. Soc. (2), 43 (1918) 75 Mumford D., “Tata lectures on theta”, Progress in Mathematics, Cambridge, Mass., 1982 [3] Rademacher H., “Topics in analytic number theory”, Springer Verlag, Berlin, 1973 [4] Rademacher H. and Zuckerman H., Ann. Math., 39 (1938) 433 190 Energía Solar, Retos y Oportunidades Ana Elizabeth García Departamento de Ciencias Básicas, Área de Física Atómica y Molecular Aplicada, Universidad Autónoma Metropolitana Azcapotzalco, Av. San Pablo 180, Azcapotzalco., México D. F. Resumen En éste trabajo se hace una revisión del uso de fuentes renovables de energía y su contribución al desarrollo sustentable. Actualmente en el mercado existen tecnologías limpias disponibles como paneles solares, turbinas eólicas, biomasa, hidroenergía, y energía geotérmica. Se hace énfasis en la energía solar y en sus distintos tipos: fototérmica y fotovoltaica. Se expone la situación actual del uso de la energía solar así como sus ventajas y desventajas. Para la investigación y el desarrollo de tecnologías limpias innovadoras, se necesita apoyo de los gobiernos para educar ambientalmente aún más a la población, informándola acerca de las consecuencias de la producción de energía usando petróleo y sus derivados, para que así las presentes y futuras generaciones modifiquen patrones de conducta y consumo en relación al uso de la energía, fomenten la creación de nuevas fuentes de energía y conozcan la utilización de estas fuentes. Introducción El mundo depende mayoritariamente de los combustibles fósiles y estos se están acabando. También de acuerdo con el “Global Carbon Project”, sabemos que en el 2014 las emisiones de CO2 que son las principales causantes del calentamiento global superaron un record histórico de 40000 millones de toneladas, que es un incremento del 2.5% con respecto a la medición anterior, lo que conlleva a no acercarse a cumplir con los compromisos necesarios de mantener por debajo de 2 °C el cambio climático, un nivel que será ya difícil de conseguir para la mayoría de países de todo el mundo. Por otra parte actualmente la energía atómica, la industria nuclear de fisión, presenta algunos peligros, que por el momento no tienen una rápida solución. Estos peligros, podrían repercutir en el medio ambiente y en los seres vivos si son liberados a la atmósfera, o vertidos en el medio ambiente, causando la muerte, y condenando a futuras generaciones a mutaciones. Es por ello, que a las centrales nucleares se les exige grandes medidas de seguridad, para así 191 evitar estos accidentes, aunque a veces, pueden llegar a ser insuficientes, Chernobyl 2006 y Fukushima 2011. Del buen uso de la energía depende la calidad de vida de las comunidades. Por eso actualmente es importante, basar nuestro desarrollo energético en el uso de fuentes alternas de energía. Afortunadamente la naturaleza nos ofrece varias opciones que debemos explotar como son la energía solar, eólica, biomasa, geotérmica y muchas otras. En este trabajo en la sección 2, presentamos una revisión general de energía, en la sección 3, consideramos a las fuentes renovables, y en la sección 4 a la energía solar y sus usos. Con esto, se pretende sensibilizar al lector conociendo más acerca del uso de fuentes renovables para lograr un mejor desarrollo hacia la sustentabilidad. Energía La naturaleza se transforma usando energía. La energía se manifiesta a través de cambios físicos y químicos, por ejemplo, el derretimiento del hielo, el proceso digestivo del hombre, la energía hace que brille el Sol, que gire la Tierra, que crezcan las plantas, que nos movamos y que se desarrollen nuestras civilizaciones. La energía es un concepto, una función matemática que asigna el estado de un sistema físico. En la naturaleza existen recursos renovables y no renovables, según sean recursos “ilimitados” o “limitados”, y mediante algunos de estos podemos obtener energía. Una fuente importante de energía renovable es el Sol. De acuerdo con la SENER [2], el Consejo Mundial de Energía afirma que el consumo energético eléctrico mundial, aumentará en los próximos veinte años, aproximadamente en un 50 %. Habrá que proporcionar energía eléctrica comercial a 4000 millones de usuarios, ya que actualmente 2000 millones no disponen de ella, y se esperan 2000 más durante este periodo. Además de los problemas de cambio climático, existen otros problemas en cuanto a la energía, la distribución de la producción y el consumo de energía son desiguales, las zonas donde se produce la energía primaria son diferentes a las zonas de consumo. Actualmente el 80% de la producción mundial de energía primaria proviene de combustibles fósiles como carbón, petróleo y gas natural, es decir de fuentes de energía no renovables y con reservas limitadas. El consumo energético per cápita actual es muy dispar, así como los niveles de desarrollo. Si los países en desarrollo se acercasen en los próximos años a los consumos energéticos occidentales, el mundo se enfrentaría a una prolongada crisis energética. Las emisiones de CO2 representan dos terceras parte de los gases de efecto invernadero que se en192 vían a la atmósfera, esta tendencia se debe revertir para disminuir el cambio climático. “El desarrollo sustentable es el que se realiza sin comprometer la capacidad de las generaciones futuras para satisfacer sus propias necesidades, manteniendo la igualdad dentro de cada generación” [1]. Urquidi afirmaba que “La energía es clave, pero es uno de muchos pilares de nuestro desarrollo y hay que agregarle valor hacia atrás y hacia delante”. La política industrial y financiera son cruciales para generar inversiones, empleos y un desarrollo tecnológico sustentable. Fuentes renovables Las fuentes de energía renovables son aquellas que, después de ser utilizadas, se pueden regenerar de manera natural o artificial. Estas fuentes renovables siguen ciclos que se mantienen de forma más o menos constante en la naturaleza. Las fuentes renovables de energía son: • Energía oceánica La energía de los océanos puede ser explotada. Tecnologías avanzadas y no muy utilizadas en la actualidad usan mareas, gradiente térmico, corrientes marinas y olas. • Energía geotérmica La energía geotérmica es calor que se emite del interior de la Tierra, usualmente en forma de agua caliente o vapor. La energía geotérmica se usa para producir electricidad y puede tener una gran variedad de usos. • Energía hidráulica La producción de energía eléctrica mundial se obtiene a partir de la energía hidráulica. Durante la primera mitad del siglo XX las hidroeléctricas fueron la principal fuente de electricidad del mundo. • Energía eólica El 2% de la energía que recibimos del sol se transforma en viento, éste es un recurso energético disponible y abundante en el planeta. Es aire en movimiento que resulta de las diferencias de temperatura por el calentamiento desigual del Sol sobre la superficie terrestre. Durante siglos se ha usado al viento para moler cereales y para navegar, aprovechando la energía cinética contenida en el mismo. En 1887 Brush construyó la primera turbina eólica para generar electricidad, un generador de 144 palas de madera y un rotor de 17 m de diámetro, sin embargo a pesar de su gran tamaño, la potencia de éste era de solo 12 kW. A fines de la década de 1970, los gobiernos europeos, E.U.A. y Canadá, patrocinaron proyectos de tecnologías limpias innovadoras para el desarrollo de aerogeneradores capaces de interconectarse a la Red Eléctrica. Actualmente, las tecnologías eólicas tienen un alto grado de 193 madurez. El GWEC (Global Wind Energy Council), indica que en 2008 se instalaron en el mundo más de 27000 nuevos MW de energía eólica, por lo que a fines del 2008 se tenía una potencia instalada de 120798 MW. Alemania y España durante años fueron los principales mercados del sector eólico, sin embargo en 2008 en E.U. se instalaron 8358 nuevos MW, quitándole a Alemania el título del país con mayor potencia eólica instalada. En el 2008 en China se instalaron 6300 MW y en India 1800 MW. En México hay 185.5 MW instalados. La Secretaria de Energía ha concedido 1700 MW en permisos de generación. Además de la región del Istmo en Oaxaca, la península de Baja California, ha despertado el interés de inversionistas, proporcionando mejores perspectivas al futuro de la energía eólica en México. • Energía de la biomasa El término biomasa se refiere a materia orgánica de desecho obtenida de la agricultura y de la basura. La energía de la biomasa se puede obtener de la biomasa mediante los diferentes procesos de conversión: combustión directa, gasificación, fermentación y digestión, para producir calor o combustibles, sólidos o gaseosos. • Hidrógeno Otra de las posibilidades para generar energía es la producción de hidrógeno, es una promesa de los nuevos combustibles del futuro. Si se utiliza agua, se está almacenando energía primaria. La ventaja de usar hidrógeno como combustible en las celdas de combustible, es que el producto de desecho es agua destilada. Es una prometedora forma de producción de energía sustentable. • Energía solar Que se trata en la siguiente sección. De acuerdo con Promexico[3], hasta 2012, México tenía una capacidad efectiva instalada para la generación de energía eléctrica de 63195 MW, de los cuáles 14501 MW provenían de fuentes renovables de energía eólica, solar, hidráulica, geotérmica y de biomasa, lo que representa el 23% del total de la capacidad instalada. Actualmente México cuenta con 253 centrales en operación y construcción para la generación de energía eléctrica usando fuentes renovables; Oaxaca y Veracruz son los estados con mayor número de proyectos eólicos y de biomasa, respectivamente. Para 2026[3] se estima que la capacidad instalada para la generación de electricidad a partir de fuentes renovables se incremente en 20544 MW, de los cuales, se estima que la energía eólica tendrá una participación del 58.6% y la hidráulica del 27.3 %. 194 Energía solar y sus usos El Sol mantiene la vida en la Tierra y se calcula que éste vivirá todavía miles de millones de años. La energía solar procede de las reacciones termonucleares de fusión que ocurren en el Sol, donde se quedan todos los subproductos químicos y radiactivos. La radiación solar que recibe la Tierra va del ultravioleta que en gran parte es bloqueada por la capa de ozono a la visible y la infrarroja. Es la fuente limpia de energía más importante de nuestro planeta. Así la energía solar es el mayor candidato al uso de energías renovables, particularmente en nuestro país que tiene una gran insolación. De acuerdo con el proceso de conversión de energía solar a energía útil, la energía solar se divide en: sistemas fototérmicos y sistemas fotovoltaicos. Sistemas fototérmicos En estos sistemas el sol se utiliza para: calentar agua, acondicionar ambientalmente casas y edificios, secar productos agrícolas y marinos, desalar y potabilizar el agua, producir vegetales y frutas en invernaderos, irrigar. Y para el calentamiento pasivo en la arquitectura solar, los colectores planos y los grandes sistemas de concentración de energía solar como en la planta solar térmica “Bright Source Energy” en el desierto de Mojave en California, Estados Unidos. Sistemas fotovoltaicos La energía solar sirve para producir electricidad, es una alternativa verde al carbón y a la energía nuclear y se hace mediante el efecto fotovoltaico. A pesar de que el efecto fotovoltaico fue descubierto por Henri Becquerel en 1823, no fue posible, sino hasta el descubrimiento del transistor en 1948, construir una celda solar ya que se requiere de uniones de semiconductores. La tecnología de las celdas fotovoltaicas se desarrolló en los años cincuenta, donde en 1955, investigadores de los laboratorios Bell patentaron la celda solar de silicio cristalino y en 1958 la usaron exitosamente en aplicaciones espaciales. Sin embargo las celdas solares se producen a gran escala sólo a partir de los años ochenta. Una celda solar se construye con un material semiconductor al que le sobran electrones (tipo n) y otra parte se hace con un material semiconductor que le faltan electrones (tipo p) (huecos). Al recibir la radiación luminosa en forma de fotones, parte de esta se absorbe por algunos electrones de valencia en ambos semiconductores, creando un electrón fotogenerado y por consecuencia dejando un hueco fotogenerado. Estos portadores de carga fotogenerados viajan hacia la unión, bajo un gradiente de concentración. En dicha unión radica el campo eléctrico externo que actúa sobre estos y los separa, mandando a los electrones generados al lado n y a los huecos al 195 lado p. La concentración de electrones fotogenerados en el lado n y de los huecos en el lado p, son los responsables que aparezca un fotovoltaje, el cual impulsará hacia el exterior a dichos portadores de carga, produciéndose una corriente I, si se coloca una resistencia de carga en los extremos de la celda solar. Las primeras celdas solares se fabricaron con silicio. El silicio es el material más abundante en la Tierra después del oxígeno. La combinación de ambos forma el 60% de la corteza terrestre. También se han desarrollado 2 nuevas tecnologías de Si, silicio en bandas y películas de silicio, estas son flexibles y por tanto sus aplicaciones son más versátiles. Las celdas solares de nueva tecnología, son una capa delgada, donde el semiconductor se aplica pulverizado y no se necesita cortar evitando que se pierda material, abaratando así los costos de producción. En 2007 el principal productor de celdas fotovoltaicas era Japón (46%), seguido de Europa (36%), China (11%) y E.U.A (7%). En Europa, el principal productor es Alemania (con más de las 3/4 de la producción europea), seguido de España. En la gráfica siguiente se muestra la evolución de las celdas solares en cuanto a eficiencia a través del tiempo. 196 Figura 1. Está gráfica es cortesía del NREL (National Renewable Energy Laboratory). No tiene derechos de autor y puede usarse en publicaciones y presentaciones. (“This plot is courtesy of the National Renewable Energy Laboratory, Golden, CO.” [4]) 197 México tiene un gran potencial en energía solar, ya que cuenta con regiones con niveles de insolación entre los más elevados de América y a nivel mundial. La región Norte de México cuenta con condiciones meteorológicas sumamente favorables. Chihuahua, Sonora, Durango y Baja California tienen fuerte insolación, sin embargo la energía solar tiene algunas limitaciones, como son la variabilidad o distinta intensidad entre horas, días y estaciones del año y una baja capacidad instalada al 2013 de 76 MW con una capacidad potencial al 2030 de 24300 MW [2]. Conclusiones La energía solar se puede ser utilizar para suministrar electricidad en los hogares o edificios. La energía solar también se puede utilizar directamente para proporcionar calor. El uso de la energía solar tiene grandes beneficios ya que es ilimitada, no contamina, y es un sistema de aprovechamiento de energía ideal en zonas donde la red eléctrica no llega. Los sistemas de captación solar son de fácil mantenimiento. El costo disminuye a medida que la tecnología va avanzando. En México el 35% de los ingresos federales provienen del petróleo. Aunque los costos de las energías renovables se han reducido lo suficiente, no hay disposición para su uso ya que la inversión inicial es grande, la construcción de celdas solares, es compleja y costosa y por la eficiencia obtenida, el espacio de terreno ocupado por los elementos captadores solares es muy grande, pero el problema principal es, la falta de educación ambiental. Referencias [1] Víctor L. Urquidi, Alejandro Nadal Egea, Ed. Colegio de México, 2007. [2] ESTRATEGIA NACIONAL DE ENERGÍA, http://www.sener.gob.mx/res/PE_y_DT/pub/2013/ ENE_2013-2027.pdf [3] http://mim.promexico.gob.mx/wb/mim/energias_perfil_del_sector. [4] http://www.nrel.gov/ncpv/images/efficiency_chart.jpg 198 Ejes temáticos: *De la tradición a la vanguardia e innovación en la Arquitectura *Ciudades competitivas e inteligentes *Diseño inclusivo *Tecnologías de la información y la comunicación en Diseño y Arte creatividad e innovación El reto urbano y la vivienda en México Sara Topelson de Grinberg Uno de los principales retos que enfrenta nuestro país en este siglo XXI es la acelerada expansión de las ciudades mexicanas sobre suelo ejidal durante al menos los últimos 30 años. La expansión generó un patrón de crecimiento extenso y fragmentado segregando a los sectores de menores ingresos y propiciando la desigualdad social y espacial. Según el Banco Mundial se espera que la cifra de habitantes en ciudades de países emergentes como México se duplique en 30 años (2000-2030), con ello la superficie urbana construida se incrementará en 1.2 millones de kilómetros cuadrados, con lo cual casi se triplicará la extensión total del suelo urbano; este acelerado proceso de urbanización trae consigo enormes desafíos, entre ellos satisfacer la creciente demanda de servicios básicos, infraestructura, equipamiento, empleos, disponibilidad de tierra y vivienda asequible para todos los sectores de la población. Esta situación motivó la creación de la Secretaría de Desarrollo Agrario, Territorial y Urbano (SEDATU), cuya principal tarea es la planeación y el ordenamiento del territorio nacional para su máximo aprovechamiento, generando el contexto para implementar políticas púbicas que establezcan la debida planeación y distribución del territorio bajo criterios de desarrollo sustentable en coordinación con otras dependencias, entidades y órdenes de gobierno, con el fin de cubrir las necesidades de tierra para el desarrollo urbano y la vivienda a nivel nacional considerando la viabilidad de los proyectos y disponibilidad de recursos naturales. La creación de esta secretaría implicó un cambio en las normas que rigen al sector de la vivienda, poniendo el acento en el ordenamiento territorial y en la optimización del uso del suelo como variable que incide en los criterios de asignación de subsidios y créditos hipotecarios. De acuerdo con los criterios del Plan Nacional de Desarrollo (PND) 20132018 la SEDATU ha establecido en sus programas estrategias que definen la normativa y la política; destacan el Programa Nacional de desarrollo Urbano (PNDU) y el Programa Nacional de Vivienda (PNV). 201 El Programa Nacional de Desarrollo Urbano establece 6 objetivos: 1. Controlar la expansión de las manchas urbanas y consolidar las ciudades para mejorar la calidad de vida de los habitantes. 2. Consolidar un modelo de desarrollo urbano que genere bienestar para los ciudadanos, garantizando la sustentabilidad social, económica y ambiental. 3. Diseñar e implementar instrumentos normativos, fiscales, administrativos y de control para la gestión del suelo. 4. Impulsar una política de movilidad sustentable que garantice la calidad, disponibilidad, conectividad y accesibilidad de los viajes urbanos. 5. Evitar asentamientos humanos en zonas de riesgo y disminuir la vulnerabilidad de la población urbana ante desastres naturales. 6. Consolidar la Política Nacional de Desarrollo Regional a partir de las vocaciones y potencialidades económicas locales. En concordancia el Programa Nacional de Vivienda define 6 objetivos: 1. Controlar la expansión de las manchas urbanas a través de la política de vivienda. 2. Mejorar la calidad de la vivienda rural y urbana y su entorno, al tiempo de disminuir el déficit de vivienda. 3. Diversificar la oferta de soluciones habitacionales de calidad de manera que responda eficazmente a las diversas necesidades de la población. 4. Generar esquemas óptimos de créditos y subsidios para acciones de vivienda. 5. Fortalecer la coordinación interinstitucional que garantice la corresponsabilidad de los tres órdenes de gobierno en la Política Nacional de Vivienda. 6. Generar información de calidad y oportuna para contribuir a mejores tomas de decisiones en el sector de la vivienda. Construir ciudades competitivas, ordenadas e incluyentes requiere un alto nivel de coordinación en materia de políticas públicas y mecanismos de inversión; la política nacional de vivienda de la presente administración busca atender de forma integral las necesidades de vivienda que existen en el país, al tiempo de reordenar los instrumentos que inciden en cuatro ejes: mayor y mejor coordinación interinstitucional, transitar hacia un nuevo modelo de desarrollo sustentable, reducir el rezago de vivienda y financiamiento que impulse el crédito y el subsidio. 202 En esta nueva política el Desarrollo Urbano juega un papel esencial; para apoyar este reto se dispuso que los créditos y subsidios federales fueran orientados al fomento del crecimiento urbano ordenado, favoreciendo la modernización de infraestructura y servicios, posteriormente impulsando la vivienda vertical, la cual estimula la densificación, optimiza los servicios y el equipamiento. Transitar hacia este modelo de Desarrollo Urbano implica reducir las barreras que enfrentan los habitantes como los tiempos y distancias de traslados, fomentar ciudades productivas y generar un crecimiento compatible con la sustentabilidad ambiental y social; para ello el PNDU plantea estrategias que incluyen el impulso a una reforma urbana que propicie la adecuación, y congruencia del marco jurídico e institucional, mejora de los instrumentos en materia de planeación y gestión urbana para fomentar ciudades compactas; identificación de los límites de las zonas urbanizables para propiciar el crecimiento ordenado de las ciudades, incentivar el uso óptimo del suelo intraurbano mediante el aprovechamiento de predios baldíos y subutilizados, el apoyo a la construcción, renovación y mantenimiento del equipamiento e infraestructura para fomentar la densificación y consolidación de zonas urbanas estratégicas, así como hacer de las áreas conurbadas y zonas metropolitanas unidades territoriales funcionales que estructuren el sistema urbano. En materia de vivienda las estrategias determinadas por la SEDATU han sido punto de partida en la consolidación del sector y el ordenamiento del territorio; la construcción habitacional se realiza con mayor responsabilidad y visión de largo plazo con la mira de optimizar el bienestar de la población. Es evidente que las necesidades de vivienda están cambiando, el número de créditos para adquisición de vivienda en 2014 disminuyó en 10.1 % respecto al 2013 mientras que los créditos para mejoramiento tuvieron un incremento del 23 %, simultáneamente la vivienda en renta ha venido a la alza con un promedio anual de 4.0 % de 1992 a 2012, en contraste con el parque habitacional que presenta tasas de crecimiento de 2.7 %. La vivienda en renta está resurgiendo como una opción asequible para combatir el déficit habitacional. La adecuación del sector a las nuevas necesidades ha sido clave para su recuperación, en el 2014 Sociedad Hipotecaria Federal (SHF) anunció la formalización de su primer crédito para construcción de vivienda en renta en la ZM de Monterrey, así mismo se ha dado mayor impulso al otorgamiento de créditos de la banca privada y los institutos de vivienda. 203 El año 2014 significó un gran crecimiento para el sector de la vivienda, ya que hubo un mayor monto para los subsidios respecto al año 2013, logrando una inversión de aproximadamente 350 mil millones de pesos, así como el lanzamiento de nuevos productos, como el subsidio a la vivienda en renta. En 2015 derivado de la reducción en el presupuesto federal, los recursos destinados a subsidios de vivienda también fueron menores: pasó de 11,600 millones de pesos en 2014, a 8,400, aproximadamente, en 2015. Sin embargo, el monto de crédito directo a la vivienda de SHF pasó de 190 mil millones de pesos en 2012, a 263 mil millones de pesos en 2014. Asimismo, el crédito a la vivienda asignado por la banca privada en México aumentó 7% en abril con respecto del mismo mes de 2014 y significó su mayor alza en los últimos seis años y medio, desde octubre de 2008. Ligado al tema de la vivienda está el suelo urbano como el recurso más valioso y escaso de la ciudad; en respuesta a la inherente necesidad de la adecuada gestión del suelo la CONAVI estableció los llamados perímetros de contención urbana segmentados por su ubicación en base a 3 criterios. El perímetro U1, se refiere a la zona intraurbana que dispone de infraestructura, servicios y concentra unidades económicas con más de 250 empleos, el U2 está definido por la zona donde al menos 75% de la vivienda cuenta con servicios de agua, drenaje e infraestructura y el U3 constituye un borde virtual de contención de la expansión de las ciudades marcando las zonas contiguas de crecimiento al área urbana consolidada (es un polígono que circunscribe a los contornos U1 y U2). Las nuevas reglas de operación del programa de esquemas de financiamiento y subsidio federal para vivienda responden a dichos contornos; continúan operando bajo un esquema de puntaje sin embargo ahora es clara la diferencia en el monto del subsidio según la ubicación de la vivienda en los perímetros establecidos por la CONAVI; las reservas territoriales ubicadas fuera de estas zonas requerirán un proceso de certificación para dotarla de infraestructura y los servicios necesarios para su urbanización y conectividad. En 2014 los desarrolladores construyeron y comercializaron vivienda en esas zonas a través del Infonavit y Fovissste, sin embargo ésta no recibió subsidios y a partir de 2015 los créditos de estos organismos estarán restringidos para la vivienda construida fuera de los perímetros autorizados. Las nuevas reglas buscan incentivar la ubicación de la vivienda al interior del área urbana con el objetivo de potenciar el suelo urbanizado, ya que la política de vivienda de los últimos años y la provisión de servicios de 204 forma reactiva para conectar zonas periféricas con la mancha urbana impactaron significativamente el mercado de suelo. En las últimas décadas el suelo en las ciudades ha perdido su función social, transformándose en una mercancía que incrementa su precio continuamente, tornándose inaccesible para los sectores de menos recursos, propiciando la apropiación ilegal de espacios en las periferias de las ciudades y concentrando la actividad de los desarrolladores en las zonas rurales. Con los cambios en las políticas y las reglas de operación actualizadas, el gobierno federal busca mantener un equilibrio entre los objetivos de la política y las particulares circunstancias por las que atraviesa la industria de la vivienda con el ánimo de generar el menor impacto posible en las empresas. Si bien las modificaciones son graduales sientan las bases para un crecimiento urbano más ordenado a mediano plazo. Los retos en materia de suelo urbano y rural son sustanciales, se estima que existen 5 millones de lotes habitacionales irregulares en el país; la Comisión para la Regularización de la Tenencia de la Tierra (Corett) ha escriturado cerca de 2.7 millones de lotes desde su creación en 1974, sin embargo el ritmo de su acción regularizadora ha disminuido, en 2012 escrituró menos de 16 mil propiedades comparado con 119 mil en 1998, lo que equivale a una disminución de 750%, no obstante el suelo una vez regularizado eleva su precio llegando a compararse con los precios en el mercado formal. Datos de la Sedesol indican que en las 129 ciudades con población mayor a 50 mil habitantes en 2010 existían 493,817 hectáreas de suelo apto para incorporarse al desarrollo urbano, de las cuales 86,408 hectáreas son intraurbanas, de acuerdo a los programas de desarrollo urbano local, 207,074 tienen uso habitacional, de estas 41,351 son intraurbanas y 165,723 se localizan en el primer contorno de crecimiento de los centros de población, este suelo vacante identificado tiene potencial para albergar 7.1 millones de viviendas. Como ejemplo, al referirnos al estado de Guanajuato, destaca que es un estado eminentemente urbano, cuenta con 13 ciudades: León con más de un millón y medio de habitantes, Celaya con más de quinientos mil; cinco ciudades con una población mayor a los cien mil habitantes y seis ciudades que rebasan los cincuenta mil habitantes. Acorde al Censo de Población 2010, Guanajuato cuenta con una población de 5,486,372 habitantes, de los cuales 3,539,994 habitan en ciudades. Sería importante analizar la expansión que han tenido estas ciudades, y derivado de ello el territorio intraurbano vacante o subutilizado que pueda ser 205 integrado en el desarrollo de la ciudad y de la vivienda, sin necesidad de incorporar suelo contiguo al área urbana actual. Esa sería una de las trascendentes acciones en materia de sustentabilidad. Los recientes anuncios realizados por la SEDATU, indican que a través del establecimiento de las renovadas políticas públicas en materia de vivienda, al inicio de 2015 se han generado resultados visibles. Destacan los siguientes: • En 2014, 35% de la vivienda se hizo en la modalidad de vivienda vertical. • El 63% de la oferta de vivienda se ubicó dentro de los perímetros de contención urbana. • El 78% de los subsidios fueron para vivienda intraurbana. • El 82% de los subsidios se ejerció en apoyo a familias con ingresos menores a 2.5 veces el salario mínimo. En 2015 el INFONAVIT incrementó hasta 850 mil pesos el monto máximo de crédito a la vivienda. Asimismo, la CONAVI incrementó el monto a 5.5 salarios mínimos. FOVISSSTE otorgará 630 mil créditos, en pesos y a tasa fija. Por su parte, Sociedad Hipotecaria Federal (SHF), acumuló más de 266 mil acciones con una inversión de 30 mil millones de pesos en créditos directos. Logros significativos que son indicativos de una adecuada estructuración del sector vivienda, la consolidación de nuestras ciudades y el liderazgo de la SEDATU. Para finalizar menciono el estudio realizado por la Organización para la Cooperación y el Desarrollo económico (OCDE) “México, Transformando la Política Urbana y el Financiamiento de la Vivienda”, presentado el pasado 6 de enero por su Secretario General el Lic. Ángel Gurría, donde recomienda: “La adopción e implementación de una política de vivienda más flexible y el fortalecimiento de la política nacional de desarrollo urbano. México tiene que pasar de la construcción de casas a la construcción de ciudades habitables, que combinen la infraestructura, los servicios, y los medios de transporte, con la cercanía al lugar de trabajo”. 206 Creación de sistemas de telemedicina basados en un modelo de diseño a partir de una perspectiva Living Lab Yadira Alatriste Martínez1,3, Ana Belén Cerezuela Jordán1,2, Josep María Monguet Fierro1, Marco Vinicio Ferruzca Navarro3 Universidad Politécnica de Cataluña, 2Hospital de la Santa Creu y Hospital Sn Pau, 3Universidad Autónoma Metropolitana 1 [email protected], [email protected], [email protected], [email protected] Resumen En la Unión Europea y otros países los Living Labs son entornos de innovación, donde existen diversos elementos que favorecen varios espacios de innovación en conjunto con los usuarios finales. Además la combinación de asociaciones publicas y privadas en las que se encuentran involucradas: empresas, investigadores, autoridades y ciudadanos trabajan de manera adyacente para de mejorar la calidad de vida de las personas, todo ello dentro de un contexto real. Desde ésta perspectiva, los Living Labs promueven la participación de los usuarios en los procesos de desarrollo en su propio contexto, mediante la comunicación de necesidades a través de experiencias, logrando un enfoque de innovación abierta. Para esto, se ha divido el artículo en dos partes cumpliendo un doble propósito: (1) un Marco Teórico Conceptual de los Living Lab, y (2) la propuesta de un modelo de diseño para la creación de sistemas de telemedicina. Palabras Claves: Diseño, Living Labs, stakeholders, telemedicina, telerehabilitación, espasticidad, investigación. Abstrac In the European Union and some other countries, the Living Labs are innovation spaces in which different elements help to innovate along with the final users. Also, the combination of private and public associations that are involved: enterprises, researchers, authorities and citizens work jointly to improve the quality of life of the people, all of this within a real context. From this perspective, the Living Labs promote the participation of the users in the development within their own context by the communication of needs through experiences, achieving an open innovation approach. For this matter, the article has been divided in two parts with a double purpose: (1) a Conceptual Theoretical Framework of the Living Labs and (2) the proposal of a design model for the creation of telemedicine systems. 207 Key words: Design, Living Labs, stakeholders, telemedicine, telerehabilitations, spasticity, research. Living Labs Los Living Labs son considerados en la Unión Europea y en varios países del mundo como entornos de innovación (Ståhlbröst, 2008), donde existen diversos elementos que favorecen estos espacios, que en conjunto con los stakeholders, clientes, competidores, usuarios finales, además de la combinación de asociaciones publicas y privadas en las que las empresas, investigadores, autoridades y ciudadanos trabajan juntos para la creación, validación y pruebas de servicios, ideas de negocio, mercados y tecnologías dentro de un contexto real. (Eriksson, 2005). Antecedentes Examinando el origen del concepto de Living Lab, la opinión más reconocida es la de Ståhlbröst (2008), para quien la idea de Living Lab comenzó a desarrollarse a finales de 1990 y una de las primeras instituciones que lo uso fue la Georgia Institute of Technology, donde se desarrolló la tecnología para capturar la experiencia en vivo de una situación educativa y ofreció el acceso a los usuarios para su posterior revisión. El crecimiento del movimiento Living Lab surge en el año 2006 con la red llamada European Network of Living Labs (EnoLL) bajo la dirección de una pequeña consultora Danesa, estaba integrada por 19 Living Lab de 15 países Europeos. (Almirall: 2008) La segunda la conformaban 51 miembros de 18 países, la tercera estaba integrada por 129 miembros, la cuarta por 212 y para el 2011 la conformaban 264 miembros, se han agregado 62 nuevos miembros de 48 ciudades de la Unión Europea (UE) siendo España uno de los países con la mayor cantidad de Living Labs con 57 y en algunas ciudades extranjeras son 12. El dato aportado para el 2014 son 340 miembros La séptima ola de nuevos miembros ENoLL fue publicado en la Summer School Manchester ENoLL Living Lab e1 30 de agosto de 2013. Katzy (2008) define “Living Labs” como un término que ha sido adoptado en el Espacio Europeo de Investigación desde 1980 donde se implementaron algunos programas de innovación estratégica por European Strategic Programme for Resarch an Development in Information Technology (ESPRIT). El término Living Lab fue introducido en el debate público por el Ministro Finlandés durante su mandato como presidente de la Unión Europea en 2006. Su objetivo era poner en marcha un instrumento de innovación en respuesta a la falta de rendimiento aparente de Europa, la llamada Agenda de Lisboa, para convertir los niveles avanzados de investigación sobre el crecimiento 208 económico mensurable. Con la creación de la EnoLL, fue un instrumento que le dio un cuerpo político y un marco institucional, regida en ese tiempo por la Presidencia de la Unión Europea por Portugal y Eslovenia. Recientemente se ha publicado en la página Web de EnoLL el registro de 370 Living Labs acreditadas hasta el 2014. Figura 1. Mapa territorial de los Living Labs 2014 (Extraído el 10.02.2015 de http://www. openlivinglabs.eu/news/9th-wave-membership-applications-officially-open). Definición de Living Lab Algunos autores como Veli-Pekka Niitamo (Nokia, 2009) consideran que el término de Living Lab fue usado por primera vez por el profesor Bill Mitchell del MIT de Boston alrededor de 1995. Ericksson (2005) define a los Living Labs como una metodología I+D donde las innovaciones, servicios, productos y mejoras de la aplicación, son creadas y validadas en colaboración empírica multi-contextual del mundo real. Esta definición implica que los seres humanos son considerados como fuentes de colaboración de innovación, no sólo participan para probar, validar productos y servicios. A partir de la trascendencia de la innovación abierta surgen los entornos vivos de colaboración denominados “Living Labs”, que se ven influenciados por el enfoque de Chesbrough (2003) sobre la Web 2.0 y específicamente del paradigma de innovación abierta, para el autor tiene el objetivo de facilitar la creatividad, el intercambio de información y la colaboración entre los usuarios y clientes, buscando que ellos sean las nuevas fuentes de ideas para futuros productos y soluciones (Dearstyne, 2007; Leibs, 2008; Walters, 2007). 209 El fenómeno de los Living Labs se extiende a otras disciplinas como la investigación-gestión de la innovación, diseño centrado en el usuario (DCU), el espíritu empresarial, la ciencia cognitiva, la conciencia del contexto, la Interacción ser Humano Computadora (HCI), informática y computación social. Kviselius et al, (2008) Følstad, A. (2008), menciona que el término se ha utilizado desde los años 90, Lasher (1991) también empleó el término para describir el uso de las asociaciones de cooperación y los ensayos de campo a partir de 1991. Føstad describe tres categorías de Living Labs: 1) Living Labs para experiencia y experimentación con computación ubicua 2) Living Labs como plataformas de innovación abierta 3) Living Labs como banco de pruebas de las aplicaciones para usuarios Según Lepik, Krigul & Terk (2010), un Living Lab puede considerarse también un sistema para construir una economía de futuro en el que la investigación basada en la vida real del usuario y la innovación sea una técnica normal de co-creación de nuevos productos, servicios e infraestructura social. Consideran como primordial la idea de que un Living Lab ofrezca servicios que permitan a los usuarios tomar parte activa en la investigación e innovación e incidir de esta forma en su propio contexto social. La EnoLL define a los Living Lab como un entorno de prueba y experimentación donde los usuarios y productores pueder co-crear innovación, además cuenta con cuatro actividades principales: co-creación, exploración, experimentación, evaluación. El enfoque de los Living Labs es promover la participación de los usuarios en los procesos de desarrollo en su propio contexto, mediante la comunicación de sus necesidades mediante sus experiencias, logrando un enfoque de innovación abierta mediante su participación. Entornos Living Labs relacionados con el contexto de salud En 2006 se fundó el Instituto Tecnológico de Europa Central (CEIT) es un Centro de Investigación Aplicada y Desarrollo, se encuentra situado en la ciudad de Schwechat, en Viena. Son especialistas en urbanismo, transporte, medio ambiente y sociedad de la información además de Ambient Assisted Living (AAL). Caracterizado en tecnologías para la rehabilitación y la asistencia domiciliaria, en donde existen autoridades locales, proveedores de servicios sociales, las personas mayores, los cuidadores, las entidades de investigación y las empresas están trabajando en conjunto con el fin de 210 inventar, discutir, explorar, implementar y evaluar las nuevas tecnologías de apoyo a la calidad de vida y la vida independiente de las personas mayores. En el Living Lab de Schwechat se empezó a trabajar tres proyectos enfocados a los adultos mayores: “E-Home”: sistema de monitoreo para incrementar la seguridad y autonomía de los adultos mayores; “E-Shoe”, zapato con sensores para evitar la caída de las personas mayores: “interactive picture frame” sistema de telefonía con imágenes de personas. (Panek, 2008). Otro desarrollo es el de Kanstrup et all (2010) que alude un estudio Living Lab para personas con diabetes utilizando un iphone como dispositivo móvil para llevar un control de los alimentos que contiene información básica sobre energía, proteínas, grasa e hidratos de carbono. La aplicación contiene información sobre restaurantes y panaderías de la ciudad en el Norte de Dinamarca donde se realizó el experimento. El centro de investigación es TestBed Botnia instaurado en 2000, sus orígenes empiezan en el Centro de Aprendizaje a distancia de la Universidad de Lulea y es el Living Lab sueco más antiguo. Su perspectiva Living Labs, comprende desde la búsqueda de necesidades de co-desarrollo o validación de tecnologías, servicios o productos. También cubre una gama de servicios, desde las tecnologías de necesidades de investigación a la ideación, conceptualización, co-desarrollo o prueba Living Lab en móviles, nuevos medios de comunicación y de TI. Su enfoque es principalmente cualitativo en términos de metodológicos, sobresaliendo en las necesidades de investigación, diseño participativo y participación de los usuarios. Uno de los proyectos principales es AALIANCE2 , financiado por el Programa de las TIC de la Comisión Europea dentro del Programa Marco Europeo. Subject of the Coordination Action will be Ambient Assisted Living (AAL), esta basado en tecnologías avanzadas de TIC para el envejecimiento y el bienestar de las personas mayores en Europa. El proyecto esta apoyado por varios socios: Scuola Superiore di Studi Universitari e di Perfezionamento Sant’Anna, Italia, OFFIS EV, Alemania, Tunstall Healthcare Ltd., Reino Unido, Deutsche Telekom AG, Alemania, Fundación Tecnalia Research & Innovation, España, EDAD Plataforma Europa, Bélgica, Stichting ZuidZorg, Holanda. (Almirall & Wareham 2008:28) I-City – Bélgica, es un Living Lab que permite la investigación orientada al usuario y la colaboración entre centros de investigación, la industria y el gobierno, fue fundado en 2003 con la intención de crear aplicaciones móviles; es una organización responsable de las dos ciudades flamencas digitales en Bélgica: Hasselt y Lovaina, oficialmente a partir del julio de 2004 sus principales socios son: Microsoft, Telenet, Nokia- Siemens, Concentra y Fujitsu211 Siemens. Su actividad central es el uso de las tecnologías móviles sobre eSalud, la administración electrónica, los nuevos medios de comunicación, los servicios y los dispositivos móviles. Su enfoque metodológico reside en el diseño participativo y gira en torno a la participación de medio - grandes grupos de usuarios en la validación de conceptos y la validación de prototipos en entornos reales utilizando las herramientas proporcionadas por la plataforma móvil, además de las metodologías cualitativas habituales como el enfoque grupos, etc ... (Íbidem: 3) En España el i2Cat - Barcelona es una fundación es una asociación públicoprivada constituida por tres universidades, alrededor de diez empresas privadas y el Secretario de la Sociedad de la Información del Gobierno regional catalán. Abrió operaciones en 1999. Uno de lo proyectos más importantes es Teleictus creado en 2007 para el apoyo del Dr. Ismael Cerdà en el Hospital General de Vic, su objetivo principal es el manejo del ictus isquémico y los avances recientes hacia tratamientos más complejos. Para hacer posible el proyecto Teleictus, el Departamento de Salud de la Generalidad de Cataluña cuenta con el apoyo del Servicio Catalán de la Salud, la Fundación TicSalut, la Fundación i2CAT y la Agencia de Información, Evaluación y Calidad en Salud, bajo las directrices del Plan director de la enfermedad vascular cerebral del Departamento de Salud. El proyecto permite la conexión en red multidireccional y móvil de un neurólogo vascular experto con todos los centros de referencia y comarcales con Teleictus. La conexión permite la evaluación conjunta del paciente y la decisión de tratamiento y/o la derivación del paciente al centro adecuado. El sistema permite trabajar desde estaciones portátiles desde las que se pueden establecer sistemas de multiconferencia a triple banda, entre el especialista en neurología, el hospital comarcal y los nodos terciarios, mediante los cuales podrán visualizar el paciente y la imagen radiológica exploratoria correspondiente. (Íbidem: 32) En la Universidad Politécnica de Cataluña especialmente en el Laboratorio de Aplicaciones Multimedia (LAM), se han desarrollado nueve proyectos eHealth que a continuación se detallan en una tabla, exponiendo datos como grupo de investigador, objetivo investigado, grupo crítico de referencia y beneficiario. 212 Tabla 1. Sistemas de eHealth desarrollados por el Laboratorio de Aplicaciones multimedia. (Modificado de Rivero, Y. 2010). Investigador Objeto investigado Grupo crítico de referencia Beneficiario Médicos nefrólogos expertos bajo la dirección y coordinación Especialistas o médicos en formación de la Dra. Pilar Arrizabalaga en el área de nefrología de centros de adscrita al Servicio de Nefrología España e Iberoamérica del Hospital Clínic i Provincial de Barcelona e-FREN Grupo de investigación COLS: diseño, tecnología, gestión e‐FREN: Programa de formación online de médicos nefrólogos e‐nen Grupo de investigación COLS: diseño, tecnología, gestión Entorno de formación online para el personal de enfermería Instituto catalán de Salud (ICS) en el ámbito de pediatría. e‐xposangre Grupo de investigación COLS: diseño, tecnología, gestión e‐xposangre, una red social, Generalitat de Catalunya, Organizaciones, jóvenes y público en una base de conocimiento y Departament de Salut, Direcció general, expertos, escuelas , donantes una exposición virtual sobre la General de Recursos Sanitaris donación de sangre e-blood Grupo de investigación COLS: diseño, tecnología, gestión Simulador virtual del proceso Hospital de la Santa Creu y de donación de sangre. Hospital Sn Pau Donadores de sangre y público en general e-schi Grupo de investigación COLS: diseño, tecnología, gestión Tesis Doctoral e‐schi, es un programa de apoyo para personas con esquizofrenia Hospital Psiquiátrico Sant Joan de Deu de Barcelona Médicos y pacientes del Hospital Psiquiátrico Sant Joan de Deu de Barcelona y del Hospital Magalhães de Lemos e-fer Grupo de investigación COLS: diseño, tecnología, gestión Tesis Doctorales e‐fer, es un sistema de apoyo online para estudiantes de Licenciatura en Enfermería para diagnosticar y tratar pacientes virtuales y se evalúan los resultados obtenidos en el ámbito del Blended Learning. Estudiantes de Licenciatura en enfermeria provenientes de escuelas de Leiria y Guarda en Portugal Estudiantes de Licenciatura en Enfermería para diagnosticar y tratar pacientes virtuales y se evalúan los resultados obtenidos en el ámbito del Blended Learning. e-tona Grupo de investigación COLS: diseño, tecnología, gestión Tesis Doctoral e-tona, es un sistema de control para la alimentación de niños con problemas de obesidad. Unitat de Tèrapia de Conducta Especialistas en psicología, nutrición y de la Facultad de Psicología de la conducta. niños con problemas de obesidad Universidad de Barcelona e-DIS Grupo de investigación COLS: diseño, tecnología, gestión Tesis Doctoral e-dis es un sistema para apoHospital de la Santa Creu y yar el tratamiento de personas Hospital Sn Pau con disfagia. Médicos y pacientes del Hospital de la Santa Creu y Hospital Sn Pau e-Park Grupo de investigación COLS: diseño, tecnología, gestión Plataforma de gestión de pacientes con Parkinson. Médicos y pacientes del Hospital de la Santa Creu y Hospital Sn Pau Hospital de la Santa Creu y Hospital Sn Pau Dirigido a enfermeras de pediatría Huerta E. (2012:118) Explica que los artefactos anteriores fueron desarrollados mediante un método incremental de diseño basados en las propuestas de Gerhard Pahl y Wolfgang Beitz (1996) pero tomando en cuenta los principios del diseño colaborativo y haciendo caso de las modificaciones que plantea este nuevo paradigma con respecto a los métodos tradicionales de desarrollo de productos. Metodología Living Lab Existen diversos modelos de metodológicos para la creación y desarrollo de los Living Labs, entre los más destacados encontramos el esquema pu213 blicado en el libro “The Living Lab Metodology Handbook” que muestra cada fase el proceso de metodología FORMIT utilizada en el ahorro de energía por ENoLL Botnia y Wireless Trondheim, se basada en tres corrientes teóricas: Soft Systems Thinking, Appreciative Inquiry, and NeedFinding. La metodología subraya fuertemente la importancia de la primera fase en el ciclo de diseño de concepto, normalmente se conoce como análisis o la ingeniería de requisitos, en esta fase los usuarios pueden hacer contribuciones importantes. Desde esta fase se crea la base para el resto del proceso y se pueden evitar errores que posteriormente se vuelven costosas y difíciles de solucionar en otra fase. El esquema es presentado en forma de espiral en el que se indican tres ciclos principales: el ciclo de diseño de concepto, el diseño de prototipo y el ciclo de innovación, también lo conforman dos ciclos adicionales que es el ciclo de planeación al inicio del espiral y el ciclo de comercialización al final de la espiral. En cada ciclo existen tres fases que son: oportunidades apreciadas, diseño y evaluación. También se puede notar tres aspectos dentro de cada fase: uso, negocios y tecnología. Ståhlbröst, A. & Holst M. (2013). Figura 2. Metodología FORMIT de Ståhlbröst, A. & Holst M., (2013) p. 24. Aplicación de la Metodología FORMIT El siguiente apartado muestra la aplicación de la Metodología FORMIT de Ståhlbröst, descrito en cada fase de la metodología en un sistema de teleme214 dicina y aplicado a un contexto real. El sistema es llamado eSpasti. Ciclo 1: Planeación La fase de planeación es importante para obtener la mayor cantidad de la información, en ella se mezclan diferentes competencias para el intercambio de conocimientos y las visiones entre los stakeholders, en esta fase es importante mantener un enfoque continuo y de confianza entre las partes interesadas. Se señalan cinco principios fundamentales: 1) crear valor para los usuarios, 2) la influencia de los usuarios en el proceso, 3) sostenibilidad del proyecto, 4) apertura en el proceso, y por último 5) una situación real (Ståhlbröst, A. & Holst M., 2013: 26) Como se menciona en el párrafo anterior, la fase de planeación surge por un interés, en este caso por la intención de un grupo de profesionales en el campo médico y en el área de ingeniería preocupados por un tratamiento novedoso para los pacientes con problemas de rehabilitación física. Inicialmente se ideó un proyecto llamado e-dis que es “Un sistema online de soporte a la rehabilitación de la disfagia, que tiene como objetivo principal de apoyar a médicos y especialistas al tratamiento de los pacientes con dicha enfermedad” Bascuñana (2012). Es importante destacar que el sistema e-dis se planeó mediante un método incremental de diseño, que dio buenos resultados. Sin embargo para la realización de la propuesta del sistema eSpati, se apostó por una metodología Living Lab. Por consiguiente la idea inicial de eSpasti surge por un grupo de profesionales en el campo médico y en el área de ingeniería preocupados por un tratamiento novedoso a los pacientes con problemas de rehabilitación física. La premisa inicial del sistema eSpasti es apoyar la terapia de rehabilitación y permitir a los pacientes realizar sus ejercicios de terapia desde la comodidad de su domicilio, mediante el uso de un sistema de telemedicina que apoya el monitoreo y seguimiento de pacientes espásticos, es evidente que dicha afección neurológica perjudica de modo significativo la calidad de vida del paciente y de la familia, del tal modo que un sistema con tales características puede ser benéfico para médicos, pacientes, cuidadores y otros especialistas. En este propósito se tomaron en cuenta algunas necesidades especificas de los pacientes tratados con toxina botulínica en el miembro inferior; en conjunto con varios especialistas del área de rehabilitación física y fisioterapia del Hospital Santa Creu i Sant Pau, se plantearon ejercicios puntuales para apoyar las dificultades asociadas con la movilidad de los pacientes con grado de espasticidad leve y moderada. Hechas las consideraciones anteriores se propuso una serie de ideas y conceptos para la realización de todo el proyecto; el sistema esta garantizado por la experiencia de investigación en proyectos de eHealth desarrollados por el Laboratorio de Aplicaciones Multimedia (LAM) dentro del Programa 215 de Doctorado en Ingeniería Multimedia (DIM) de la Universidad Politécnica de Cataluña. Ciclo 2: Diseño de concepto Este ciclo se centra en la apreciación de oportunidades y en la generación de las necesidades básicas que los diferentes actores tienen del producto o servicio. El ciclo debe terminar en un concepto, que representa las necesidades generadas a partir de la primera etapa de planeación, donde se define: el alcance del proceso, el grupo objetivo de usuarios, sus características y la participación de estos en el proceso. Este proceso se apoya en la obtención de una visión nutrida de los diferentes actores y grupos de usuarios, así como también sus comportamientos, actitudes y valores. Una vez finalizado el proceso de recolección de datos, deben ser analizados y traducidas en conceptos lo suficientemente detallados para que los usuarios puedan entender el objetivo básico de la innovación. (Ståhlbröst, A. & Holst M., 2013) Como se puede observar, en la fase de diseño de concepto del sistema eSpati se valoraron las oportunidades y necesidades básicas que tienen los diferentes actores del producto o servicio. En este caso, el problema de salud, representa una oportunidad, debido a que la espasticidad que es una paresia espástica como consecuencia del síndrome de la motoneurona superior que comprende síntomas positivos (reflejos tendinosos vivos, clonus, fenómeno de la navaja, espasmos, hiperreflexia autónoma, distonía y contracturas) y síntomas negativos (paresia, falta de destreza, fatigabilidad y sincinesias) Arroyo et al (1998). Es necesario indicar que los pacientes con espasticidad son personas con grandes limitaciones de movilidad y dependen de un cuidador y/o familiar para llevar a cabo sus actividades básicas diarias (asearse, alimentarse, vestirse, caminar, etc). La espasticidad puede afectar la movilidad del paciente, además de complicar su confort, su cuidado y su propia imagen corporal. Algunas de las complicaciones músculo esqueléticas que incluyen contracturas, dolor y subluxaciones óseas. Los pacientes presentan cuatro características distintivas: 1) aumento del reflejo de estiramiento, 2) liberación de los reflejos osteotendinosos, 3) pérdida de destreza y 4) debilidad. Se ha demostrado que la asociación de terapias físicas a la toxina botulínica, genera mejores resultados de dolor y función en el miembro inferior que la aplicación de la toxina como único tratamiento. Está terapia adyacentes a la aplicación de la toxina, son los estiramientos músculo tendinosos (Watanabe T., 2004) de las áreas infiltradas, ya que tienen un efecto prolongado sobre la relajación del músculo y la potenciación de los músculos antagonistas (Ada, 2006) debido a que mejoran la actividad funcional resultante. A 216 continuación se hace una breve descripción sobre el proceso de tratamiento con toxina botulínica tipo “A” para los pacientes con espasticidad en el miembro inferior. El abordaje que este tipo de tratamiento implica una terapia sistematizada y controlada debido a que el tiempo de duración del fármaco (3 a 6 meses) repercute en todo el proceso de tratamiento del paciente y por lo tanto se planea un sistema de vigilancia del mismo. Para conocer un poco sobre la aplicación del fármaco en pacientes con espasticidad se detalla el uso y forma de evolución del efecto del mismo. La indicación y aplicación de la toxina botulínica para la espasticidad focal en la extremidad inferior es un acto médico que debe de realizarse en un Hospital por un especialista formado específicamente para dicho propósito (médico rehabilitador, neurólogo, anestesiólogo, entre otros). La forma tradicional (usual care) de evaluar el efecto de la toxina botulínica en el miembro inferior, se basa en la asistencia al hospital para realizar una exploración física, evaluar la forma de caminar y sus características, así como la cumplimentación de escalas clínicas de calidad de vida, dolor y de dependencia de otros para sus cuidados básicos, entre otras, que el paciente y/o su familiar/cuidador deben realizar de forma presencial en el hospital que es donde se encuentra el especialista. El paciente debe acudir a dicha evaluación entre las 3-5 semanas después de la infiltración de la toxina, momento de máximo efecto y, hacia las 12-24 semanas, momento de inicio de retirada de efecto. En ambas momentos, solo se aplicarán las medidas de resultado basadas en escalas auto-administradas y visualización de postura del miembro inferior en la bipedestación y la marcha. Para detectar las oportunidades apreciadas es necesario responder a varias interrogantes como: el propósito del proyecto, lo que se quiere lograr y de que forma los usuario pueden participar como co-creadores en el proceso. El objetivo es obtener ideas sobre lo que hay usuarios pueden aportar como innovación, la recopilación puede ser por entrevistas a grupos focales. Hlauschek, et al. (2009), mencionan que es importante la participación de los usuarios en proyectos de asistencia tecnológica, además se deben tomar en cuenta las necesidades y prioridades de los usuarios mismos que deben desempeñar un papel dentro de la cadena de innovación. El sistema eSpasti fue ideado con el objetivo principal de mejorar de modo significativo la calidad de vida del paciente. Algunos expertos señalan que los pacientes pueden influir en la evolución, adaptación y decisión de las políticas y servicios relacionados con la atención de salud. Pueden mostrar sus necesidades y hacerlas llegar más fá217 cilmente y de una forma más directa. Su participación puede influir en la evolución, adaptación y decisión de las políticas de servicios relacionados con la atención de sanitaria. Concepto de diseño El objetivo es desarrollar conceptos o prototipos aproximados basados en las necesidades construidos a partir de la primera fase. Los conceptos necesitan ser lo suficientemente detallada para que el usuario entienda el objetivo básico con las funciones. Para principiar el proceso de diseño, se realizó un estudio teórico sobre los temas concernientes al problema de espasticidad, telemedicina y Living Labs en el campo de la eSalud, entre otros, con el objetivo de apoyar los contenidos del sistema. La planeación se llevo a cabo por miembros del equipo de diseño y desarrollo del DIM, y especialistas de el Área de Rehabilitación Física del Hospital de la Santa Creu i Sant Pau se recibió el apoyo directo de la Dra. Cerezuela y la Dra. Bascuñana, además se contó con el apoyo de otros médicos especializados y terapistas en rehabilitación física del mismo hospital. Larsen (2002) explica que en escenario donde trabajan varios profesionales además de su capital intelectual requerirán de otro tipo de habilidades para colaborar con otros miembros del equipo y entender cómo la comunicación y el desarrollo de productos pueden realizarse de manera efectiva en el lugar virtual de trabajo, de igual forma el equipo de especialistas en el tratamiento de rehabilitación seleccionó y analizó minuciosamente cada unos de los ejercicios y contenidos para el usuario en conjunto con el equipo de diseño, para proponer la interfaz gráfica de usuario (IGU) que representa la parte creativa y visual del sistema para lograr la comunicación efectiva entre los pacientes y los especialistas. Por otro lado, el equipo de desarrollo después ver la propuesta de diseño apoyó la programación y ejecución de los contenidos del sistema por parte del Ing. Alex Trejo. Fase 3: Diseño del prototipo En esta fase el prototipo tiene que ser lo suficientemente detallado para los usuarios entender y ser capaz de experimentar cómo el servicio final se verá y se siente. Esto conduce a la evaluación que se centra en los aspectos de usabilidad. Para conocer los componentes del sistema se realizó el briefing del proyecto que incluye información primordial proporcionada por los especialistas 218 para planear el primer prototipo de diseño. También se utilizó información complementaria mediante el uso de entrevistas directas a especialistas, análisis de necesidades, campo de estudio, grupo(s) de enfoque, entre otros. Consecutivamente se planteó un diagrama general de las acciones del usuario para determinar la IGU, así como la distribución de los contenidos y áreas importantes del sistema. Finalmente organización del sistema eSpasti se compone de tres áreas de gran importancia: (a) tareas, (b) terapia y (c) progreso. Cada área contiene información suficiente para que el usuario realice sus actividades correspondientes. Perfil de los usuarios Tomando en cuenta las necesidades del sistema se definió cada perfil con el fin de realizar la propuesta de la interfaz gráfica de usuario personalizada: Tabla 2. Perfiles de usuario. Usuarios Características del perfil Médico rehabilitador En el Ministerio de Sanidad y Consumo de España, Medicina Física y Rehabilitación (MFR) lo define como un especialista médico al que concierne el diagnóstico, evaluación, prevención y tratamiento de la incapacidad encaminados a facilitar, mantener o devolver el mayor grado de capacidad funcional e independencia posibles. El médico debe conocer el proceso de tratamiento con toxina botulínica tipo “A” para los pacientes con espasticidad, además identificar el padecimiento especifico del paciente. Terapeuta La Confederación Mundial para la Fisioterapia, afirma que son especialistas que tienen como objetivo facilitar el desarrollo, mejoría y recuperación de la máxima funcionalidad y movilidad del individuo, además es capaz de apoyar mediante la aplicación de ejercicios específicos para cada paciente. Otros especialistas Profesionales afines al proceso de rehabilitación pacientes con espasticidad mediante tratamiento con toxina botulínica tipo “A” para los pacientes con espasticidad. Paciente Persona diagnosticadas con espasticidad bajo tratamiento con toxina botulínica tipo “A” con espasticidad en el miembro inferior Cuidador/Familiar Responsable directo de apoyar la rehabilitación terapéutica del paciente. Administrador del sistema Es el responsable de gestionar y mantener actualizado la información del sistema. Arquitectura de la Información Hassan Y. & Montero S. (2009), mencionan que “la arquitectura de información es la actividad y resultado de organizar, clasificar, ordenar, estructurar y describir los contenidos de un sitio web, con el fin de que sus usuarios puedan satisfacer sus necesidades informativas con el menor esfuerzo posible”. En el mismo sentido Ronda-León, (2008) recomienda la creación de diagra219 mas mediante dos tipos: blueprints (mapa de arquitectura) y diagramas (wireframe, mockup o prototype) tienen el objetivo de “mostrar el contenido de las páginas” (Rosenfeld & Morville, 2008). Para el sistema eSpasti se muestra un diagrama de funcionamiento avanzado. Figura 3. Diagrama de funcionamiento avanzado del sistema eSpasti. La figura anterior representa gráficamente la estructura de los contenidos del sistema, desde la pantalla inicial y las distintas áreas, también se indican las escalas que tienen que responder cada usuario específicamente en el área de tareas. Interfaz Gráfica de Usuario El diseño es la actividad capaz de crear un solución visual para resolver problemas de comunicación, Richard Seymour en el Design Council en Business Week 2002 en Londres, afirmó que el diseño está “haciendo cosas mejores para las personas” centrando en primer lugar el comportamiento humano y la calidad de vida. En las TI se habla de interfaz gráfica de usuario, algunos autores como Galitz (1996) manifiesta que es una colección de técnicas y mecanismos para interactuar con algo, en este caso un sistema con el suficiente detalle visual que permita a todos los usuarios tener una comunicación visual y gráfica mediante un sistema Web que permita apoyar la rehabilitación de los pacientes. El sistema está considerado para favorecer la rehabilitación de la espastici220 dad a distancia y de manera asincrónica, es decir que los usuarios puedan realizar su rehabilitación desde la comodidad de su domicilio o en cualquier otro lugar en el momento que el paciente prefiera y especialmente en algunos casos en los que el médico no pueda hacer un seguimiento físico de la persona. En tal sentido el sistema debe recoger toda la información de las escalas y progresos del paciente, mismos que se visualizan de forma optima para el médico. Desde esta una perspectiva general, el diseño debe estar planteado de manera fácil y útil para una mejor comunicación entre ambos. Finalmente, derivado de las consideraciones anteriores, el primer prototipo de diseño se ajustó a una interfaz personalizada que dependía del perfil del usuario y los requerimientos para cada uno. El sistema es apoyado en la co-creación y el diseño participativo de una comunidad de usuarios potenciales que aportan nuevas ideas para su implementación y mejora constante, lo que implica que las aportaciones de los usuarios permiten un diseño adecuado para el tratamiento del paciente, obteniendo mejores resultados por este medio. Además, el sistema también permite que los médicos y especialistas tengan un acceso a los registros del paciente de manera mas accesible sin la necesidad de coincidir dentro del hospital con el paciente. Fase 4: diseño de la innovación El tercer ciclo se inicia mediante el análisis de los resultados de la evaluación de la usabilidad con el fin de generar cambios en las necesidades en la innovación. (Ståhlbröst, A. & Holst M., 2013) A lo largo de la investigación se menciona que los usuarios son co-creadores y permiten instaurar algunas bases para la creación de nuevos Living Lab en temas de eHealth. eSpasti pretende ser un sistema de innovación abierta que puede llegar a considerarse como una herramienta de grandes potencialidades para pacientes con este perfil de discapacidad. Para lograr que los usuarios se involucraran en el proceso de co-creación, además del cuestionario aplicado se le pidieron sus comentarios hablados sobre los criterios de usabilidad y contenidos del sistema eSpasti. Fase 5: comercialización Hasta ahora el sistema eSpasti se encuentra en una etapa de mejora continua, antes de ser implementado en varias instituciones sanitarias. Se ha presentado exitosamente con los usuarios finales: médicos, pacientes y cuidadores en Barcelona, también se ha presentado en la comunidad médica en varias ciudades de España como Pamplona, Santander, Málaga y Tarragona. El sistema ha sido mostrado a profesionales en la Ciudad México. 221 Conclusiones Este trabajo aporta un procedimiento relevante a los problemas sanitarios que requieren una solución mediante un desarrollo tecnológico, además la colaboración de los usuarios es parte fundamental del proceso de i+d. La implementación de la metodología FORMIT de Ståhlbröst, dio como resultado una arquitectura concreta, diseñada estratégicamente para un contexto real con necesidades específicas. El sistema se realizó bajo la colaboración de las instituciones por un lado la Universidad Politécnica de Cataluña y el Hospital San Pau y de la Santa Creu, los resultado obtenidos han dado pie a nuevas implementaciones en otros problemas sanitarios. Agradecimientos EM ECW Lot 18 México, University of Groningen por el apoyo a Yadira Alatriste. Referencias [1] Ada L, Dorsch S, Canning CG. (2006) Strengthening interventions increase strength and improve activity after stroke: a systematic review. Australian Journal of Physiotherapy 52: 241–248 [2] Alatriste Y., Cerezuela A. B., Monguet J. M., Ferruzca M. V. (2013). Rehabilitación de la espasticidad mediante un sistema de telemedicina diseñado con una metodología Living Lab. Libro Científico “AVANCES DE LAS MUJERES EN LAS CIENCIAS, LAS HUMANIDADES Y TODAS LAS DISCIPLINAS”. UAM, México D.F. Libro Científico Vol. I impreso, ISBN: 978607280066 3. Libro Científico Vol. I versión electrónica, ISBN 978607280064 9. [3] Almirall, E., & Wareham, J. (2008). Living Labs and open innovation: roles and applicability. The Electronic Journal for Virtual Organizations and Networks, 10(3), 21-46. [4] Arroyo, M. O., Arzoz, T., Cabrera, J., Calderón, F., & Sebastián, F. (1998). Espasticidad. TITLEREVISTA, 32(6), 419–429. Retrieved from http://zl.elsevier.es/es/revista/rehabilitacion-120/espasticidad-13004876-espasticidad-1998 ER [5] Chesbrough, H. W. (2003), Open Innovation: The New Imperative for Creating and Profiting from Technology, Boston, Harvard Business School Press. [6] Dearstyne, B. W. (2007): “Blogs, Mashups, & Wikis Oh, My!”; Information Management Journal, 41, 4, 2007, 24-33. [7] Eriksson, M., V. P. Niitamo, and S. Kulkki. (2005). State-of-the-Art in Utilizing Living Labs Approach to User-centric ICT innovation – a European approach. CDT at Luleå. University of Technology, Sweden, Nokia Oy, Centre for Knowledge and Innovation. Research at Helsinki Scholl of Economics, Finland, 2005 [8] Følstad, A. (2008). LIVING LABS FOR INNOVATION AND DEVELOPMENT OF INFORMATION AND COMMUNICATION TECHNOLOGY: A 1 . 1 Example Living Lab categories. Network, 10(August), 99–131. 222 [9] Galitz, W. O. (1996). The essential guide to user interface design: An introduction to GUI design principles and techniques. New York: Wiley [10]Hassan Y. & Montero S. (2009). Informe APEI sobre usabilidad. Asociación Profesional de Especialistas en Información. España [11]Hlauschek, W., Panek, P., & Zagler, W. L. (2009). Involvement of elderly citizens as potential end users of assistive technologies in the living lab Schwechat. Proceedings of the 2nd International Conference on PErvsive Technologies Related to Assistive Environments - PETRA ’09, 1–4. doi:10.1145/1579114.1579169 [12]Huerta-Vásquez E. A. (2012). Diseño incremental de e-servicios: estudio teórico, propuesta metodológica y casos prácticos. Tesis Doctoral. Tesis Doctoral. Universitat Politècnica de Catalunya. Departament d’Expressió Gràfica a l’Enginyeria. Barcelona [13]Katzy, B. & Klein, S. (2008) ‘Editorial introduction: Special Issue on Living Labs’, eJOV Journal of Organisational Virtualness, Vol. 10. [14]Kanstrup, A. M., Bjerge, K., & Kristensen, J. E. (2010). A living laboratory exploring mobile support for everyday life with diabetes. Wireless personal communications, 53(3), 395-408. [15]Kviselius, N. Z., Ozan, H., Edenius, M. & Andersson, P. (2008) ‘The Evolution of Living Labs – Propositions for Improved Design and Further Research’ in Proceedings of the 5th International Conference on Innovation and Management (ICIM 2008), Maastricht, The Netherlands, 10–11 December 2008, pp. 842–856 [16]Larsen, Kai R.T. & McInerney, C. (2002). Preparing to work in the virtual organizations. Information &Management, 39, 445–456. [17]Leibs, S. (2008): “Web 2.0, Confusion 1.5.”; CFO 24, 3, 2008, 33-34. [18]Lepik, K. L., M. Krigul and E. Terk (2010). Introducing Living Lab’s Method as Knowledge Transfer from one Socio-Institutional Context to another: Evidence from Helsinki-Tallinn Cross-Border Region. Journal of Universal Computer Science 16(8): 1089-1101. [19]Pahl, G., & Beitz, W. (1996). Engineering design: A systematic approach. Springer Science and Business media; Springer Verlag; London. [20]Panek, P., & Zagler, W. L. (2008). A living lab for ambient assisted living in the municipality of Schwechat (pp. 1008-1015). Springer Berlin Heidelberg. [21]Ronda-León, R. (2007). La diagramación en la arquitectura de información. En: No Solo Usabilidad, nº 6, 2007. <nosolousabilidad.com>. ISSN 1886-8592–Recuperado 26 de feb. de 14 de: http://www.nosolousabilidad.com/articulos/diagramacion.htm#sthash. C3Vsog6c.dpuf [22]Rosenfeld, L. & Morville, P. (2008). Information architecture for the World Wide Web. O’Reilly & Associates. Rosenfeld, L., & Morville, P. (2002). Information architecture for the World Wide Web. Stebastopol, CA: O’Reilly [23]Ståhlbröst, A. & B. Bergvall-Kåreborn, FormIT (2008)-An Approach to User Involvement, in European Living Labs- A New Approach for Human Centric Regional Innovation, J. Schumacher and V.P. Niitamo, Editors. Wissenschaftlicher Verlag: Berlin. p. 63-76. 223 [24]Ståhlbröst, A. & Holst M., (2013) The Living Lab Metodology Handbook. Social Informatics at Luleå University of Technology and CDT – Centre for Distance-spanning Technology, Sweden. Recuperado el 21 de nov. De 2014 de: http://www.ltu.se/cms_fs/1.101555!/ file/LivingLabsMethodologyBook_web.pdf [25]Walters, B. (2007): “What is web 2.0 and what does it mean to you?”; New Mexico Business Journal, 31, 10, 2007, 24-24. [26]Watanabe T. (2004) The role fo the therapy in spasticity management. Am J Phys Med Rehabil.;83 (Suppl):S45-49. 224 Propuestas editoriales para niños con discapacidad visual Eska Elena Solano Meneses, Brenda García Parra, Gloria Angélica Martínez de la Peña Área de Investigación: Diseño incluyente para la calidad de vida, División de Ciencias de la Comunicación y Diseño, Departamento de Teoría y Procesos de Diseño, Universidad Autónoma Metropolitana [email protected], [email protected], gmartinez@correo. cua.uam.mx Resumen La propuesta de diseño y producción editorial haptográfica para personas con discapacidad visual surge como respuesta a la escasa atención que las publicaciones diseñadas para ellos presentan, al no considerar que, para una experiencia significativa se deben vincular los mensajes escritos con “imágenes”, y así favorecer una lectura más enriquecedora para estos usuarios. La presente investigación original refiere el estudio de los dibujos de los niños normovisuales en edad temprana y su pertinencia para producir diseños haptográficos para personas ciegas, a través de la participación activa tanto de niños normovisuales (como generadores de gráficos), así como de personas con ceguera congénita (como evaluadores de las mismas). Como resultado, la hipótesis es que los dibujos realizados por niños normovisuales, en estadio preoperacional para Piaget, pueden ser la pauta para generar representaciones haptográficas en alto relieve comprensibles para las personas con discapacidad visual. Su importancia responde a la necesidad de promover el acceso a la información en las personas con discapacidad visual a través del diseño editorial haptográfico (mediante la utilización de un lenguaje bimedia que implica la combinación de textos e imágenes, ambos de carácter háptico), ya que ello significará para ellas una mayor oportunidad de inclusión, alfabetización, educación, empleo y autonomía. Palabras Clave: Diseño haptográfico, discapacidad visual, integración simbólica, diseño y sustentabilidad. 225 Abstract: Haptic design represents a resource to integrate people with visual impairment into society, eliminating barriers caused by the lack of awareness and education. The design and editorial production proposal for people with visual impairment emerges as a response to the lack of considerations normally taken when developing publications for blind and visually impaired people, who also need a complete and meaningful experience which is not normally met when including text (written messages) alone. “Images” and written messages must be merged. This original research aims to study normovisual children’s drawings (preschoolers) and its relevance to produce haptographic drawings for visually impaired readers, through the active participation of both, normovisual children as graphic generators and congenital blind people as evaluators. As a result, the hypothesis in this research project aims to prove that normovisual children´s drawings (at pre-operational stage under Piaget’s view) could be the basis for the generation of haptographic representations in raised texture understandable for people with visual impairment. Its importance responds to the need to promote access to information for visually impaired people through Haptographic Editorial Design, since this means an opportunity to increase literacy, education, employment and autonomy. Key words: Haptographic Design, visual impairment, symbolic integration, design and sustainability. Antecedentes Actualmente, los esfuerzos de múltiples disciplinas establecen claramente la intención de eliminar desigualdades sociales y de toda índole, así como evitar la discriminación de personas o grupos de ellas. Sin embargo el caso de las personas con discapacidad visual constituye un reto aún poco atendido, sobre todo desde el diseño ya que el acceso a la información se atiende de manera mínima y desarticulada. Escasamente existen documentos que consideren la facilitación de los textos en Braille, la comunicación táctil, los macrotipos, etc. que pudieran promover el acceso a la información y ser congruente con los derechos de las personas con discapacidad, amén de que prácticamente no existen documentos que, al igual que en los dise226 ñados para personas normovisuales, pretendan una vinculación en más de una dimensión que sustente la interpretación y facilite la comunicación de manera significativa; esto es texto-imagen (bimedia). Figuras 1 y 2. Imágenes de un menú Braille fotografiado en San Antonio Texas (2013) donde se muestra la impresión braille en convivencia con el texto impreso en tinta (Martínez 2013). Los intentos por generar imágenes hápticas desarrollados hasta hoy, además de escasos; parten de un concepto visual de imagen proveniente de personas normovisuales, quienes han transferido las concepciones construidas en esquemas, por lo que resultan inocuos e insignificantes para las personas con discapacidad visual, pues su concepto de estructura espacial y formal dista de lo considerado “convencional” para las personas sin esta discapacidad. Un ejemplo de lo anterior es el menú que se presenta en las figuras 1 y 2 donde la única información presentada es de carácter textual. La Ley de Fomento para la Lectura y el Libro (fracción II del artículo 1, capítulo 1º) establece como uno de sus objetivos “promover la producción, distribución, difusión y calidad del libro mexicano, y facilitar su acceso a toda la población”, es decir, la lectura se entiende como un derecho para todos, sin distinción de sus capacidades. Este derecho de comunicación también ha sido demandado en la Convención sobre los Derechos de las Personas con Discapacidad, que propone medios y dispositivos que faciliten el acceso a la misma. La importancia de la presente investigación responde a la necesidad de promover el acceso a la información para la personas con discapacidad visual a través del diseño editorial haptográfico, ya que ello significa una mayor oportunidad de inclusión, alfabetización, educación, empleo y autonomía para ellos. La investigación que realizamos se fundamenta en un enfoque de Diseño Participativo ya que se sustenta en un proceso de comunicación, aprendizaje y acuerdos colectivos entre los diferentes actores implicados en 227 el diseño. Por otro lado, el acceso a la información y a la cultura se observa como pieza clave en el fomento de una mayor calidad de vida y desarrollo humano, factores indispensables en el planteamiento de propuestas que se dirigen hacia la sustentabilidad. Es decir, el presente proyecto de investigación parte de la identificación de una compleja red de problemáticas interrelacionadas que, de atenderse, promoverían respuestas integrales dirigidas hacia el desarrollo sustentable, mediante un aumento en la calidad de vida de poblaciones hoy en día excluidas y el fomento a la investigación de nuevas tecnologías. Finalmente bajo el criterio de sustentabilidad social, en el proyecto de investigación original que estamos realizando subyace la intención de crear un contexto en que se puedan expresar las potencialidades de cada individuo y posibilitar la interacción entre ellos independientemente de sus capacidades, como un derecho legítimo. Diseño Haptográfico Las limitaciones de los usuarios con discapacidad y la discapacidad misma no son factores de reciente aparición, lo reciente es la inserción de éstos en los campos del diseño (Martínez, 2011). Esta nueva mirada de los problemas complejos de la sociedad para la que se diseña, apertura nuevas esferas de acción en todos los campos del diseño, despertando en los diseñadores una conciencia social ante la compleja realidad que se vive y de cómo generar proyectos de diseño que promuevan la inclusión de los diferentes grupos sociales que la conforman. El diseño haptográfico se puede concebir como una línea de diseño incluyente. Su finalidad es conceptualizar y desarrollar un diseño de información, con base en los datos obtenidos del sistema háptico a través de relieves, formas y texturas. De esta forma, la información será adecuada tanto en su código como en su configuración y ésta podrá ser perceptible y comprendida sobre todo por aquellas personas que presentan limitaciones visuales. Los códigos hápticos adecuados permiten que la información sea percibida hápticamente, es decir, utilizando el tacto activo (háptico) para poder así comprender la información sin requerir del sentido de la vista y también con un menor esfuerzo. Uno de los fundamentos para propiciar el desarrollo de un diseño haptográfico es que éste no requiera de un aprendizaje previo . Su aplicación en el diseño de información se encuentra centrado en el desarrollo de imágenes tangibles en altorrelieve, de tal manera que las personas con alguna disca228 pacidad visual puedan sentirlas. En general se aplica en la información no textual, como por ejemplo en mapas, pinturas, gráficos y diagramas. Debe enfatizarse que el diseño haptográfico requiere de sus propias estructuras, sintaxis y ordenamientos para lograr un adecuado reconocimiento de los objetos que se representen para ser percibidos hápticamente. Para que esto funcione, la persona debe tener un conocimiento previo del objeto, es decir, poseer un antecedente. Por tanto, la participación de las personas con discapacidad visual (en especial ceguera congénita) en la generación de un diseño haptográfico resulta fundamental, pues ellas han desarrollado una experiencia mayor en el entendimiento y funcionamiento del sentido del tacto, ya que es uno de los que habilitan más ampliamente al carecer del visual. Este conocimiento y esta experiencia resultan fundamentales en la construcción de la “imagen háptica”, ya que las personas con discapacidad visual saben con exactitud qué características deberá tener la representación de un objeto determinado: a) cuáles elementos formales requiere, b) qué ordenamiento o composición resultan significativos (por ejemplo, la perspectiva, al ser un concepto visual aprendido, no resulta tan familiar al tacto en primera instancia), c) cuáles proporciones y tamaños son los adecuados en una representación, y d) qué manejo de texturas son más significativas y por qué. La participación de los usuarios en el diseño es uno de los requisitos indispensables para la generación de un diseño haptográfico, pues ellos son quienes conocen y entienden lo que verdaderamente les significa. Resulta importante mencionar y aclarar que el sistema perceptivo háptico funciona de forma completamente diferente del sentido de la vista, no es global la manera en la que percibe, sino gradual y ordenada, ya que va construyendo sus significados a partir de las unidades individuales que le aportan información. Este proceso en sí mismo fue entendido por Révész (1950) como un “proceso analítico sucesivo”, cuyo objetivo es “reconocer” (opuesto a la percepción visual), y por el cual atribuyó al proceso háptico las características de simultaneidad y síntesis. Por otra parte, para entender cómo trabaja y funciona la percepción háptica, debe recordarse que el tacto activo o háptico se apoya en los dedos, las manos, los brazos, los pies y las piernas, así como los movimientos que en conjunto realizan; para poder así comprender la información, sin requerir del sentido de la vista. Esta percepción se especializa en la identificación de las propiedades de las superficies y formas de los objetos, como su textura, tamaño, disposición, elementos conformadores, temperatura y dureza. Cabe mencionar que adicionalmente, la integración de la información proporcionada por los diferentes sentidos facilita la adaptación al medio y permite la posibilidad de actuar de 229 manera más eficiente cuando se dispone de información proveniente de múltiples canales sensoriales. Si bien es posible encontrar hoy en día propuestas y productos actuales que tienen como objeto ofrecer soluciones de comunicación mediante relieves y texturas, estas generalmente son desarrolladas bajo concepción y significación de una persona normovisual. Es decir, las representaciones responden a un conocimiento previo que considera apariencia visual, aspecto que es de esencial importancia corregir y considerar en proyectos de diseño háptico. Algunos ejemplos incluyen el proyecto denominado Tactile Picture Books Project (Proyecto de Libros Ilustrados Táctiles) y desarrollado por la Universidad de Colorado en conjunto con el Anchor Center, una organización en Denver, Colorado dedicada al apoyo a la educación de niños con discapacidad visual. Dicho proyecto tiene como objetivo integrar imágenes en tercera dimensión mediante la impresión 3D en cuentos infantiles con el fin de ofrecer mayor información táctil, además del texto en braille (Universidad de Colorado, 2014). Figura 3. Libro infantil impreso en 3D. Tactile Picture Books Project. Universidad de Colorado (Fuente: www.colorado.edu). Sin embargo, es indispensable destacar que las imágenes transformadas a tercera dimensión, son representaciones visualistas convencionales que no consideran el trasfondo de la significación de estas imágenes para una persona que no ha tenido previamente un conocimiento de dichas formas y cuya relación con su concepción es prácticamente inexistente. De aquí la relevancia por incluir en el proyecto de investigación como elemento esencial, la investigación sobre la concepción de imágenes de una persona ciega y con discapacidad visual con el fin de que la experiencia y aprendizaje háptico sea congruente con la forma en que describe su realidad. 230 Por otro lado, el uso de tecnología de impresión en 3D para 9ofrecer texturas táctiles, y en general una percepción háptica es ampliamente investigada hoy en día, debido a las múltiples ventajas encontradas. Actualmente, el equipo de investigación del Instituto de Ciencia y Tecnología en Corea desarrolla un nuevo método con el objetivo de unificar la impresión 3D y las técnicas para el tratamiento de superficies térmicas y así ofrecer objetos tangibles con mayor refinamiento de líneas y curvas (Wonjin,2014). Figura 4. Análisis térmico de la impresión 3D para refinamiento de texturas (incluida el Braille). Wonjin, Wo. 3D printed tactile pattern formation on paper with thermal reflow method (Fuente: Advances 2014). El diseño haptográfico, como un elemento de la accesibilidad universal y del diseño para todos, debe formar parte de la cadena de accesibilidad en todos los programas y ámbitos prácticos del diseño para que las personas con discapacidad visual puedan tener un acceso completo y eficiente a la información. Representación Infantil y Representación Háptica La representación mental y gráfica que una persona con discapacidad visual genera (sobre todo el caso extremo de ceguera congénita) dista mucho de la representación desarrollada por una persona normovisual cuyos referentes visuales y contexto cultural tamizan. Esta distancia se acrecienta a medida de que la capacidad de representación simbólica se desarrolla en una persona normovisual (lo que no ocurre con la persona de ceguera congénita) en relación directa con su desarrollo intelectual, lo cual se aprecia en la Figura 5. 231 En esta tabla, apoyada en las etapas de desarrollo intelectual de Piaget (1987)[2], es posible distinguir que a medida que la capacidad intelectual se desarrolla en una persona normovisual, su capacidad de identificación y consecuente representación gráfica se vuelve más compleja, al grado que un elemento representado gráficamente por personas normovisuales en las etapas operacional concreta y operacional formal no pueden ser distinguidos por ciegos congénitos. Esto fue comprobado cuando al generar prototipos de figuras hápticas en alto relieve, de objetos conocidos por adultos normovisuales, resultaron imposibles de identificar por parte de los ciegos. De ahí resulta evidente que aquellas características representadas por personas normovisuales obedecen al alto peso que dan en su percepción al sentido de la vista, omitiendo características táctiles que un ciego sí es capaz de reconocer. Tabla 1. Estadio de Piaget y su relación con la capacidad de representación gráfica. (Fuente Solano, 2014). Estadío Característica Intelectual Representación asociada 0-2 años Estadio Sensoriomotor Interacción con el medio se basa en acción. Capacidad de resolver problemas sencillos a partir de movimientos corporales y manipulaciones simples. La representación es mental, no gráfica 2-6 años Estadio Preoperacional Interacción con base un nuevos recursos simbólicos, entre ellos, el lenguaje. Representación gráfica intuitiva centrado en su punto de vista 6-12 años Estadio Operacional Concreto Capacidad objetiva para abordar problemas de dificultad creciente. Problemas resueltos con utilización del pensamiento lógico Capacidad de representación social 12 o más años Estadio Operacional Formal Pensamiento lógico que abarca formulaciones abstractas Capacidad de representación abstracta o conceptual. Simbólico Edad Aproximada De la misma tabla se infiere que las personas normovisuales que apoyan más sus representaciones en experiencias propias, que en determinantes culturales (es decir, en etapa preoperacional), son capaces de elaborar representaciones más intuitivas y simples, características que permiten que un ciego congénito las identifique de una manera más clara, logrando así la pauta para generar una representación háptica fácilmente distinguible por cualquier persona con discapacidad visual independientemente de su edad. En algunas investigaciones de campo que se han realizado previas a esta investigación1, se ha comprobado el hecho deducido de la Tabla 1. En la investigación actual ha sido seleccionado un grupo de niños en edad pre232 escolar (estadio preoperacional) para que generaran representaciones, mismas que posteriormente fueron sujetas a evaluación (mediante la identificación de dicha imagen) por parte de un grupo de personas con ceguera congénita3. Los resultados obtenidos respaldaron la hipótesis original: las representaciones de niños normovisuales en estadio preoperacional, resultan pertinentes como la pauta para la generación de imágenes hápticas, que pueden constituir un recurso en la producción editorial para personas con discapacidad visual, aunque todavía hace falta realizar investigaciones más profundas y documentadas en este proceso. Figura 6. Ejemplo del dibujo de un niño de 5 años realizado para representar un perro (Martínez Miguel 2009). Figura 7. Ejemplo de la representación de un perro aprobado por las personas con ceguera en la cual reconocen a este animal, gracias a los elementos que lo conforman, a su disposición y configuración (Martínez de la P. 2011). Conclusiones Para concluir, mediante el diseño háptico se pretende incursionar en el ámbito del diseño y producción editorial para generar un recurso de información disponible y significativo, complementario al sistema Braille tradicional. Su propuesta apoya la generación de este sistema o lenguaje bimedia, el cual se reseñó al inicio de este documento y que enuncia la integración 233 imagen-texto: imagen háptica- texto Braille. En este caso, la imagen correspondería a un diseño haptográfico específico, sin referentes visuales, proyectado y generado a partir de la participación de niños normovisuales en estadio preoperacional y de las personas con discapacidad visual, ello con base en las conceptualizaciones del mundo que ellas han construido integralmente a partir de su experiencia perceptual y de las imágenes mentales que ésta les genera. Esta primera parte del proceso del diseño háptico constituye el eje conceptual del diseño. Para la implementación formal se puede recurrir a diferentes técnicas de producción, que van desde el grabado en altorrelieve (o grabado ciego), el termoformado, impresión en 3D, la serigrafía granulada o incluso la producción manual, dependiendo del tiraje que se desee. Agradecimientos Para la realización del actual proyecto queremos agradecer la invaluable colaboración del Comité Internacional Pro Ciegos IAP de la ciudad de México, así como a los estudiantes de Pre-First del colegio Eton de la misma ciudad, y en especial a las maestras Yvonne Kogan, Florence Gontran y Tania Grinberg. Referencias [1] Martínez de la Peña G. Angélica (2011) El diseño háptico y su importancia en la generación de materiales editoriales para personas con discapacidad visual. Revista Quadra. Número 7. Febrero de 2011. México: UdG. ISSN: 1870-7556. Latindex: 17796. Págs. 27-32. Revista semestral del Departamento de Proyectos de Comunicación, CUAAD. [2] Piaget, J. (1987) Biología y conocimiento. Ensayo sobre las relaciones entre las regulaciones orgánicas y los procesos cognoscitivos. México: Siglo Veintiuno. [3] Révész, G. Psychology and art of the blind. London: Lonemans Green, 1950 . [4] Universidad de Colorado. Picture books for visually impaired kids go 3D thanks to CUBoulder research team. www.colorado.edu. Agosto 2014. [5] Wonjin, Wo. Do Hyun, Kim. 3D printed tactile pattern formation on paper with termal reflow method. RSC Advances. 60. 2014. 234 Diseño inclusivo para la divulgación de los discos giratorios protopastos Paula Murillo Jaramillo, Diana Córdoba Celly Institución Universitaria CESMAG, Ideograma Colectivo, Arqueología de la Imagen [email protected] Resumen Este texto divulga los resultados de la investigación titulada Desarrollo de una Unidad Museográfica para el Museo Juan Lorenzo Lucero de la ciudad de Pasto inspirada en los discos giratorios protopastos, cuyo proyecto ganó la beca de investigación en procesos museológicos del Ministerio de Cultura de Colombia en el 2013. Los objetos culturales en los cuales se fundamentó el trabajo, son unos artefactos prehispánicos realizados por la etnia de los Pastos, considerados únicos porque tienen movimiento y producen una serie de efectos visuales en sus espectadores (arte cinético). Las subunidades se elaboraron para llegar a diversos públicos y de ese modo lograr la apropiación social de ese saber visual milenario desde comunidades heterogéneas nacionales e internacionales, teniendo en cuenta sectores rurales, zonas rojas, resguardos indígenas y zonas urbanas. En esta última el trabajo investigativo se dirigió hacia el público infantil y universitario, lo que convierte a la unidad en un diseño inclusivo ya que tuvo en cuenta diversidad de espectadores. Palabras clave: Diseño, Inclusivo, Discos Giratorios, Protopastos, Museografía. Abstract This paper reports the results of a research project entitled Developing a Museográfica Unit for Juan Lorenzo Lucero Museum of the city of Pasto inspired protopastos spinning disks, whose project won a fellowship in museological processes of the Ministry of Culture in Colombia 2013. The cultural objects in which the work was based, are a pre-Hispanic artifacts made by the ethnicity of the pastures, they considered unique because they move and produce a series of visual effects on their viewers (kinetic art). 235 The subunits were developed to reach different audiences and thereby achieve the social appropriation of this millennium from national and international visual namely heterogeneous communities, taking into account rural areas, red areas, indigenous reserves and urban areas. In this latest research work he headed child and university public, making the unit in an inclusive design because it took into account diversity of viewers. Introducción El grupo Ideograma Colectivo de la Institución Universitaria CESMAG adscrito al Programa de Diseño Gráfico, después de dos años de proceso investigativo y cuyo resultado fue la publicación titulada ARQUEOLOGÍA VISUAL DE LOS DISCOS GIRATORIOS PROTOPASTOS, participó en la convocatoria del Ministerio de Cultura denominada “Estímulos 2013” en la línea Beca para publicaciones de libros inéditos de autores regionales, recibiendo el reconocimiento. Posteriormente y partiendo de las recomendaciones de ese trabajo se detectaron varias problemáticas y necesidades de la población de Nariño al sur de Colombia, dado que muchos de sus habitantes no tienen fácil acceso o desconocen en gran parte su propio patrimonio cultural, debido, principalmente, a que los bienes materiales hallados en ese territorio han sido saqueados y se pierde el contacto con ellos y una vez recuperados pasan a museos que en muchas ocasiones quedan distantes de sus lugares de origen o sencillamente resguardan los objetos culturales pero no pueden exhibirlos (Nullvanve, 2005), lo que causa que sus habitantes y por lo tanto los herederos de esos saberes no puedan interactuar ni acceder a ellos y de esa manera se pierda parte de esa transmisión, apropiación y legitimación de la memoria que hacen los grupos cotidianamente en la práctica cultural. Frente a estas necesidades evidentes en el proceso investigativo se planteó el siguiente proyecto titulado Diseño de una Unidad Museográfica itinerante e interactiva inspirada en los discos giratorios protopasto, el cual se presentó al Ministerio de Cultura a la Beca sobre investigación en procesos museológicos, obteniendo el reconocimiento y los recursos económicos para la ejecución del mismo. De esta forma nace PAPIAL “Exposición itinerante de los discos giratorios protopastos”. Exposición inspirada en los discos giratorios protopastos, unos artefactos culturales concretos encontrados en el Municipio de Pupiales (Nariño), los discos giratorios protopastos, cuyo principal impacto es que tienen movimiento y producen una serie de efectos visuales, gracias a la repetición de elementos geométricos y la aplicación de las propiedades ópticas del color que están dibujados en ellos (Córdoba, Murillo & Timarán, 2013; Plazas, 1998), vale la pena subrayar que estos discos son únicos en el mundo por 236 sus características, que en este momento son consideradas como cinéticas, sobre los cuales muchos Nariñenses desconocen sus significados profundos. Figura 1. Logotipo Grupo Ideograma Colectivo I U CESMAG. Fuente: © Elaborado por Ana Patricia Timaran Rivera*. Figura 2. Logotipo Ministerio de Cultura Colombia. Fuente: Imagen suministrada por Ministerio de Cultura. Figura 3. Logotipo Unidad Museográfica Papial. Fuente: © Elaborado por Jennyfer Alejandra Castellanos**. * Fundadora del grupo Ideograma Colectivo I U CESMAG (2007). ** Colaboro en el desarrollo gráfico de la Unidad Museográfica Papial. 237 Así se establece la unidad museográfica con cinco subunidades. Las tres primeras enfocadas a suministrar información de una manera didáctica e interactiva, a partir de las tecnologías de la información y la comunicación, las dos restantes enfocadas a la lúdica y la pedagogía. Dando paso a la materialización de un sueño. Resultados A continuación se socializa el contenido de cada subunidad no sin antes establecer algunos de los criterios sobre los cuales se fundamentó el diseño inclusivo desde el marco de la accesibilidad de la misma, como fueron la seguridad, el peso, el movimiento, el diseño, el entorno, la economía y la historia. Si bien es cierto que el material está dispuesto para diferentes públicos, estos requerimientos fueron tomando forma en el proceso de diseño, cuyo propósito es generar la participación de la comunidad en pro de responder a las necesidades presentes en el entorno trasformando el factor social, cultural y de pertenencia por un saber propio. Tal como lo describe Muñoz (2011), en su articulo El diseño inclusivo como mediador para la transformación, cuando describe al diseño inclusivo como un paradigma del diseño, con la producción del entorno con fácil acceso, aptos para albergar el mayor público sin diferencias, y sin adaptaciones del material, para hablar del diseño sin barreras para garantizar un goce pleno de la experiencia. De esta manera los fundamentos fueron expresados en el marco del diseño gráfico y el diseño industrial, respondiendo a las tecnologías de la información y la comunicación dispuestas en pro de la determinación de los materiales, el color, la tipografía, la disposición de la información mediante textos claros, cortos, acompañados de infografías; el entorno del grupo objetivo con sus características y limitaciones, la economía a partir del presupuesto establecido y la historia factor que enmarcó la lúdica y la didáctica de la unidad, partiendo de la inaccesibilidad a los artefactos culturales, ya sea por su valor histórico, su fragilidad y simplemente por que el objetivo del Museo del Banco de la República es el de salvaguardar el patrimonio. De esta forma la subunidad uno, dispone la información mas importante para los usuarios en estructuras metálicas soportadas en una base de madera, y como base para los páneles dilatadores los cuales cumplen dos funciones el de sostener y el de disponer. Estos dos sistemas son transversales para todas las unidades. Por lo anterior la sub unidad uno está conformada por ocho páneles, cuatro estructuras y cuatro contenedoras para ser trasportados, aspecto al que se hace referencia mas adelante. Paralelo a ello dos maquetas y quince replicas de los artefactos. 238 Figura 4. Sub unidad 1 Papial. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. En el primer panel se presenta la imagen corporativa del proyecto, junto con las marcas participantes. En el segundo panel titulado Territorio Pasto, se contextualiza la ubicación de este pueblo milenario en territorios que hoy comprende el actual Departamento de Nariño en la República de Colombia y la provincia del Carchi Ecuador, al igual se muestra por medio de una maqueta tridimensional la topografía y características de la vegetación del casco urbano del Municipio de Pupiales a diez kilometros de la línea fronteriza, “Pupiales está situado en el corazón de una vasta llanura del altiplano de Túquerres e Ipiales, en la cadena de los Andes occidentales” (Moreno, 1994, p. 6). y la vereda Miraflores lugar donde se realizó el hallazgo arqueológico. En el año de 1975, el Municipio de Pupiales es declarado Patrimonio nacional por los hallazgos realizados en el cementerio de Miraflores. Entre los innumerables objetos pertenecientes a la cultura material de los Pastos que fueron descubiertos y protegidos, se encuentran unos discos giratorios, cuyo principal impacto es que tienen movimiento y producen una serie de efectos visuales, gracias a la repetición de elementos geométricos y la aplicación de las propiedades ópticas del color que están dibujados en ellos, (Gombrich, 2008). 239 Figura 5. Sub unidad 1 Papial. Panel 1. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. En el tercer panel titulado Cementerio, se describe la forma de los entierros y las diferentes profundidades a las que se encontraron las tumbas, cabe anotar que para este pueblo prehispánico los entierros eran realizados con sus pertenencias como cerámicas, mantas, trozos de oro y los discos giratorios, con el propósito de recrear de la manera mas lúdica, se acompaña con una fotografía de la zona real del hallazgo arqueológico. En el cuarto panel titulado Línea de tiempo se describe el recorrido y ubicación de tres culturas y se hace referencia al camino del inca llamado Qhapac Ñan, o camino principal inca, que resultaría la evidencia material más concreta sobre el vínculo entre los pueblos de este sector del sur de Colombia y norte del Ecuador con grupos sureños como los de Perú, contacto que data de “hace más de 1000 años” (Afanador, 2007, ¶ 2) por este camino se comunicaban los territorios del sur de Colombia, el Ecuador y el Perú, ya que los discos fueron elaborados gracias a la sabiduría compartida entre los tres territorios. En el quinto panel titulado Obtención del metal, se muestra la forma como los pueblos que ocuparon estos territorios obtenían el precioso metal, las herramientas con las que fueron elaborados y los pasos que efectuaron para obtener estos artefactos culturales. En el sexto panel titulado ¿Qué es un disco? Se explica claramente las características de estos artefactos, como son su peso, su diámetro que oscila entre los 15 y 18 centímetros; su espesor de 0,5 a 2 milímetros, un agujero en el centro, y que están elaborados en una aleación de oro y cobre. Por otra par240 te se explican con elementos geométricos repetidos en los demás (módulos geométricos) que al girar en su propio centro generan efectos visuales en los espectadores, por lo que se permite creer que eran usados por el Chamán. El séptimo panel titulado Discos giratorios presenta el diseño de los quince discos estudiados mediante la arqueología visual y acompañado por las quince réplicas de los artefactos culturales. El octavo panel titulado Geometría de los discos en donde se muestran los cuatro tipos de simetría identificados en los discos giratorios como con la simetría de punto, la simetría de plano, la simetría radial y la simetría mixta mediante gráficas infografías. La simetría de punto, es un punto en el centro de la figura, a través de éste la figura gira y repite. La simetría de plano, es una línea imaginaria que divide en dos partes la figura y al superponerse sus lados, estos coinciden. La simetría radial, es cuando dos o más ejes de simetría, cortan el mismo punto y dividen el plano en partes iguales. Y la simetría mixta es donde se mezclan las simetrías anteriores. El séptimo panel titulado Discos giratorios presenta el diseño de los quince discos estudiados mediante la arqueología visual y acompañado por las quince réplicas de los artefactos culturales. El octavo panel titulado Geometría de los discos en donde se muestran los cuatro tipos de simetría identificados en los discos giratorios como con la simetría de punto, la simetría de plano, la simetría radial y la simetría mixta mediante gráficas infografías. La simetría de punto, es un punto en el centro de la figura, a través de éste la figura gira y repite. La simetría de plano, es una línea imaginaria que divide en dos partes la figura y al superponerse sus lados, estos coinciden. La simetría radial, es cuando dos o más ejes de simetría, cortan el mismo punto y dividen el plano en partes iguales. Y la simetría mixta es donde se mezclan las simetrías anteriores. Figura 6. Sub unidad 1 Papial. Panel 2. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. 241 Figura 7. Sub unidad 1 Papial. Panel 3. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. Figura 8. Sub unidad 1 Papial. Panel 4. Fuente: © Diana Córdoba, Paula Murillo, Jennyfer Castellanos y Milena Torres. 242 Figura 9. Sub unidad 1 Papial. Panel 5. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. Figura 10. Sub unidad 1 Papial. Panel 6. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. 243 Figura 11. Sub unidad 1 Papial. Panel 7. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. Figura 12. Sub unidad 1 Papial. Panel 8. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. La segunda subunidad, presenta los factores tecnológicos como herramienta didáctica, ésta se conforma por una estructura con dos páneles, dos cajas de luz y de movimiento operadas por controles. En el primer panel denominado Geometría de los discos se explica puntualmente los diferentes tipos de 244 simetría, los cuales pueden ser identificados por dos prototipos generados a escala mayor en acrílico e iluminados en contra picado, cuyo propósito es iluminar en cuatro tiempos diferentes y con distintos colores los tipos de simetría, de esta manera en un primer tiempo se puede identificar la simetría de plano iluminada con color azul, en un segundo tiempo la simetría de eje iluminada de color verde, en un tercer tiempo la simetría de punto de color rojo y al tener activos los tres controles se observa la simetría mixta. A su vez esta caja de luz está acompañada por fichas acrílicas que representan el módulo de cada disco para que los usuarios puedan identificar los módulos que lo conforman en positivo - negativo en forma y contra forma. El segundo panel titulado Movimiento de los Discos está acompañado por una caja mecánica operada por controles de velocidad y fuente de energía portable, en la cual se observan dos discos giratorios elaborados en bronce a escala superior y protegidos por una lámina de acrílico, mediante los cuales se pueden hacer girar a diferentes velocidades y en las dos direcciones con el fin de simular el movimiento sobre su eje central, el cual era producido por el usuario en forma manual. Figura 13. Sub unidad 2 Papial. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. En la tercera subunidad y cambiando un poco de formato está la Elaboración de los discos giratorios la cual se conforma por media estructura, una mesa con sus paneles pequeños, ocho herramientas, dos pedazos de oro (réplicas) dos discos sin terminar, una vasija plástica y una madeja de lana; estos artefactos culturales se encuentran bajo custodia de los museos por lo que es imposible interactuar con ellos, razón por la cual la premisa de diseño para esta subunidad fue el que los usuarios pudieran interactuar y admirar cómo mediante unas herramientas tan precarias de piedra se logró la elaboración de unos artefactos tan perfectos. 245 Figura 14. Sub unidad 3 Papial. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. La cuarta subunidad como se nombró anteriormente, está dedicada a la lúdica, y aunque los discos giratorios no fueron artefactos dedicados al juego, al estar esta unidad museográfica está dispuesta a diferentes públicos como colegios, escuelas rurales, cabildos indígenas, zona roja, entre otros territorios, se pretendía que los facilitadores que llevarán esta muestra a sus estudiantes, pudieran jugar y hacer talleres generando un aprendizaje significativo. A su vez permitiendo la apropiación del conocimiento por parte del grupo objetivo y directa o indirectamente con los herederos de estos pueblos. De esta manera el primer juego que compone esta sub unidad se llama “La ruta de Papial” según Gabriel Moreno (1994) y el sitio oficial del Municipio de Pupiales (2012), la palabra Pupiales proviene del quechua y hace referencia “al Cacique Pupial o Papial, papii, papi y que significa secar al sol o al calor lo húmedo; allin, allí, bueno o bien” (¶ 13). Está conformado por 1 tablero, monedas, tarjetas de preguntas y fichas. El objetivo del juego consiste en obtener 18 monedas (puntos) en el recorrido, contestando correctamente las preguntas de las tarjetas. Figura 15. Sub unidad 4 Papial. La ruta de Papial, tablero e instrucciones. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. 246 Figura 16. Sub unidad 4 Papial. La ruta de Papial, fichas. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. El segundo juego es el Cuzumbambico, también llamado Rumbador o Zumbador originario de los pueblos Pastos, con una cuerda y un disco perforado en el centro, eran elaborados en diferentes materiales. En este juego se realizaron réplicas a escala menor, en acrílico traslúcido con la geometría de los discos grabada, a los cuales se les instaló cuerda y manijas para que los usuarios no se maltrataran las manos en el momento de jugar. Está acompañado de un tablero en el que mediante infografías los diferentes usuarios pueden aprender a elaborar los Cuzumbambicos de una forma artesanal con botones. Contribuyendo así a que este juego tradicional no se pierda. Figura 17. Sub unidad 4 Papial. La ruta de Papial. Fuente: © Diana Córdoba, Paula Murillo y Milena Torres. 247 El tercer juego son diez rompecabezas y dos tableros de juego. Haciendo uso de las nuevas tecnologías y las herramientas industriales se diseñaron los rompecabezas sobre acrílico traslúcido de diferentes colores cuyo objetivo se fundamenta en la trasparencia del material para su armado mas fácil. De esta manera se elaboraron mediante el corte láser, fragmentando la geometría andina presente en los discos giratorios. Los módulos y súper módulos se convirtieron en fichas que si bien fueron concebidas para armar diez discos diferentes, también pueden ser usadas en talleres de geometría andina, basados en la repetición de la forma para buscar que estas formas ancestrales generen pregnancia en los usuarios, en esa búsqueda incansable porque los herederos de este patrimonio se apropien de su iconografía, de su identidad y así vuelvan a sus orígenes. Son múltiples las actividades que se pueden obtener a partir de estas fichas, dando rienda suelta a la creatividad de los facilitadores. Figura 18. Sub unidad 4 Papial. Rompecabezas. Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos. Los habitantes de estas tierras usaron pectorales, narigueras, orejeras, brazaletes, entre otros artefactos para diseñar su atuendo. Haciendo alusión a la importancia de estas piezas se cortaron módulos basados en la geometría andina para que los usuarios de la unidad pudieran diseñar a su estilo al Cacique Papial, dando así origen al cuarto y último juego de esta subunidad Diseña a Papial, compuesto por un tablero y varios módulos cortados sobre MDF y recubiertos con vinilo adhesivo dorado, el cual permite simular las fichas como piezas de oro. Figura 19. Sub unidad 4 Papial. Diseña a Papial. Fuente: © Diana Córdoba, Paula Murillo y Milena Torres. 248 Y la quinta y última subunidad está diseñada a partir de las nuevas tecnologías, son cuatro juegos multimedia y dispuestos en la web. Lo que permite que las poblaciones apartadas que no cuentan con servicio de internet puedan tener acceso a estas experiencias. El primer juego de esta subunidad es un rompecabezas, el segundo es para generar nuevas formas a partir de la geometría andina, el tercero es un juego de parejas con módulos nuevos desarrollados a partir de la geometría base de los discos y el cuarto permite girar los discos sobre su propio eje y en sus dos direcciones en un entorno multimedia. Cabe anotar que se dispuso estos juegos en este formato, con el propósito de llevar estas experiencias lúdico pedagógicas a las nuevas tecnología, en el marco del territorio Nariñense ya que geográficamente éste presenta paisajes de sierra y de costa, algunos de ellos tan apartados y carentes de carreteras, en los que el servicio de internet es limitado y ausente en muchos casos, el gobierno actual trabaja fuertemente en estas necesidades con su plan Vive Digital. Sin embargo, por las características topográficas Papial brinda alternativas con un diseño participativo e incluyente, soportado en las tecnologías de la información y la comunicación. Figura 20. Sub unidad 4 Papial. Diseña a Papial. Fuente: © Diana Córdoba, Paula Murillo y Milena Torres. Si bien es cierto que el diseño incluyente es referenciado por el común de las personas como diseño desarrollado únicamente para personas con algún tipo de discapacidad, por ejemplo en Colombia las necesidades en términos 249 de diseño incluyente también se enmarcan por su composición topográfica y es que en particular el Departamento de Nariño presenta mas necesidades a partir de este factor, incluyendo su ubicación al Sur de Colombia. El territorio de los Pastos está comprendido entre Colombia y Ecuador compartiendo así un legado milenario representado en su oralidad, en el uso de su simbología pues el sol de los Pastos o estrella de ocho puntas se encuentra desde el sur de Colombia hasta Quito, capital del Ecuador, de igual manera en la gastronomía con platos como el cuy, las tortillas de papa, el mote, entre muchos otros factores que permitirían plantear otras teorías. Es así como el diseño inclusivo en el que se enmarca este proyecto contempla la manipulación práctica y un sistema ligero para ser trasportado. Permitiendo que esta sabiduría pueda llegar a territorio Ecuatoriano en esa necesidad por conservar la hermandad presente desde los orígenes que unen a estos dos territorios. Los herederos de estos objetos son culturas indígenas vivas que se encuentran organizados por cabildos, muchos ubicados lejos de los cascos urbanos y comunicados por caminos transitados por vehículos de doble tracción y por animales, debido a la ausencia de su pavimento, por lo que su acceso es limitado. Según Muñoz esto da respuesta mediante el diseño incluyente haciendo del medio físico un espacio accesible (Muñoz, 2011). Conclusión Socializar estas experiencias donde la antropología y el diseño gráfico se unen en la lucha por proteger la sabiduría ancestral trasmitiendo a las nuevas generaciones la importancia de sus orígenes, su identidad y su simbología hacen que la vida del investigador cobre sentido y trascienda al no permitir limitarse únicamente a documentos científicos sino a realizar artefactos itinerantes que permiten multiplicar el conocimiento de diferentes maneras. En el interés por romper las barreras sobre todo del entorno social y cultural que enmarcan el territorio circundante a la unidad, se aportó con estos artefactos a una región, a un legado, a un pueblo que sueña con recuperar su saber ancestral, sus raíces, su identidad por medio de un diseño sensible y fácil de entender, que integre a todas las personas sin distingo de edad, sin distingo cultural, sin distingo educativo. 250 Referencias [1] Afanador, C. (2007). Qhapaq Ñan. [Folleto]. Pasto: Autor. [2] Córdoba, D. (2010). Memorias visuales en la Llanura de piedra. Revista Tiempos Nuevos, 17, 76-86. [3] Córdoba, D. (2011). Memorias visuales que retornan. Trabajo presentado en el XII, Congreso de Antropología. Lugares, tiempos, memorias: la antropología Ibérica en el siglo XXI. León. [4] Córdoba, D. Murillo P. & Timarán A. (2013). Arqueología visual de los discos giratorios protopastos. Pasto: I.U. CESMAG. [5] Gombrich, E. (2008). Arte e ilusión. Estudio sobre la psicología de la representación pictórica. Londres: Debate. [6] Moreno, Gabriel (1994). Pupiales. Su historia, su geografía, sus gentes, su patrimonio cultural, su antropología. Pupiales: Sin publicar. [7] Muñoz Alzate, M. (2011). El diseño inclusivo como mediador pada la transformación social. Revista TRAZA. IV, 118-125 [8] Nullvalue. (2005). Le robaron el tesoro indígena a Pupiales. El Tiempo.com [en linea]. Recuperado el 27 de enero de 2013 de http://www.eltiempo.com/archivo/documento/ MAM-1630705. [9] Plazas, C. (1977-78). Orfebrería prehistórica del altiplano nariñense. Revista Colombiana de Antropología, XXI. 197-244. [10]Plazas, C. (1998). Cronología de la Metalurgia Colombiana. Edición virtual del Banco de la República. Recuperado el 10 de marzo de 2012 en www.banrepcultural.org/blaavirtual/índice. [11]Plazas, C. & Falchetti, A. (1982). Unos discos que giran. Revista Lámpara, 20 (87), 1-8. [12]Plazas, C. & Falchetti, A. (1985). Patrones culturales en la orfebrería prehispánica de Colombia. En 45 Congreso Internacional de Americanistas: Metalurgia de América Precolombina. (pp. 229-268). Bogotá- Colombia: Universidad de los Andes. 251 La ergonomía cognitiva, diseño emocional y semiótica en el diseño inclusivo de la interfaz gráfica de usuario para computadoras Jose Alberto Yañez-Castillo1, Ana Lilia Laureano-Cruces1, 2, Iván Garmendia-Ramírez1, 3 Posgrado en Diseño, Línea: Nuevas Tecnologías - Hipermedios. 2Departamento de Sistemas, 3Departamento de Investigación y Conocimiento para el Diseño, 1,2,3 Universidad Autónoma Metropolitana – Azcapotzalco 1 [email protected], [email protected], [email protected] Resumen La interfaz de una computadora utiliza la metáfora de escritorio para lograr una mejor interacción entre los usuarios y la computadora, esto ha ocurrido por poco más de treinta años. Se plantea realizar un cambio en el diseño de la interfaz visual de la computadora comenzando por los elementos interactivos visuales (iconos), con base en el análisis semiótico de los elementos gráficos, agregando ideas de diseño emocional quienes juegan un papel importante en el proceso de toma de desciones del ser humano. El diseño inclusivo o diseño para todos debería ser contemplado dentro de la interfaz gráfica de usuario, pero el diseño inclusivo tiene ventajas y desventajas como por ejemplo la cantidad de usuarios de una computadora personal difiere en edades, habilidades e incluso tareas a realizar sobre la computadora. Palabras clave: diseño emocional, diseño inclusivo, interfaz gráfica de usuario, metáfora de escritorio, semiótica, usabilidad. Introducción La metáfora de escritorio es utilizada en la interfaz gráfica de usuario de una computadora, esta metáfora ha estado presente por más de treinta años en los sistemas operativos comerciales instalados en las computadoras personales, portátiles, entre otras variantes de computadoras. El propósito de utilizar la metáfora fue facilitar la realización de algunas tareas, ser amigable para investigadores, oficinistas y estudiantes. Para cierto tipo de usuarios la metáfora de escritorio resulta ser funcional y para algunos expertos en el tema de la interfaz gráfica no lo es, se puede aseverar que la metáfora de escritorio es un diseño inclusivo, universal el cual persigue y pretende ser utilizado por la gran mayoría de los usuarios. Pero la primer pregunta aquí 252 es: ¿El diseño inclusivo debe ser contemplado en el diseño de la interfaz gráfica de una computadora? Lo anterior es bastante cuestionable ya que las computadoras son utilizadas por personas de: 1) distintas edades (niños, jóvenes, etc.), y 2) diversas habilidades, siendo contrario a lo que establece el diseño inclusivo: diseñar para la mayoría. ¿Sería posible realizar un cambio de diseño a la interfaz gráfica de usuario?, puntalmente tomando en consideración algunos elementos de la metáfora de escritorio, como son los iconos (elementos interactivos visuales) de escritorio. Los cuales serían diseñados incluyendo conceptos como: a) la ergonomía cognitiva, b) diseño emocional, y c) la semiótica. Pretendiendo a su vez la funcionalidad para usuarios que correspondan a un determinado rango de edad, y en consecuencia cuentan con diferentes habilidades. En este trabajo se presenta un avance de la investigación sobre la metáfora de escritorio, el objetivo de la investigación es analizar los elementos representativos de la metáfora visual utilizada en una computadora personal. Este análisis se realiza desde el enfoque tradicional de la interacción humano - computadora (HCI, por sus siglas en inglés), la semiótica y semántica, así como un acercamiento de las ideas del diseño emocional aplicado a la creación de la interfaz gráfica de usuario. De entre los elementos que comprenden la metáfora de escritorio se pretende analizar los iconos, con la finalidad de diseñar un conjunto de elementos interactivos visuales que puedan funcionar adecuadamente para un segmento de usuarios que interactúan con la computadora y se puedan realizar tareas básicas (leer noticias, abrir un documento, enviar mensajes y navegar por internet) por parte del usuario. Interfaz física y visual de la computadora personal Un elemento imprescindible en los artefactos tanto tangibles como intangibles es la interfaz, esta permite que se logre la interacción entre una persona y un artefacto (objeto o máquina), estableciendo una comunicación y retroalimentación entre el usuario y el artefacto. La interfaz visual o interfaz gráfica de usuario (GUI, por sus siglas en ingles) de la computadora personal es una metáfora de escritorio. 253 Interacción a traves de la metafora de escritorio La metáfora de escritorio tiene la idea de lograr una interacción análoga a la realidad (Ver figura 1) persiguiendo el objetivo de persuadir y atraer el sentido de la vista del propio usuario. Basada en la interacción persona – ordenador (IPO), la retórica visual y la intuición del usuario; aunque para algunos investigadores de la IPO debería ser evitada ya que no es considerada un buen modelo. Figura 1. La metáfora del escritorio funge como interfaz entre el usuario y la computadora personal. La metáfora es la figura retórica por excelencia utilizada en el lenguaje visual, consiste en cambiar el sentido directo por el figurado (Regalado, 2006:139). Y no solo se traslada el sentido de una palabra o el nombre, también se transfieren las cualidades de una entidad a otra de forma comparativa, puede ser imágenes, objetos y texto. Como antecedente de la metáfora de escritorio se presenta el esquema (Ver figura 2) elaborado por Tim Mott, trabajador de Xerox, tal esquema no fue creado con la idea de realizar una metáfora del escritorio, sino de simplemente representar tareas como la de archivar, copiar, imprimir o tirar un documento; los documentos y tareas debían ser representados gráficamente en la pantalla de la computadora, la finalidad era facilitar el trabajo de los usuarios con la simple acción de apuntar y dar clic sobre las representaciones gráficas. 254 Figura 2. Esquema de Tim Mott (Moggride, 2006). Primer enfoque de la interfaz grafica de usuario Xerox inicia con su primera estación de trabajo llamada Xerox Alto, aunque solo era un experimento, inicio el paradigma WIMP. Posteriormente llego Xerox Star8010 la cual ya manejaba la metáfora de escritorio, otras compañías comenzaron a integrar la interfaz gráfica de usuario y con ello la metáfora de escritorio. La compañía Apple con su modelo Apple Lisa introdujo de forma comercial las computadoras, al poco tiempo incursiono Microsoft al negocio de las computadoras realizando su propia versión de interfaz gráfica para su sistema operativo Windows 1.0. La compañía Apple presenta en 1984, Macintosh una computadora que contaba con una interfaz tangible (teclado, mouse)1 y una interfaz amigable, ésta debía logra que el usuario se sintiera cómodo usando los programas de una computadora y a su vez facilitarle el uso en una forma general. Después de casi más de treinta años, la metáfora de escritorio es el concepto principal de la interfaz amigable, donde se ha puesto mayor atención a la interacción entre el usuario y el artefacto, así como el deseo de brindar una interfaz transparente que desaparece cuando la computadora es utilizada por el usuario; un autor a favor de esta última idea es Don Norman haciendo saber que para que el usuario pueda concentrarse en su trabajo hay que eliminar la máquina y hacer desaparecer la interfaz (Scolari, 2004:24). 1. Es un dispositivo que realiza la función de apuntador en una interfaz gráfica, su inventor fue Douglas Engelbart. 255 Áreas dentro de la investigación proyectadas al diseño de elementos interactivos visuales Ergonomía cognitiva, interacción y sentidos El término de ergonomía cognitiva (EC) de acuerdo a José Cañas (2011), puede definirse como: la disciplina que estudia los aspectos cognitivos de la interacción entre las personas, el sistema de trabajo y los artefactos con el objeto de diseñarlos para que la interacción sea eficaz. Así también de acuerdo con el autor del libro ergonomía cognitiva, la computadora se ha convertido en el principal artefacto de nuestras vidas, esto es una razón por la cual se sustituye en el término ergonomía por interacción persona – ordenador. Parte de la interacción con una computadora se realiza a través los sentidos de la vista y el oído, y el 80% del aprendizaje general se realiza a través del sentido de la vista, es importante poner especial atención al diseño de elementos interactivos visuales correspondientes a la interfaz gráfica de usuario. En la interacción ocurren procesos cognitivos como: percepción, aprendizaje y solución a problemas; los cuales deben ser considerados para explicar tareas cognitivas por mencionar algunas como: buscar e interpretar información, toma de decisiones, solución de problemas. Para Norman los artefactos cognitivos son aquellos que mantienen, presentan y operan sobre la información para cumplir una función representacional y afectan la actividad cognitiva humana. Para el caso de esta investigación la interfaz gráfica de usuario es considerada un artefacto cognitivo. De acuerdo a Cañas existe un nivel de percepción individual y un nivel anterior llamado sensorio–motor estos dos son importantes cuando los usuarios trabajan con interfaces gráficas. Se utilizan acciones naturales, que implican al nivel sensorio – motor, sin requerir la percepción individual; pero es difícil utilizar un único nivel para tratar artefactos complejos como una GUI (graphic user interface), que también precisa de búsquedas perceptuales o conceptuales (tareas cognitivas); por las razones anteriores se propone que el diseño emocional sea contraparte en el diseño de elementos interactivos visuales correspondientes a la interfaz gráfica ya que las emociones pueden hacer el balance con los procesos cognitivos. Diseño emocional Los más recientes descubrimientos científicos demuestran que las emociones juegan un papel esencial en: 1) la toma racional de decisiones, 2) la percepción, 3) el aprendizaje y varias funciones cognitivas. 256 La evidencia muestra que un equilibrio emocional sano es primordial para la inteligencia y para la solución creativa y flexible de problemas (LaureanoCruces, Hegmann-González, 2011). De acuerdo a Rosalind Picard (1998), ¿si se pretende? desarrollar sistemas que en verdad sean capaces de simular comportamientos inteligentes y que en consecuencia se adapten y se relacionen naturalmente con los seres humanos, estos deben contar con la capacidad de: reconocer, expresar y tener emociones. En esencia tener, lo que se ha llegado a conocer cómo inteligencia emocional. Cytowyc (citado en Picard, 1998), hace notar que las personas con frecuencia dicen; lo siento, no estaba pensando pero nunca dicen, lo siento, no estaba sintiendo. El objetivo del diseño emocional es hacer que la vida de las personas sea más placentera al utilizar objetos que cumplen con el modelo de este diseño. También nombrado como diseño afectivo se define como el estudio de la relación entre las características físicas y racionales de los productos y los efectos emocionales o subconscientes que causan en las personas que interaccionan con ellos, y el uso de ese conocimiento para lograr diseñar productos más satisfactorios (PRODINTEC, 2001). Tal es el caso del diseño de los agentes pedagógicos que incluyen emociones con el fin de contar con una interacción más efectiva durante el proceso de enseñanza-aprendizaje. (Laureano-Cruces, Mora-Torres, Ramírez-Rodríguez, De Arriaga-Gómez, 2011), (Laureano-Cruces, Mora-Torres, Ramírez-Rodríguez, Gamboa-Rodríguez, 2010), (Mora-Torres, Laureano-Cruces, Gamboa-Rodríguez, RamírezRodríguez, Sánchez-Guerrero, 2014). Un ejemplo de diseño emocional es el siguiente: en la década de los 90, Masaaki Kurosu y Kaori Kashimura investigadores japoneses afirmaron que los objetos atractivos funcionan mejor, afirmaron esto por medio de experimentos realizados sobre el diseño de los botones en los cajeros automáticos, descubriendo que los diseños más atractivos eran más fáciles de usar por los usuarios. Norman interpreta lo anterior así: las cosas atractivas hacen que las personas nos sintamos mejor, lo que nos lleva a pensar de forma más creativa. ¿Cómo se traduce eso en mejor usabilidad? Muy simple, haciendo que las personas puedan encontrar soluciones a sus problemas más fácilmente. (Cañada & Van Hout, 2005). En el diseño emocional existen varios modelos conocidos, entre estos se encuentra el de Peter Desmet, Patrick Jordan, Rafaeli y Vilnai y el más sobresaliente pertenece a Donald Norman; para este trabajo de investigación el 257 modelo de diseño emocional a seguir será el de Rafaeli y Vilnai ya que solo involucra tres dimensiones (Ver figura 3) que tienen cierta relación con las áreas de investigación que se proponen incluir en el diseño de los elementos interactivos visuales. Modelo teórico de Rafaeli y Vilnai Tres mecanismos o dimensiones que evocan emociones: • Instrumental, donde la emoción generada es propia de la función práctica del producto y guarda relación con la ergonomía cognitiva e usabilidad. • Estética, la emoción es creada por el gusto propio de las personas hacia ciertas particularidades del diseño, en este caso el de los elementos interactivos visuales. • Simbólica que está conexa a lo que el objeto comunica y la asociación realizada por las personas, esta dimensión tiene correspondencia con el área de la semiótica. Figura 3. Modelo teórico de Rafaeli y Vilnai sobre diseño emocional (Yañez, 2014). Modelo de Donald Norman – 3 reacciones emocionales Este modelo será utilizado para realizar la evaluación de los elementos interactivos visuales diseñados en esta investigación. En el modelo de Norman operan tres niveles (Ver figura 4): visceral, conductual y reflexivo los cuales van relacionados entre sí y en cada nivel el usuario del artefacto tiene una reacción; la hipótesis para los elementos interactivos visuales diseñados es: sí se cumple con cada uno de los tres niveles del modelo de Norman, entonces se estarían generando emociones a través de los mismos. 258 Figura 4. Modelo teórico de Donald Norman sobre diseño emocional (Yañez, 2014). Comunicación persona – ordenador – semiótica La manera en que un diseñador y un usuario logran comunicarse es a través de los diseños del propio diseñador, pero de qué forma es la comunicación entre la persona y el ordenador (computadora). En el modelo de comunicación propuesto por Claude Shannon y Warren Weaver, se explica que la comunicación se lleva a cabo de la siguiente forma: un emisor produce un mensaje empleando un código, dicho mensaje es enviado por un canal hacia un receptor. Se establece un modelo de comunicación entre persona y ordenador donde el emisor/receptor es tanto la persona como ordenador en todo momento del proceso de comunicación (Ver figura 5), la interfaz gráfica es el canal por el cual viajan los mensajes y estos últimos conformados por un conjunto de signos, estudiados desde la semiótica. Figura 5. Elementos de la comunicación entre persona - ordenador (Yañez, 2014). 259 La semiótica con base en la idea de Peirce y Saussure El significado de los signos en diferentes contextos corresponde a los estudios de semiótica. La palabra semiótica proviene del término griego semiotikos, lo cual significa: un interpretador de signos. Para Peirce un signo es algo (dentro de el contexto de esta investigación ese algo puede ser una imagén, una gráfica, los propios iconos de la metafora del escritorio) que está por otra cosa y que es entendido o tiene algún significado para alguien; dicho signo tiene una teoría tríadica concebida por Peirce la cual está conformada por: un objeto, un representamen (o signo propiamente dicho) y un interpretante (la representación, algo que se presenta); por lo tanto el representamen es el signo que sustituye a el objeto y el interpretante es la idea que se transmite o percibe sobre dicho objeto. Fernandind de Saussure, enfocado al área de la lingüística tiene una concepción de un signo lingüístico, conformado por una entidad binaria o diádica (significante y significado). El significante se refiere al aspecto material y el significado al concepto mental; lo que une al significante con el significado es una convención entre un grupo de personas. Dentro de la semiología de Saussure, un mismo significante puede tener diferentes significados o varios significantes con el mismo significado. Con base en la teoría de Peirce, Saussure y Hjelmslev se propone un esquema (Ver figura 6) de como los elementos de la semiótica están involucrados en la realidad externa (objetos/referente), representada por signos, símbolos, iconos (representamen/significante); evocando (interpretante/significado) un concepto mental, pensamientos u emociones que dependen de la realidad propia de cada individuo. Figura 6. Elementos de la semiótica con base en la teoría de Peirce, Saussure y Hjelmslev (Yañez, 2013). 260 Un icono es un signo. Del icono al elemento interactivo visual. Los iconos son el dialecto de una interfaz gráfica de usuario, los cuales pueden variar, también el conjunto y manera de expresar de estas señales puede hacerlo (Caplin, 2001:26). Así mismo dicho autor menciona que para algunos el icono solo es una imagen gráfica que servirá para identificar el producto y para otros muestra la función del producto de manera acertada, algo que, para alguien, representa o se refiere a algo en algún aspecto… (Pierce en Sosa, 2006). Por lo tanto ese algo, el icono en la metáfora de escritorio puede ser representado con otro algo, figura o imagen gráfica, la cual puede expresar o significar otra relación en la mente del usuario y puede funcionar de manera adecuada para él mismo. Por otra parte es un elemento visual en la pantalla del ordenador por medio del cual surge una interacción entre el usuario y el ordenador, un elemento interactivo visual es lo que se propone. Un ejemplo de lo dicho anteriormente son los iconos de la papelera de reciclaje, el primer icono (Ver figura 7) corresponde al sistema operativo (S.O.) Windows y el segundo icono al S.O. Macintosh, donde haciendo referencia a la metáfora estos dos iconos indican (botes de basura) en la realidad (mundo tangible, oficina) que sirven para desechar los documentos, pero ciertamente en una computadora no se trabaja con documentos tangibles que puedan desecharse por completo; por lo tanto si un grupo de usuarios se pusiera de acuerdo en un elemento interactivo visual para desechar los archivos generados en la computadora podría ser una simple caja de cartón (ver figura 7) u otro signo, algo que funcionará de forma similar a los dos iconos anteriores, solo bastaría que este representamen le evocará algún significado en la memoria del usuario y lo comprendiera con el simple hecho de verlo. Figura 7. Todo icono es un signo. Elementos interactivos visuales (Yañez, 2013). Diseño inclusivo Conocido también como diseño universal o diseño para todos, establece que se deben diseñar y crear productos y servicios para la mayor parte de 261 los usuarios, sin importar su edad, habilidades o si tiene o no discapacidades. Pero cada persona tiene habilidades, aptitudes y emociones diferentes, esto resulta en segmentos de personas con varias diferencias entre ellas. Resultaría complicado diseñar una interfaz gráfica de usuario para todos los que utilizan una computadora, tal es el caso de las actuales interfaces en los sistemas operativos y es por eso que la diversidad de usuarios repercute en la propuesta de esta investigación. Si en esta investigación se logran diseñar elementos interactivos visuales que resulten intuitivos, emocionales y con una idea en la mente del segmento de usuarios propuesto se daría un paso hacia un verdadero diseño inclusivo en la interfaz gráfica de la computadora. Conclusiones Es posible diseñar nuevos elementos interactivos visuales (iconos) para un cierto segmento de usuarios, estos facilitarían la migración hacia el uso de las nuevas tecnologías, pero se estaría apuntando en contra del diseño inclusivo ya que nuestro segmento de usuarios no considera a todos los usuarios en este momento. Difícilmente en el área de la interfaz gráfica de usuario es difícil mantener el diseño inclusivo, ya que cada usuario tiene diferentes habilidades y diversas concepciones de los iconos en la computadora. La semiótica realiza una función teórica, es decir, y es difícil tomar tales teorías para integrarlas al diseño de iconos funcionales, si se lograran aplicar se pueden obtener buenos resultados; por ejemplo: realizar una personalización de la interfaz gráfica que mejore el uso de las nuevas tecnologías. Al diseño emocional le ocurre lo mismo que a la semiótica, tiene teorías sobre cómo debe funcionar y verse el objeto, pero no como aplicar esos conocimientos al diseño de una interfaz gráfica. Tendría que adoptarse una metodología para el análisis y diseño como es la ingeniería kansei y el modelo informático de la teoría OCC (Ortony, Clore, Collins, 1996) para traducir la teoría, la investigación y los conocimientos a una evidencia operativa. No se pretende modificar la metáfora de escritorio, sino diseñar otro paradigma de interfaz gráfica de usuario basado en la semiótica y diseño emocional podría facilitar el uso de la computadora a usuarios que la han abandonado, o a quienes les cuesta trabajo su uso debido a que pertenecen a generaciones que no tuvieron una participación activa. 262 Agradecimientos Este proyecto forma parte de la investigación desarrollada por José Alberto Yañez-Castillo para obtener el grado de Maestro en Diseño (Visualización de la información) por la Universidad Autónoma Metropolitana-Azcapotzalco. Forma parte del proyecto de investigación: consciencia artificial y emociones de la misma Universidad. Referencias [1] Caplin, S. (2001). Diseño de iconos. Iconos graficos para el diseño de interfaces. México: Edicones G.Gili [2] Cañada, J., & Van Hout, M. (2005). Donald norman y el diseño emocional. Visual, (113), Recuperado de <http://s3.amazonaws.com/tck-site/docs/2005_VISUAL_Norman_TheCocktail.pdf > [3] Cañas, J. J. (2001). Ergonomía cognitiva: aspectos psicológicos de la interacción de las personas con la tecnología de la información. (p. 260). Ed. Médica Panamericana. Recuperado de: < http://books.google.com.mx/books/about/Ergonomía_cognitiva. html?id=GqV_G-gkkwUC&redir_esc=y > [4] Comunidad de diseño de experiencia. (s.f.). ¿Qué es el diseño inclusivo? Recuperado de: <http://www.uxd.cl/2011/12/articulos/experiencia-de-usuario/%C2%BFque-es-eldiseno-inclusivo/> [5] Crow, D. (2008). No te creas una palabra. Una introducción a la semiótica. (1ra ed., p. 192). Barcelona: Promopress. [6] De la Torre y Rizo, G. (1992). El Lenguaje de los símbolos gráficos: introducción a la comunicación visual. (p.130) Editorial Limusa. [7] Fundación PRODINTEC, (2001). Diseño afectivo e ingeniería Kansei. Centro Tecnológico para el Diseño y la Producción Industrial en Asturias, España. Recuperado de: <http://www.prodintec.es/prodintec/es/ingenieria-kansei> [8] Hall, S. (2007). Esto significa esto, esto significa aquello. Semiótica: guía de los signos y su significado. (p. 176). Barcelona, España: Editorial Blume. [9] Hassan, M. Y., & Ortega, S. S. (2009). Informe APEI sobre usabilidad. Recuperado de: < http://www.nosolousabilidad.com/manual/1.htm >. [10]Lakoof, G., & Johnson, M. (1995). Metáforas de la vida cotidiana. (2a ed., p. 188). Editorial Catedra. Recuperado de: http://www.textosenlinea.com.ar/academicos/Lakoff y Johnson - Metaforas de la vida cotidiana - Selección de Caps.pdf [11]Laureano-Cruces, A.L., Hegmann-González, E. (2011). Maze Videogame that Adapts to the User’s Emotions Accord- ing to his Behavior, ICGST-Artificial Intelligence Machine Learning Journal, Vol. 11, No. 2, 2011, pp. 21-25. Recuperado de: < http://www.icgst. com/paper.aspx?pid=P1121102462 > [12]Laureano-Cruces, A.L., Mora-Torres, M., Ramírez-Rodríguez, J., De Arriaga-Gómez, F. (2011) Operative Strategies Related to an Affective-Motivational Architecture to Achieve Instructional Objectives, ICGST-Artificial Intel- ligence Machine Learning Jour- 263 nal, Vol. 11, No. 2, 2011, pp. 15-20. Recuperado de: < http://www.icgst.com/paper. aspx?pid=P1121139825> [13]Laureano-Cruces, AL., Mora-Torres, M., Ramírez-Rodríguez, J., Gamboa-Rodríguez, F. (2010). Implementation of an affective-motivational architecture tied to a teaching-learning process. En Proceedings de E-Learn 2010 World Conference on E-Learning in Corporate Govermment, Healthcare, & Higher Education, pp. 1930-1938. ISBN: 1-88009453-5. Orlando, Florida, October 18-22. [14]Lineback, N. (s.f). The Graphical User Interface Gallery. Recuperado de: < http://toastytech.com/guis/index.html > [15]Marrero, C. (2006). Interfaz gráfica de usuario: Aproximación semiótica y cognitiva. Universidad de la Laguna, Tenerife, España. Recuperado de: <http://www.chr5.com/investigacion/investiga_igu/igu_aproximacion_semio-cognitiva_by_chr5.pdf> [16]Mercovich, E. (1999). Ponencia sobre diseño de interfaces y usabilidad: cómo hacer productos más útiles, eficientes y seductores. Notas de la ponencia en: SIGGRAPH ’99, Buenos Aires, Argentina. Recuperado de:<http://www.gaiasur.com.ar/infoteca/siggraph99/diseno-de-interfaces-y-usabilidad.html> [17]Moggride, B. (2006). Designing interactions. (p. 792). Estados Unidos: MIT Press. Recuperado de: < http://www.designinginteractions.com/book > [18]Mora-Torres, M., Laureano-Cruces, A.L., Gamboa-Rodríguez, F., Ramírez-Rodríguez, J., Sánchez-Guerrero, L. (2014). An Affective-Motivational Interface for a Pedagogical Agent. En International Journal of Intelligence Science, 2014, 4, 17-23 Published Online January 2014. < http://www.scirp.org/journal/ijis http://dx.doi.org/10.4236/ijis.2014.41003 > [19]Mora-Torres, M., Laureano-Cruces, A.L., Velasco-Santos, P. (2011). Estructura de las Emociones dentro de un Proceso de Enseñanza-Aprendizaje. Perfiles Educativos-UNAM. Vol. XXXIII, núm. 131, enero – marzo 2011, pp 64-79. ISSN: 0185-2698. [20]Neiret, Sara Noemi (2008). Diseño de Interfaz en el Software Educativo Infantil = Diseño de Emociones. Tesis de grado para obtener el Grado de Especialista en Tecnología Informática Aplicada a la Educación. Universidad Nacional de La Plata Facultad de Informática Diseño. [21]Norman, D. (2005). El diseño emocional: Por que nos gustan o no los objetos cotidianos. (p. 279). Editorial Paidós. [22]Nielsen, J. (1993). Usability engineering. (p. 362). Estados Unidos: Morgan Kaufmann. [23]Ortony, A., G.L. Clore y A. Collins (1996).La estructura cognitiva de las emociones. Madrid, Editorial SigloXXI [24]Regalado, E. (2006). Lectura de imagenes. elementos para la alfabetización visual curso básico. (p. 160). México: Plaza y Valvere editores. [25]Picard R. (1998). Affective Computing. Editorial (MIT). [26]Shneiderman, B., & Plaisant, C. (2005). Diseño de interfaces de usuario: estrategias para una interacción persona-computadora efectiva. (4a ed., p. 722). Pearson Educación. 264 [27]Sosa, O. (2006). Diseño de la Interfaz Gráfica de Usuario de un Cliente de Mensajes por Internet para Dispositivos de Comunicación Móviles. Tesis maestría, Departamento de Arquitectura y Diseño, Universidad de las Américas Puebla. Recuperado de: <http:// catarina.udlap.mx/u_dl_a/tales/documentos/mdi/sosa_t_o/portada.html> [28]Shim, J. (2012). Arium: Beyond the desktop metaphor. (Tesis de Maestría, Carnegie Mellon University). Recuperado de: <http://repository.cmu.edu/cgi/viewcontent.cgi?article =1033&context=theses> [29]The mothership. (s.f.). Lisa 1. It works the way you do. Recuperado de: <http://www. macmothership.com/gallery/gallery2.html 265 La influencia de la emociones en el fenómeno de la consciencia Ana Lilia Laureano-Cruces1,2, Martha Mora-Torres2, Lourdes Sánchez-Guerero1, Javier Ramírez-Rodríguez1 y Javier Garduño-Cimental2 Departamento de Sistemas, Universidad Autónoma Metropolitana – Azc., 2 Posgrado en Ciencia e Ingeniería de la Computación, Universidad Nacional Autónoma de México 1 {clc, lsg, jararo }@azc.uam.mx, [email protected], [email protected] Resumen En este artículo hacemos un acercamiento a los conceptos que implican al fenómeno de la consciencia artificial. A través de las siguientes secciones dejamos claro que la puerta grande para entender el fenómeno de la consciencia es a través de las emociones a quienes se les considera los guardianes de ésta y en consecuencia de nuestra conducta. En la rama de inteligencia artificial con el fin de modelar un comportamiento se han tomado en consideración varias corrientes de diseño que van desde: 1) el simbolismo, 2) sub-simbolismo, incluyendo una 3) combinación de ambos. En este instante se germina otra forma de diseño. Ya no deseamos comportamientos situados y ubicados con características reactivas, ni comportamientos puramente racionales. Deseamos generar un cierto grado de autonomía utilizando emociones. Las valencias de estas últimas serán las que permitirán generar distintas acciones; ya no serán acciones del tipo estímulo-respuesta. Sino que pasarán por un tamiz constituido por las emociones y su afectación que proviene: a) del entorno y las distintas sensaciones, y b) las motivaciones internas. Estas últimas podrán disponer de distintas descripciones de acuerdo a las distintas vivencias. A continuación y comprendiendo que parte de esa autonomía es ser capaces de modelar el fenómeno de la consciencia a través de las emociones; queremos dejar constancia de la importancia que tiene un modelo de emociones para lograr dicha autonomía. Palabras clave: consciencia artificial, homeostasis, emociones, neuro mediadores, sueño, hormonas. Abstract In this article we make an approach to the concepts that imply the phenomenon of the artificial consciousness. Through the following sections it clear that large to access the door phenomenon of consciousness is through emotions that are considered the guardians of consciousness. The branch of artificial intelligence in order to model human behavior are taken into account several design flows ranging from: 1) the symbolism, 2) sub-symbo266 lism, including a 3) combination of both. At this time another design form is germinated. No longer wish behaviors located and placed with reactive features, nor purely rational behavior. We generate a certain degree of autonomy using emotions. The valences of the latter will be able to generate different actions; Actions are no longer stimulus-response type. But go through a sieve consisting of emotions and its effect coming: a) the environment and the different sensations, and b) internal motivations. The latter may have different descriptions according to different experiences. Then and realizing that some of that autonomy is to be able to model the phenomenon of consciousness through the emotions; want to acknowledge the importance of a model of emotion to achieve autonomy. Key words: artificial consciousness, homeostasis, emotion, neuro mediators, sleep, hormones. Introducción Uno de los objetivos de la inteligencia artificial o llamada también ciencia cognitiva es simular el comportamiento que en el caso de estudio se refiere a simular el funcionamiento de un cerebro. Donde un cerebro es definido como una masa orgánica que funciona exactamente como un circuito eléctrico (Rodrígues dos Santos, 2013) y produce un fenómeno llamado consciencia. La consciencia es una palabra extraña, a la vez vaga que funciona como un forro que es capaz de adaptarse a todo y al mismo tiempo precisa como un rayo láser. Cómo podríamos distinguir una máquina con un comportamiento que implique consciencia de aquella que no lo tiene. Las dos en un momento dado pueden tener el mismo comportamiento, sin embargo en un caso es el resultado de una programación diseñada y anticipada, y en otro caso es el resultado de una inferencia interna. Esta última es producto precisamente de la valencia de las emociones. Estudios recientes sobre la mente humana, revelan que las emociones juegan un papel importante durante el proceso de toma de decisiones, más aún, nos indican que los procesos cognitivos y las emociones trabajan juntos de manera sincronizada para formar comportamientos. Bajo esta teoría se presenta el análisis y diseño de un modelo de emociones que afecta el proceso de toma de decisiones (Acevedo-Moreno, 2011). 267 Las emociones de acuerdo a Reeve mencionado en (Laureano-Cruces, Acevedo-Moreno, Mora-Torres, Ramírez-Rodríguez, 2012), son multidimensionales, existen como fenómenos subjetivos, biológicos, de propósito y sociales. Cuando hablamos de subjetivos nos referimos a como es que nos hacen sentir, por ejemplo, alegres o irritados. En el caso de los biológicos nos referimos a la movilización de energía para adaptarse a cualquier situación que se presente. Por otro lado se les puede ver como agentes de propósito, ya que crean un deseo motivacional. Y finalmente tienen un aspecto social ya que comunican lo que sentimos a los demás y viceversa. Se hace hincapié en que estamos hablando de un equilibrio emocional, todos sabemos que los extremos pueden causar gran daño en el proceso de razonamiento para la toma de decisiones. Sin embargo de acuerdo a investigaciones sobre el tema existe evidencia de que pocas emociones pueden tener el mismo efecto. Por lo tanto se parte del supuesto de que existe una salud e inteligencia emocional dentro del cuadro del cual nosotros partimos para poder desarrollar los modelos que permiten tomar una decisión tomando en consideración las emociones. Ante todo debemos saber que nuestro cerebro trabaja a máxima potencia sin guardar energía. Todo el tiempo está al 100% de su capacidad día y noche; lo mismo si estas dormido que despierto. Pero solamente el 1% de esta actividad es cognitiva, en otras palabras accesible a la consciencia, esto es, todo eso que nos hace: hablar, movernos, pensar, inventar, decidir o movernos. El 99 % restante es inconsciente; sirve para reforzar de manera permanente todos nuestros recursos neuronales, y representa el funcionamiento cortical por defecto. Trabajaremos con tres autores que consideramos emblemáticos sobre los campos de las emociones, el fenómeno de la consciencia y la consciencia artificial. Ellos son Rosalind Picard, Patrice Van Eersel e Igor Aleksander respectivamente. Revisaremos extractos de ideas de algunos de ellos, tratando de entrelazarlos y así darle un sustento al fenómeno de la consciencia; dejando clara su conexión con las emociones y su papel relevante en el proceso de toma de decisiones que permite simular dicho fenómeno. Comenzaremos por enumerar una serie de características desde el punto de vista de las neurociencias. Características de la consciencia De acuerdo a Igor Aleksander (2005), la consciencia es la capacidad que tiene el ser de percibir el mundo y dotarlo de un significado a través de las 268 representaciones de éste, en un mundo interior. Para cada cosa que existe en el mundo externo existe una representación interna y estas representaciones las crea el individuo a lo largo de su vida y éstas conllevan experiencia que se acumula desde que nace. Para lograrlo debe ser capaz de colocar su yo en el mundo externo a través de: 1) la imaginación, 2) poner atención a eventos importantes, 3) planificar con antelación, 4) sentir emociones con respecto a lo que puede suceder. Homeostasis y las emociones De acuerdo a Van Eersel (2012) la consciencia es el arte de permanecer en constante inestabilidad. Esta idea es válida tanto para un geranio como para una lombriz, en este caso la consciencia se refiere al espíritu que corresponde a la voluntad de sobrevivir y a la capacidad social de distinguir el interior del exterior. En otras palabras es el arte de regular las medidas químicas de un cuerpo. Este proceso es omnipresente y se conoce como homeostasis. Cuando hablamos de homeostasis hablamos de la capacidad que tiene un sistema de auto regularse, en otras palabras, ser capaz de estabilizarse tomando en consideración los cambios en su interior de acuerdo a los cambios exteriores. Lo anterior implica tener en consideración una gama de umbrales viables en las distintas variables que regulan el proceso, y que se lo permiten. Cuando la estabilidad se produce implica la muerte. De esta forma podemos decir que la homeostasis conlleva la vida y esta reflexión vale tanto para una bacteria como para un ser humano. En el caso de un ser humano se traduce en vivir, sentirse bien y feliz, esta reflexión nos lleva a pensar en las sensaciones que implican emociones. El fenómeno de la cartografía o descripción Los seres humanos son conscientes porque saben y piensan y esto se debe en gran medida al proceso de crear cartografías; lo que les permite integrar descripciones provenientes del entorno. Este proceso es llevado a cabo de forma constante y sin parar por nuestro cuerpo. Se desarrolla a partir de las pequeñas sensaciones percibidas por el cuerpo; generando de esta forma: a) un modelo interno de él mismo, b) de él mismo en el mudo, y 3) en consecuencia un modelo del mundo. Este desarrollo es válido para: una mosca, un caracol y una bacteria. 269 La diferencia para el ser humano consiste en que su cerebro posee una complejidad de proceso que le permite llegar más lejos que ningún otro ser vivo conocido. Debido a la capacidad para generar descripciones e integrarlas como un todo, posee la capacidad de volverse a su interior y reconocer esas descripciones como propias y hacer emerger una instancia llamada yo soy. Las emociones Los más recientes descubrimientos científicos demuestran que las emociones juegan un papel esencial en: 1) la toma racional de decisiones, 2) la percepción, 3) el aprendizaje, y 4) varias otras funciones cognitivas. La evidencia muestra que un equilibrio emocional sano es primordial para la inteligencia y para la solución creativa y flexible de problemas. De acuerdo a Rosalind Picard (1998), ¿si se pretende? desarrollar sistemas que en verdad sean capaces de simular comportamientos inteligentes y que en consecuencia se adapten y se relacionen naturalmente con los seres humanos, estos deben contar con la capacidad de: reconocer, expresar y tener emociones. En esencia tener, lo que se ha llegado a conocer cómo inteligencia emocional. Cytowyc (citado en Picard, 1998), hace notar que las personas con frecuencia dicen; lo siento, no estaba pensando pero nunca dicen, lo siento, no estaba sintiendo. Antonio Damasio no duda que todo el proceso de cartografía, llegue al cerebro cargado de emociones, lo mismo para una lombriz que para un caracol. Lo que conocemos como emociones representa un valor utilitario que nos permite dar una valoración al proceso de homeostasis. Esto es, si mis medidas están en equilibrio mis sentimientos son buenos. Sí mis medidas se encuentran en desequilibrio mis sentimientos son malos. Las emociones son una experiencia hedonista que tiene dos polos placer o sufrimiento. Lo que no sabemos es que esta bipolaridad se aplica a las descripciones particulares de las experiencias que nosotros llamamos estructura cognitiva de las emociones (Laureano-Cruces, Mora-Torres, Ramírez-Rodríguez, Gamboa-Rodríguez, 2010; Laureano-Cruces, Guadarrama-Ponce, Mora-Torres, Ramírez-Rodríguez, 2011; Laureano-Cruces, Rodríguez-García, 2011; Laureano-Cruces, Hernández-González, Mora-Torres, Ramírez-Rodríguez, 2012; Laureano-Cruces, Acevedo-Moreno, Mora-Torres, Ramírez-Rodríguez, 2012; Mora-Torres, Laureano-Cruces, Velasco-Santos, 2011; Ortony, Clore, Collins, 1996). Por lo tanto estas descripciones deben contar con una cartografía emotiva, esto es contar con información que permita predecir durante el proceso de imaginación, sufrimiento o felicidad. Debe ser un mapeo en continuo movimiento, en otras palabras el sistema debe estar 270 ubicado y situado con el fin de estar conectado al mundo. De esta forma y de acuerdo a Johnson-Laird y Shafir (citados en Picard, 1998) el papel de las emociones resulta esencial para el proceso de razonamiento, ya que resulta imposible determinar por lógica, dadas ciertas premisas, y un número infinito de conclusiones, cuáles de estas resultan razonables. Aun tomando en cuenta el paralelismo masivo del cerebro humano resulta imposible registrar todas las posibilidades relacionadas con nuestras decisiones. Procesos automáticos que pueden o no ser conscientes y su relación con las emociones Al llegar los primeros homínidos la consciencia homeostática de los seres vivientes entra en un proceso de piloto automático, actualmente es como están activadas nuestras funciones esenciales como: caminar, respirar, escuchar, esto forma parte de nuestra parte reactiva. Como ya mencionamos el 1% de esta actividad es cognitiva, en otras palabras accesible a la consciencia, esto es, todo eso que nos hace: hablar, movernos, pensar, inventar, decidir o movernos. El 99 % restante es inconsciente; sirve para reforzar de manera permanente todos nuestros recursos neuronales, y representa el funcionamiento cortical por defecto de acuerdo a Bernard Mazoyer mencionado en (Cyrulnik, Bustany, Oughourlian, André, Janssen, Van Eeresel, 2012). El salto evolutivo del primate humano se da debido a la abundancia de estructuración concedida a las neuronas. Siendo el humano el animal que cuenta con más neuronas alineadas en millares de columnas y renglones; ellas son capaces de un proceso de cartografía que produce una riqueza inigualable e inimaginable además de una asombrosa precisión en las descripciones logradas. Con base en los anteriores características se cree que algún día seremos capaces de leer los pensamientos y las emociones de cualquier persona sí somos capaces de tener acceso a sus descripciones a través de su red neuronal. Estas descripciones en el ser humano son innumerables y ellas contienen sensaciones que se dividen en tres categorías de acuerdo a su procedencia: • Introspección. Sensaciones que provienen de nuestras: vísceras, y toda experiencia interior, sea cognitiva o emocional. • Propiocepción. Proyecta las emociones de la cartografía de la descripción en curso que provienen del sistema músculo-esquelético; nos informa sobre nuestros movimientos gobernados por nuestro sentido so271 fisticado del equilibrio y también de los que sentimos con las distintas acciones. • Externocepción. Proyecta las emociones de la cartografía que pertenece a la descripción que proviene de: nuestros cinco sentidos y nuestra piel al contacto con el mundo. Nos proporciona información sobre nuestro entorno y gracias a las neuronas espejo lo que concierne a sensaciones de otro ser humano (empatía). En otras palabras, aquello que en un ser humano, un erizo, o una lombriz es gozo o sufrimiento y además puede ser recordado, pensado o imaginado, ha creado una descripción que tuvo inicio a partir de las emociones; mismas que fueron grabadas en nuestras neuronas. Cuando un ser humano siente, habla o se acuerda de cualquier cosa que le concierne o le concierne a su mundo, es porque su cerebro proyecta una descripción creada a partir de una cartografía que incluye emociones y que previamente fue creada a partir de las distintas percepciones de su cuerpo. Imágenes que evocan placer o sufrimiento suscitan prontas reacciones que corresponden a reacciones del cerebro motor dentro de ciclos estimuloreacción. Sin embargo, nada de esto es de forma consciente ya que estas reacciones comienzan a desenvolverse en la forma embrionaria para los grandes mamíferos y además de forma masiva en casa del humano. Las hormonas - los neurotransmisores y las emociones Los neurotransmisores son las sustancias químicas que se encargan de la transmisión de las señales desde una neurona hasta la siguiente a través de las sinapsis. La acetilcolina fue el primer neurotransmisor en ser descubierto. Fue aislado en 1921 por in biólogo alemán llamado Otto Loewi, la acetilcolina es la responsable de la estimulación de los músculos, incluyendo los músculos del sistema gastro-intestinal. También se encuentra en neuronas sensoriales y en el sistema nervioso autónomo, y participa en la programación del sueño MOR (movimiento ocular rápido). En 1946, otro biólogo alemán Von Euler, descubrió la noradrenalina, conocida también como norepinefrina; esta fuertemente asociada con la puesta en alerta máxima de nuestro sistema nervioso. Es prevalente en el sistema nervioso simpático, e incrementa la tasa cardiaca y la presión sanguínea. Nuestras glándulas adrenales la liberan en el torrente sanguíneo, junto con su pariente la epinefrina. Es también importante para la formación de re272 cuerdos. El estrés tiende a agotar nuestro almacén de adrenalina, mientras que el ejercicio tiende a incrementarlo. Otro familiar de la norepinefrina y la epinefrina es la dopamina. Es un neurotransmisor inhibitorio, lo cual significa que cuando encuentra su camino entre sus receptores, bloquea la tendencia de esa neurona a disparar. La dopamina esta fuertemente asociada con los mecanismos de recompensa en el cerebro. Las drogas como la cocaína, el opio, la heroína, y el alcohol promueven la liberación de dopamina, ¡al igual que lo hace la nicotina! La grave enfermedad mental llamada esquizofrenia, se ha demostrado que implica cantidades excesivas de dopamina en los lóbulos frontales, y las drogas que bloquean la dopamina son usadas para ayudar a los esquizofrénicos. Por otro lado, poca dopamina en las áreas motoras del cerebro es responsable de la enfermedad de Parkinson, la cual implica temblores corporales incontrolables. En el caso de la serotonina; está íntimamente relacionada con la emoción y el estado de ánimo. Poca serotonina lleva a la depresión, problemas con el control de la ira, el desorden obsesivo-compulsivo, y el suicidio. Por otro lado las drogas como: la cocaína, la heroína, las anfetaminas, la morfina, la mariguana, el tabaco y el alcohol, envían a nuestras neuronas vía el sistema sanguíneo moléculas que se inmiscuyen en el funcionamiento de la sinapsis. Los nanoespacios entre las células nerviosas es el lugar donde habitan los neurotransmisores utilizados por las distintas hormonas desde la adrenalina a la serotonina; de la acetolina a la dopamina. Estas últimas controlan estados interiores; emociones, decisiones, inhibiciones, sentimientos y estados de ánimo. Cada una de estas drogas secretan diferentes tipos de influencias de acuerdo a Jean - Pol Tassin mencionado en (Cyrulnik, Bustany, Oughourlian, André, Janssen, Van Eeresel, 2012). El cerebro divide el trabajo en dos redes neuronales, en una intervine el 99% de ella en la otra el 1%. La primera red es la básica (99%) se encarga de todas las actividades de la vida como son: recepciones sensoriales, motricidad decisiones, memorización, etc. La segunda se superpone a la primera debido a un arreglo anatómico que parte del cerebro medio; es un recurso modulador cuya misión es orientar permanentemente todas las operaciones de la red básica, en cada instante y de acuerdo a la vivencia en curso, las neuronas moduladoras deciden qué acciones tomar tratando de que éstas sean las que mejor se adapten de acuerdo a la vivencia. 273 Esta misión es grande e importante, dado que dependiendo de las circunstancias la red moduladora decide afectar al cerebro cognitivo lento y de esta forma tomar consciencia y poder hablar, memorizara, etc. o ser confiada a la parte inconsciente haciendo que la operación se desarrolle de manera instintiva. Como ejemplo podemos respirar de las dos formas, en el caso de hacerlo de forma voluntaria entra en el campo del cerebro cognitivo lento. Caso contrario lo hacemos de forma instintiva, llamado también por analogía rápida (piloto automático). Los neurotransmisores que deciden la vía a través de la que será tratada la operación cortical se dividen en tres grandes grupos: a) noradrenalina, b) serotonina, c) dopamina. Cuando un dato entra al cerebro primero es tratado por la noradrenalina y la serotonina; ellas le atribuyen sentido. Posteriormente son transmitidas a los neurotransmisores de la dopamina. Estos últimos no tienen opción y forman el último enlace de la cadena de decisión, la dopamina es esclava de la adrenalina y la serotonina. Se hace hincapié en que los neurotransmisores de la dopamina no son autónomos. Pero como son el último enlace en la cadena de decisión, se les atribuye una importancia que no tienen. Finalmente el papel de la neuronas es crucial, ya que sí fallan las personas ya no pueden contar con su cerebro cognitivo lento; que comprende la memoria y la inteligencia. Provocando que las personas solo funcionen en piloto automático. Entre las fallas se puede dar que de golpe todas las caras se parecen o se mezclan como en un sueño. Lo anterior repercute en las distintas emociones que puede sentir una persona. ¿Qué pasa cuando dormimos? ¿Por qué soñamos y por qué nos despertamos? y ¿Cuál es la relación con las emociones? Es importante resaltar el hecho de que tanto los mamíferos como las aves sueñan, pero no los reptiles, su antepasado común. Cuando dormimos las neuronas de la adrenalina y la serotonina deben dejar de funcionar; si no lo hacen entonces seguro tenemos insomnio. Las neuronas moduladoras necesitan recuperarse es por eso que tenemos que dormir y cuando están recuperadas nos despertamos. Lo anterior es parte de la supervivencia dado que una neurona que no funciona muere rápidamente. De esta forma nuestro sueño está formado por micro despertares de grupos de neuronas que deben sobrevivir y esto es una de las consecuencias de los sueños. 274 Neurofisiólogos han sugerido que la actividad en un área del cerebro llamada la pontina-geniculado-occipital (PGO) puede estar asociada con una variedad de características de sueño incluyendo su viveza y rareza. En primer lugar, la parte pensante del cerebro (la corteza en los organismos vivos, un mecanismo en el robot) necesita ser protegido de la percepción sensorial y se les debe impidir la activación de la musculatura. Esto dejaría a dicho mecanismo en libertad de evitar o saltarse trayectorias para encontrar el estado neutro necesario. Pero esto todavía implica un gasto indebido de energía. El indicio de cómo un robot podría reducir su actividad pensante al mínimo se presentó en la discusión con Geoff Lockwood anestesista en el Hospital Hammersmith en Londres (Aleksander, 2005); al parecer, las funciones clave de una célula ya sea si está en el cerebro o en una máquina representada son primero aprender cómo reaccionar ante un conjunto de patrones de entrada y luego responder de manera apropiada a patrones similares a los doctos. Esta última propiedad se denomina generalización. En módulos, donde las células son sensibles a la salida de otras células, es esta propiedad la que crea atractores, es decir, el módulo puede haber aprendido a permanecer estable en algún ciclo de estados que representan un pensamiento, y este ciclo se desencadena por un elemento del pensamiento. Por ejemplo, la idea de ir a trabajar en mi auto por la mañana podría desencadenar el pensamiento de dónde estacioné el auto la noche anterior. La reducción de la generalización tiene que suceder sólo por el período de tiempo requerido de recuperación. Lo que queda entonces es la necesidad de garantizar que el pensamiento del autómata encuentre los estados neutrales de su espacio de estados tal como se hace el restablecimiento de la generalización de las células. En cuanto a la relación del sueño y las emociones pensemos en el siguiente hecho. El entorno cultural en el que vivimos define lo que debe y lo que no debe ser pensado, o no es culturalmente aceptable. La evaluación emocional sobre los pensamientos no aceptables culturalmente hace que con el tiempo se generen áreas aisladas de memoria para dichos pensamientos es decir que el pensamiento, evaluado emocionalmente y determinado culturalmente como negativo, sea reprimido. Lo que queda para disponer de estos pensamientos y traerlos a la conciencia son las trayectorias que conllevan la carga emocional de la culpa y el miedo pero se desvían hacia atractores como la conveniencia social de tener pensamientos positivos. En estos casos se necesitaría la ayuda de un analista (o un teórico en autómatas en el caso del robot) para resolver estos conflictos internos que aísla este tipo de pensamientos pero no los desecha y mucho menos los efectos emocionales negativos. 275 ¿Qué sucede con el sueño? Alexander (2005) plantea respecto al sueño: tenemos un mecanismo que revela mucho acerca de cómo llegamos a ser conscientes. Luego la pregunta sería si una máquina consciente tendría que dormir y soñar, y cómo esto puede arrojar luz sobre la necesidad del extraño fenómeno de soñar. Freud por su parte, indicó respecto al sueño, la existencia de un inconsciente; una especie de depósito de pensamientos que curiosamente han sido apartados para no ser visitados durante el pensamiento de vigilia normal. Esto dio a los sueños una función muy útil: los sueños son el camino real a un conocimiento de la mente inconsciente. Para Alexander (2005) este inconsciente tiene sentido como un concepto tecnológico y que para los diseñadores de máquinas conscientes puede ser necesario tener en cuenta la posibilidad de que una máquina podría desarrollar una mente inconsciente. Fue en 1953 que Nathaniel Kleitman y su estudiante graduado Eugene Aserinsky en la Universidad de Chicago señalaron que los movimientos oculares rápidos (MOR) se observan durante el sueño y que son una característica recurrente importante de los diversos patrones de actividad cerebral combinado que se desarrollan durante una noche de sueño. Nosotros contamos con un sueño MOR que se repite a lo largo de todo nuestro descanso y en dónde el trazado de una gráfica del encéfalo, durante este periodo se parece a la vigilia. El cerebro cognitivo lento se despierta brevemente y en una fracción de segundo fábrica una historia a razón de una imagen cada cinco centésimas de segundo, en otras palabras el cerebro puede crear una historia en una nada de tiempo. Siendo el sueño MOR el que representa ese breve despertar. La simple explicación de sueño es ahorrar energía y prolongar la vida. El sueño parece ser un evento regular que permite que esto suceda. Aun cuando no hay una teoría probada de por qué el sueño MOR y el sueño han evolucionado, hay muchas hipótesis acerca de las excursiones en el sueño MOR: algunos han sugerido que esto prepara los centros superiores del cerebro para procesar cada vez mayores cantidades de información sensorial que tiene que ser absorbida por la experiencia, otros postulan que esto pone al organismo en un estado de preparación de vez en cuando, en caso de la necesidad de actuar y muchos otros han sugerido modelos de información: la necesidad de tiempo para transferir datos de la memoria de corto plazo a la memoria de largo plazo, o la consolidación de la información aprendida. 276 Es difícil negar o afirmar cualquiera de estas hipótesis por ello se han realizado experimentos sobre la privación del sueño MOR y en estos experimentos con animales privarles de este sueño implica conductas agresivas y comportamientos erráticos. Por qué y cómo aparece la consciencia La consciencia reflexiva se refiere a: 1) saber que existimos por la intuición de la razón, y 2) saber que nos interrogamos sobre ese saber. La consciencia es una forma de autobiografía del ser que llevamos dentro, en otras palabras es nuestra experiencia formada por nuestros recuerdos de lo que hemos vivido. Emerge de forma obligada una vez que hemos desarrollado nuestras descripciones interiores a partir del proceso de cartografía y en consecuencia cuentan con una cierta cantidad de (información) y de ahí la memoria, el lenguaje, la capacidad de imaginar, de prever y de compartir se combinan en una espiral ascendente que hace crecer al cerebro al dotarlo de nuevas descripciones. El fenómeno de la consciencia no se encuentra en un solo lugar para lograrlo participa todo el cerebro pero de forma diferenciada. El cerebro se compone de tres regiones: 1) el neurocortex: aquí es donde se alojan los mecanismos de: memoria, imaginación y lenguaje, es aquí donde se elaboran las descripciones de alta definición ultra ricas y sofisticadas, 2) el sistema límbico (hipotálamo, hipocampo del lóbulo temporal y la amígdala), es hogar de las emociones, la atención y la memoria, ayuda a determinar la valencia, es decir, si los pensamientos sobre algo son positivos o negativos y elige el tema para enfocar su atención. Este sistema contribuye a la flexibilidad, creatividad y la falta de previsibilidad del comportamiento humano y 3) cerebro reptil, es el responsable de la conducta automática o programada, tales como las que se refieren a la preservación de la especie y a los cambios fisiológicos necesarios para la sobrevivencia, este primer cerebro es nuestro agente que avisa sobre peligros para el cuerpo en general. Este primer cerebro es una herencia de los períodos cavernarios donde la supervivencia era lo esencial. Existe una enorme red de conexiones entre el sistema límbico y el neurocortex; de modo que las funciones cerebrales no suelen ser límbicos o corticales, sino una mezcla de las dos. En este caso una de las grandes cuestiones es ¿cómo durante el proceso de toma de decisiones dentro del fenómeno de la consciencia son coordinadas las distintas descripciones almacenadas en el cerebro humano? para poder ser accedidas como un todo y a la vez distinguirse las unas de las otras. Y cómo es posible que estas descripciones impliquen emociones. En este últi277 mo caso recordamos que todas ellas fueron creadas a partir de sensaciones que fueron implicadas dentro de estas descripciones. Otra cuestión es la aparición de nuestro yo, como parte del fenómeno de la consciencia. Lo anterior con base en la densificación cuantitativa (información) y cualitativa cantidad de ellas (nuestras neuronas). ¿Cómo llegar a la consciencia? Existen dos teorías con respuestas contradictorias (Van Eersel, 2012): 1) la consciencia es producida por el cerebro, y 2) existe en el yo. Con respecto a la primera, lleva un cuarto de siglo y fue propuesta por el neurólogo Benjamín Libet de la Universidad de San Francisco se sabe que el cerebro envía sus órdenes entre 3 y 4 décimas de segundo antes que el sujeto tome consciencia de su decisión, esto implica que la consciencia es capaz de remontar el tiempo para dar las órdenes de forma retroactiva. O la consciencia se sitúa en una dimensión fuera del tiempo. Sin embargo la conclusión más común es que el cerebro toma él solo sus decisiones y que nuestra consciencia producida o no por nuestras neuronas no es gran cosa. En esta teoría las neuronas son consideradas no más que un observador después de que se toma la acción. Con respecto a la segunda experiencia ésta nació en 1998, propuesta por el neurólogo Matthew Botvinick de la Universidad de Princeton, se basa en la idea de que la consciencia es la forma natural de una última realidad que el cerebro puede canalizar dentro de un yo temporal. Desde esta perspectiva debemos considerar que todos nacemos dos veces: a) el día de nuestro nacimiento biológico; en el que no contamos con ningún recuerdo, y b) el día del nacimiento de nuestra consciencia de la que nos acordamos por definición. Cuando nos remontamos a los más viejos recuerdos estos se encuentran en forma de destellos: una sonrisa, un olor, una luz, un ambiente y de pronto la consciencia como un todo alrededor de los cuatro o cinco años. El ser humano se vuelve consciente cuando suceden los siguientes eventos: • La consciencia llega cuando se establece un diálogo interior con nuestro ego. • Nuestro cuerpo memoriza todo, pero nuestra consciencia reflexiva no lo recuerda hasta antes de cierta edad, mismo si son sufrimientos. • Ningún otro mamífero pregunta a su madre ¿es verdad que vas a morir? • La consciencia llega con la vergüenza de la desnudez. 278 • Un pequeño, no distingue quien y quien no cuenta con intención; para él los todos los objetos están dotados de ella. Poco a poco distingue que es la consciencia, cerca de los cinco años descubre que ese otro ser, es su propio yo y puede acceder al buen humor y a la mentira. • Por otro lado la conciencia moral sé establece a través de la imitación (fundamentada en la empatía) y por la obediencia de padres o de un grupo. Aun teniendo una vaga idea de lo que es la consciencia a través de las ideas anteriores no se garantiza que con base en su funcionamiento el adulto pueda contar con un comportamiento lúcido. Existen una lista de comportamientos que se convierten en obstáculos para lograrlo, entre ellos los siguientes: a) prejuzga las ideas de otros, b) se deja atrapar por la excitación o el éxito personal, o c) se compara con otros. Pero con mucho lo que más nos puede sorprender es descuidar su salud. Lo anterior debido a que olvidamos que nuestra consciencia es nuestro cerebro y que nuestro cerebro es una masa orgánica que pertenece a nuestro cuerpo. Es una idea con la que los occidentales no estamos familiarizados, debemos asumir que nuestra consciencia es antes que nada psíquica. Axiomas de Igor Aleksander: un marco teórico Aleksander (2005), propone cinco axiomas para poder modelar el fenómeno de la consciencia basándose en 5 preguntas: • La mayor parte de ser consciente implica que siento que soy una entidad que existe en el mundo externo. ¿Cómo sucede esto? • Otra parte de ser consciente es que soy una entidad en el tiempo, esto es tengo experiencia que me permite recordar mi pasado y poder tener expectativas para el futuro. ¿Qué mecanismo proporciona esta propiedad? • Es interesante que aunque los distintos seres humanos contamos con cerebros que podríamos considerar cuentan con mecanismos que producen cierta similitud. Estos llevan a formar distintas personalidades y diferentes formas de ser conscientes. En este caso algo llamado atención es la característica que trabaja en este proceso. ¿Qué es y cómo trabaja? • Parece que nuestras acciones son guiadas e influenciadas por algo que llamamos emociones. ¿Cómo es que estas se integran dentro del proceso de toma de decisiones? ¿qué son? Se hace hincapié en que Aleksander no considera al lenguaje una característica necesaria para tener consciencia lo anterior debido al hecho irrefutable 279 que todo ser viviente cuenta con consciencia. Esta última desarrollada en distintos grados de acuerdo a los elementos del entorno que implican un grado de bienestar. A partir de las preguntas anteriores en la siguiente sección daremos inicio a la explicación de cómo las emociones al ser incluidas en el proceso de toma de decisiones (del cerebro lento) pueden proporcionar una cierta autonomía. Lo anterior debido al proceso de homeostasis del cual ya hablamos e implica un equilibrio entre el ser interno y el entorno. Consciencia artificial: planificación de las acciones a través de una estructura afectiva Hablar de la consciencia artificial según Alexander implica reconocer el entorno, lidiar con los eventos que suceden en él (presente) y planificar las acciones de acuerdo a la experiencia (pasado), a metas (futuro) y los afectos que todo lo anterior produce en el ser vivo. Partiendo de esta premisa es posible considerar la generación de conciencia artificial a través de la creación de una estructura cognitiva de emociones (Mora-Torres, Laureano-Cruces, Gamboa-Rodríguez, Ramírez-Rodríguez, Sánchez-Guerrero, 2014). Esta última como recpiente de los eventos, las acciones, las metas y los afectos, integrados como un todo para deliberar y tomar decisiones sobre las acciones a realizar, generando así una conducta adaptada al entorno y a las metas perseguidas (Ortony, et al. 1996). En una estructura cognitiva de emociones las submetas para llevar a cabo la meta final incluyen las diferentes opciones para adaptarse a los diferentes eventos del entorno, es decir, al dinamismo percibido en el entorno. Un ejemplo de estructura cognitiva de emociones se observa en la descripción de la conducta de un perro hogareño (mascota) para sobrevivir y coexistir en su entorno. En la estructura de la mascota (Figura 1) se reconoce el entorno a través de una constante percepción de amenaza y de las necesidades fisiológicas. La estructura considera eventos favorables como percibir comida o sentirse amado y desfavorable como percibir amenaza, así como las acciones disponibles para cada evento, por ejemplo protege al amo si percibe amenaza o muerde los muebles si se siente inseguro. Lo anterior de acuerdo siempre con la meta final que es el bienestar de la mascota. El bienestar se debe a los distintos afectos generados en todo momento descrito por la estructura, por ejemplo, el perro siente miedo si se percibe amenaza o alivio si se alimenta y alegría y amor si juega con su amo. La experiencia de la mascota le ayuda para planificar, por ejemplo, cuando jugar con sus propios juguetes, cuando comer, cuándo y dónde evacuar de acuerdo a los lugares percibidos como fuentes de alimento o lugares de recreo o de aseo, evitando siempre cualquier amenaza. Como resultado se trata de obtener una conducta consciente de la mascota: capaz de diferenciar su entorno con respecto de sí mismo, de su bienestar; una diferencia del yo interior con respecto del entorno percibido como algo externo a él. 280 Figura 1. Estructura cognitiva de las emociones del perro hogareño. Modelo mental del perro hogareño: Mientras (Saludable y Seguro y Amado) entonces bienestar Mientras (Comer y Evacuar) entonces Saludable Si (Amenazado) entonces Protege amo Si (Protege amo) entonces + Seguro Mientras (Seguro o juega con amo) entonces No Muerde muebles Mientras (Juega con amo y Juega con juguetes) entonces se siente Amado Conclusiones En este trabajo se desarrolla un ejemplo que implica las características tratadas a lo largo del texto. Lo que se desea resaltar son el impacto de las emociones en el fenómeno de la consciencia, y como a través de su influencia se desarrolla el proceso de toma de decisones. A su vez estas son el guardían de nuestras acciones ya que de la mano del fenómeno de la consciencia permiten distinguir lo malo de lo bueno (desde la perspectiva del que las ejucta). Dentro de las características de la consciencia está el de ser capaz de crear mundos imaginarios que facillitan el bienestar y el cumplimiento de las metas fijadas. Es en este punto donde convergen los conceptos como el sueño (imaginación y sobrevivencia), las hormonas (placer y bienestar) y la planificación de las acciones de acuerdo a la experiencia y los objetivos propues281 tos en aras de obtener el bienestar por las emociones generadas en el proceso de deliberación durante la planificación de las acciones y la creación de mundos imaginarios para lidiar con el entorno (exterior) y el yo (interior). Finalemente el diseño informático de estas características nos permite crear un comportamiento autónomo. Agradecimientos Este proyecto forma parte del proyecto de investigación Consciencia Artificial y Emociones de la Universidad Autónoma Metropolitana. Se agradece la participación de los alumnos del Posgrado en Ciencia e Ingeniería de la Computación de la UNAM Martha Mora-Torres y Javier Garduño-Cimental. Referencias [1] Acevedo-Moreno, D.A. (2011) Diseño de una Arquitectura para Incorporar Emociones en un Videojuego, Ciencia, Tecnología e Innovación para el Desarrollo de México. Section Tesis de Posgrado: A4- 0011-DF-2009-MT. Latindex ISSN: 2007-1310, Available from: http://pcti.mx. [2] Aleksander, I. (2005). The World in my Mind, My Mind in the World. Edit. IA Press. ISBN: 9781845401023. [3] Cyrulnik, B., Bustany, P., Oughourlian, J.M., André, C., Janssen, T., Van Eeresel, P. (2012). Votre Cerveau n’a pas de fini de vous étonner. Edit. Clés Albin Michel. [4] Laureano-Cruces, AL., Mora-Torres, M., Ramírez-Rodríguez, J., Gamboa-Rodríguez, F. (2010). Implementation of an affective-motivational architecture tied to a teaching-learning process. En Proceedings de E-Learn 2010 World Conference on E-Learning in Corporate Govermment, Healthcare, & Higher Education, pp. 1930-1938. ISBN: 1-88009453-5. Orlando, Florida, October 18- 22. [5] Laureano-Cruces, AL., Guadarrama-Ponce, C., Mora-Torres, M., Ramírez-Rodríguez, J. (2011). A Cognitive Model for the Red Baron: a Perspective Taking into Account Emotions. In ICGST-Artificial Intelligence Machine Learning Journal, Volume 11, Issue 2. pp. 5-13. ISSN: 1687-4846 Print, ISSN: 1687-4854 Online. [6] Laureano-Cruces, AL. Rodríguez-García, A. (2011). Design and implementation of an educational virtual pet using the OCC theory. Journal of Ambient Intelligence and Humanized Computing. Volume 3, Issue 1, pp. 61-71. [7] Laureano-Cruces, AL., Hernández-González, D., Mora-Torres, M., Ramírez-Rodríguez, J. (2012). Aplicación de un modelo cognitivo de valoración emotiva a la función de evaluación de tableros de un programa que juega ajedrez. En Revista de Matemática: Teoría y Aplicaciones. CIMPA-UCR. Vol. 19 (2): 211-237. [8] Laureano-Cruces, AL., Acevedo-Moreno, D., Mora-Torres, M., Ramírez-Rodríguez, J. (2012). A Reactive Behavior Agent: including emotions for a video game. En Journal of Applied Research and Technology. Vol. 10 (5): 651-672. 282 [9] Mora-Torres, M., Laureano-Cruces, A.L., Gamboa-Rodríguez, F., Ramírez-Rodríguez, J., Sánchez-Guerrero, L. (2014). An Affective-Motivational Interface for a Pedagogical Agent. In International Journal of Intelligence Science, Vol. 4, pp. 17-23. (Edit.) Scientific Research [10]Mora-Torres, M. Laureano-Cruces, AL, Velasco-Santos, P. (2011). Estructura de las Emociones dentro de un Proceso de Enseñanza-Aprendizaje. Perfiles Educativos-UNAM. Vol. XXXIII, núm. 131, enero – marzo 2011, pp 64-79. ISSN: 0185-2698. [11]Ortony, A., G.L. Clore y A. Collins (1996). La estructura cognitiva de las emociones. Madrid, Edit. Siglo XXI. [12]Picard Rosalind (1998). Affective Computing. Edit. (MIT). [13]Rodrigues dos Santos, J. (2013). La Formula de Dios. Roca Editorial. [14]Van Eeresel, P. (2012). Mais alors qu’est que la consciense? En Votre Cerveau n’a pas de fini de vous étonner. Edit. Clés Albin Michel. Editorial Clés Albin Michel. 283 Templo y exconvento de San Miguel Huejotzingo, Puebla análisis de la forma geométrica del barroco poblano Graciela Poó Rubio Grupo de investigación “Forma Expresión y Tecnología del Diseño” Universidad Autónoma Metropolitana-Azcapotzalco [email protected] Resumen La autora participa en el proyecto de investigación “Estudio y análisis de la Forma Geométrica en la arquitectura del Templo y Exconvento de San Miguel Huejotzingo, Puebla”. Actualmente se cuenta con algunas publicaciones y libros editados por organismos gubernamentales sin el enfoque especifico que este proyecto pretende dar en cuanto al estudio de la forma en el que establece una visión diferente por su particular enfoque de investigación por sus trazos y dibujos que permiten de manera objetiva identificar los elementos característicos de la arquitectura, así como el trabajo geométrico de esta época virreinal desarrollado en México. El exterior de la iglesia presenta una mezcla de plateresco y mudéjar. El primer estilo se expresa en el contraste de amplios espacios lisos con reducidos espacios ornamentados, como sucede en la fachada lateral cuya puerta rodea una pródiga decoración de hojas y cardos. El segundo se manifiesta sobre todo, en la forma conopial del arco de la puerta mayor. En la iglesia y exconvento de San Miguel Huejotzingo, se entrelazan armoniosamente las culturas que dieron origen a la identidad de la raza mexicana: la española y la indígena. Se trata de una bellísima construcción del siglo XVI. Palabras clave: Barroco poblano, época virreinal, arquitectura, forma geométrica. Abstract At a university level the information of the temple and exconvent of San Miguel Huejotzingo, Puebla has been treated in the research group “Shape, expression and technology of design”, in its research of the geometric shape of arquitectural elements of the state of Puebla, providing the guidelines to achieve a more accurate site. Actually there are some publications and books edited by governmental organizations without the specific focus that 284 this project pretends to give concerning the study of the shape that establishes a different vision due its particular investigation approach and because of its strokes and drawings that allow in an objective way to identify the characteristic elements of architecture, as well as the geometric work of this viceroyal period developed in Mexico. In 1525, the Franciscans have built the convent of San Miguel de Huejotzingo, in a place isolated by deep ravines. In 1529 the convent was moved stone by stone to its actual place. Between 1544 and 1570 it was built-up for third time under the wise direction of Fray Juan de Alameda. The neighbors that provided assistance to the construction were installed in the convent surroundings that we actually know. The evangelizers included in the ceremonial the participation of the entire village due the creation of big areas in the atrium. In the open Chappell and the side chapels a big number of believers could concentrate and circulate. Huejotzingo with its ornamental material greatness constitutes one of the most representative building works done by the Franciscans at that time. The outside of the church presents a merge of plateresque and mudejar. The first style is expressed in the contrast of wide flat spaces with reduced ornamental areas, as it happens in the lateral facade which door surrounds a tidy decoration of leaves and cardons. The second manifests, mainly in the conopial arch shape of the mayor door. In the church and exconvent of San Miguel, in Huejotzingo, the cultures that gave origin to the Mexican race intertwist: the Spanish (inside these, the Arab), and the indigenous. It is about a beautiful construction of the XVI century. Key words: Poblano baroque, colonial era, architecture, geometric shape. Introducción El estilo arquitectónico en que se apoya esta investigación responde a la definición de Puebla como un estado netamente barroco. El término Barroco se deriva de la palabra italiana barocco, que significa impuro. El barroco propiamente dicho en Latinoamérica se conoce como: Barroco sobrio, Barroco rico y Barroco exuberante. • El Barroco sobrio. Es el primero que florece en América como reproducción del Barroco español (1580-1630). • El Barroco rico. (1630 a 1730) es un Barroco refinado y detallista, diferente al modelo español, que va conformando un tipo de construcciones con portadas más profusamente adornadas. 285 • El Barroco exuberante. Es una modalidad del Barroco de mediados del siglo XVIII, que se complace en cubrir la totalidad del espacio con ornamentación, abusando del uso de yeso y argamasa, con lujo de fantasía y color. • El templo y exconvento de San Miguel Huejotzingo pertenece a la clasificación del Barroco sobrio. • En 1525, los franciscanos edificaron el convento en unas barrancas, lugar hoy conocido como San Juan Loma. • En 1529, Huejotzingo se trasladó al sitio que hoy ocupa y de aquel primer convento demolido, se hizo otro, que tampoco sobrevivió. • El actual convento, el tercero construido entre 1544 y 1570 lo dirigió Fray Juan de Alameda en la parte antiguamente llamada Amililpan. • El actual Huejotzingo se creó por los vecinos que construyeron el convento y que en gran número se instalaron alrededor de él. Huejotzingo, con su grandeza material y ornamental de su fachada (Figura 1) constituye sin duda, una de las obras más representativas de los anhelos, ideales y sentido politico- religioso de los franciscanos de aquella época. Actualmente es uno de los conjuntos arquitectónicos más grandes y hermosos de los conventos franciscanos y de los mejor conservados en México. Figura 1: Fachada del Templo. Posee tres accesos al enorme atrio de 14,000 M2 de extensión. Las dimensiones del atrio con respecto a las de la iglesia, están en relación modular, mientras la longitud interna de la iglesia es de 60.00m, la del atrio es de exactamente 120m. 286 La entrada principal del atrio (Figura 2) tiene una triple arcada de arcos de medio punto ornamentados en la arquivolta por medio de relieves diferentes. Estos están sostenidos por columnas cuyos capiteles repiten la modulación de sus bases. Las columnas de los extremos están empotradas en unas pequeñas secciones de muro. Limitando este conjunto de arcos se levanta en cada extremo un pilar. Los tres arcos de la entrada se encuentran rematados por una cruz colocada sobre una peana en forma de frontón roto. Figura 2 Acceso Principal al Templo y Exconvento. Cuando nos adentramos por los senderos del atrio, en sus cuatro ángulos podemos apreciar sus hermosas capillas posas (Figura 3) que presentan relieves de escudos franciscanos y símbolos de la pasión de Cristo. Se construyeron en 1550. Reciben tal nombre por servir para posar al Santísimo en las procesiones, aunque también se utilizaban como capilla abierta. Los diseños que presentan en su composición arquitectónica y ornamental, es igual en las cuatro capillas. La única variante, son los símbolos pasionarios que portan los ángeles que aparecen colocados sobre las enjutas. Figura 3. Primera capilla posa destinada a San Juan Bautista. 287 En la segunda capilla posa podemos apreciar en el arco principal a los ángeles que están representados tocando grandes trompetas de las que salen flores, haciendo referencia al juicio final. En la tercera capilla podemos ver en el arco principal, que el primer ángel está acompañado de un gallo y una columna, se relaciona con el momento en que el apóstol Pedro negó a su maestro y el momento en que azotaron a Cristo. El otro ángel porta un látigo y un mazo que hacen referencia al momento del martirio de Cristo. En 1910 durante el movimiento revolucionario la cuarta capilla sufrió la mutilación de los ángeles, la cruz, el cráneo y los escudos que la decoraban. Lo único que perdura es el cordón franciscano y la cadena de la arquivolta. Las capillas tienen una planta cuadrada de 5.40 m. por lado; sobre estas se levantan los cuerpos cúbicos construidos en piedra formando sillares de trazo irregular. En cada fachada hay dos accesos perpendiculares entre sí miden 2.43 m de ancho por 3.50 m de alto y la altura total de cada capilla es de 10.65 m. La fachada principal presenta una mezcla de plateresco y mudéjar. El primer estilo se expresa en el contraste de amplios espacios lisos con reducidos espacios ornamentados, El segundo se manifiesta, sobre todo, en la forma conopial del arco de la puerta mayor. En esta iglesia se entrelazan armoniosamente las culturas que dieron origen a la identidad de la raza mexicana: la española (dentro de ésta, la árabe), y la indígena. Se trata de una bellísima construcción del siglo XVI. Lo más notable en su fachada principal es la portada, (Figura 4) esta se considera como una de las principales obras Platerescas en México. En el segundo nivel sólo tiene como adornados, escudos de la Orden a un lado de la ventana coral. Toda la decoración se encuentra en el primer nivel de la iglesia, en la puerta de entrada, que luce un arco mudéjar de líneas ondulantes sobre el cual aparecen siete medallones enmarcados por el cordón franciscano. 288 Figura 4. Portada principal de la iglesia de San Miguel Huejotzingo. En el costado norte y sur hay tres ventanas en el segundo, tercero y cuarto tramo. Las ventanas del segundo y tercer tramo son de iguales dimensiones, las del cuarto tramo son más grandes. Las ventanas tienen un claro abocinado con dos molduras, que sirve de marco al arco de medio punto apoyado sobre impostas molduradas sobre las cuales descansa el capitel ornamentado con roleos, pequeñas flores y perlas. En él lado norte en el segundo tramo se abre la puerta lateral o porciúncula. Como en casi todos los templos del siglo XVI, el interior está formado por una gran nave rectangular, dividida en cuatro tramos con ábside poligonal. Conformada por anchos muros de piedra y mampostería, se levanta sobre una planta de 60m de longitud. La nave está cubierta por cuatro bóvedas de crucería con nervaduras góticas y bellas tracerías, sin contar la del ábside, cubren espacios de planta cuadrangular, enmarcadas por cuatro arcos fajones ligeramente apuntados. (Figura 5) 289 Figura 5. Interior de la iglesia, vista de la nave y la bóveda de crucería. El sotocoro se abre a la nave por medio de un arco escarzano; del lado de los muros del templo y en la fachada hay dos grandes ménsulas molduradas y ornamentadas con hojas de acanto y pequeñas perlas isabelinas. El interior de la iglesia está poco iluminado, para provocar sentimiento místico entre los fieles de aquella época. La entrada al convento es por la portería anexa en el costado sur de la fachada principal del templo, tiene planta rectangular, sobre la que se levantan los muros que la conforman y techo de viguería. (Figura 6) Figura 6: El acceso al convento es por la portería. La portería se abre al atrio por medio de dos amplios arcos de medio punto, soportados al centro por una monumental columna. De la portería se pasa al convento a través de una pequeña puerta que tiene un sencillo arco conopial. 290 Los corredores del claustro bajo se abren hacia el patio,(Figura 7) por medio de cinco arcos de medio punto por cada lado, sostenidos por cuatro columnas por lado de basa ática y fustes lisos; en tanto que los del claustro alto ostentan arcos rebajados, apoyados sobre columnas similares a las del claustro bajo. El techo de ambos claustros es de viguería. El claustro bajo se comunica a la vez con el refectorio y la sacristía, en el primero se presenta la reconstrucción del antiguo comedor con sillas de la época. A un lado se realizó la reconstrucción de la cocina. Figura 7. Vista del Patio del claustro. En el muro colindante con el templo se encuentran varios nichos, en cuyo interior se alojan mesas para altares, en la planta baja se abren por medio de arcos escarzanos; el único nicho que está decorado es el primero, cuya arquivolta está ornamentada con rosetones tallados en piedra. Los nichos de la planta alta son cinco. Formalmente, el convento presenta un fuerte carácter gótico por la composición de la rosca de los arcos, tanto del claustro bajo como del alto, además por la manera de matar los cubos de las esquinas de los corredores, al modo escarzano. Estudio de la forma En la actualidad no existen estudios de la forma desde el punto de vista geométrico que aporten elementos suficientes, para integrarlos al ámbito del diseño. Por tal motivo se está haciendo esta investigación en el templo de San Miguel Huejotzingo, Puebla. 291 Figura 8. Estudio de la forma en Capilla abierta o de indias. Figura 9. Estudio de la forma en el Campanario. Conclusiones Partiendo de la idea universal acentuada por la escuela de Atenas, de que “no hay Arquitectura sin Geometría”, durante el desarrollo de este trabajo sobre el Barroco Poblano en diversos edificios representativos de los siglos XVI, XVII y XVIII, hemos encontrado ciertas características similares que destacan un notable e interesante tratamiento formal. Ante estas consideraciones y con el antecedente de haber publicado los libros sobre “El Barroco Queretano” y “el Barroco Potosino” Concluimos, que la premisa anteriormente mencionada, motivo del presente estudio, se hace evidente también en la investigación de “El Barroco Poblano” “no hay Arquitectura sin Geometría” 292 Referencias [1] Bayona Pedro. Recorridos por el siglo XVI. Primera edición. Centro de Investigaciones Económicas Administrativas y Sociales. Editorial. Solar Servicios Editoriales S. A. de C. V. México 2004. [2] Fernández de Echeverría y Veytia, Mariano, Historia de la fundación de la Puebla de los Ángeles. 2 vols. Puebla, Altiplano, 1962. [3] Piña Loredo Margarita y Vázquez Ahumada Cecilia. Míniguía Capillas posas del exconvento franciscano de San Miguel Huejotzingo, Puebla. Instituto Nacional de Antropología e Historia. México 2000. [4] Salas Cuesta, Marcela, La iglesia y el convento de Huejotzingo, Universidad Nacional Autónoma de México, México, 1982. [5] Vargas Lugo, Elisa, Las portadas religiosas de México. México, Universidad Nacional Autónoma de México, Instituto de Investigaciones Estéticas, 1969. 293 Una mujer llamada Ethan: disonancias entre imagen visual y las funciones de personajes en videojuegos Blanca Estela López Pérez Diseño de la Comunicación Gráfica. Universidad Autónoma Metropolitana, unidad Azcapotzalco [email protected] Resumen La emergencia de nuevos espacios para el entretenimiento, ha venido acompañada de discursos que ofrecen el acceso a mundos o metaversos donde el usuario puede “ser y hacer lo que desee”. Sin embargo, al paso del tiempo los espacios digitales así como las representaciones gráficas que ofrecen, han tendido a mostrar más una reiteración de esquemas de pensamiento ya existentes que nuevas vías para concebir la interacción entre personas. A través de las observaciones participante y no participante, es posible obtener evidencias que muestran cómo, en algunos ambientes de juego, las imágenes gráficas manifiestan un contenido distinto de aquello que la jugabilidad ofrece, generando un alto grado de disonancia entre lo que los videojuegos muestran en lo visual y lo que demandan que el jugador lleve a cabo como parte del compendio de reglas. De esta manera, si bien la imagen mostrada en pantalla puede ser un personaje femenino, las circunstancias a las que responde la ubican en un rol masculino y viceversa. Para ejemplificar lo anterior se tomaron los casos de la saga Tomb Raider (Core Design, 1996) y de Heavy Rain (Quantic Dream, 2010). Palabras clave: videojuegos, representación gráfica, imagen, decisiones. Abstract The presence of new media for entertainment has brought along discourse about users getting to “be and do whatever they please”. However, time has shown that both digital environments and graphic images, tend to support pre-existing thought schemes more than creating new ways of interacting among people. By the use of direct and indirect observation, it was possible to obtain some evidence of what´s happening in the game environments with the relationship between graphic images and playability of videogames. Even when the screens shows a female character, it is usually responding to a male role, thus creating dissonance between what is seen and the choices to be taken by the player. In order to show this phenomena, two games have been chosen as examples: the Tomb Rider Saga (Core Design, 1996) and Heavy Rain (Quantic Dream, 2010). 294 Key words: videogames, graphic representation, image, decisions. Introducción Dentro de los géneros narrativos, el horror y la ciencia ficción han sido durante el siglo XX y los inicios del XXI territorios predominantemente masculinos. Desde la literatura hasta los videojuegos más recientes, se han observado historias cuyos personajes rara vez son mujeres, particularmente los protagonistas; y a pesar de contar con algunas heroínas en pantalla, es evidente que lo común es que se trate de personajes que piensan y actúan de la misma manera que sus contrapartes masculinas. Si se toman en cuenta algunas producciones cinematográficas de ambos géneros como son Halloween (Carpenter, 1978) y Terminator II (Cameron, 1991), es posible identificar a personajes femeninos en los papeles principales. Sin embargo, esto no implica que lo que actrices como Jamie Lee Curtis y Linda Hamilton interpretan deje de corresponderse con cualquier otro personaje no necesariamente representado por una mujer. En primer lugar, no se trata de personajes que, por convicción, hayan decidido hacer caso del llamado a la aventura; al contrario, estos personajes no se encuentran en posición de elegir nada. En este sentido, los personajes más bien corresponden a víctimas reactivas que, impulsadas por la desesperación, terminan sobreviviendo y superando al peligro que las acecha (el asesino serial o la máquina). Y en segundo lugar, el hecho de ser interpretadas por actrices más que dar un lugar significativo a la mujer, funge para acentuar su fragilidad y su condición de víctimas frente a adversarios que, evidentemente, las superan en fuerza y tamaño. Lo anterior no parece ser superado en el ámbito de los videojuegos. Es frecuente encontrar personajes femeninos cuyo papel en la historia es idéntico al de un hombre, cuando se trata de un protagónico; en este sentido, cuando el personaje puede ser caracterizado de manera indistinta para el sistema de juego, se afirma que opera una función en el sistema narrativo. En el caso de personajes secundarios, las mujeres suelen ser utilizadas en papeles de mujeres rudas (hombres), o bien, como femmes fatales. La imagen gráfica corresponde a una descripción de personaje, pero lo que tiene que operar dentro del ambiente de juego no corresponde a esa imagen. Sin embargo, existen títulos que a pesar de que utilizan este tipo de relación mecánica de juego-imagen, lo hacen en un tono muy distinto y con intenciones que se mueven en otros registros más afectivos de la experiencia de juego. El presente texto no persigue un trabajo sobre roles sino sobre funciones narrativas que han de ser desempeñadas por un personaje sin importar si se 295 trata de un hombre o una mujer; en consecuencia, este tipo de operación a punta a ejemplificar una disonancia entre la imagen gráfica (expectativa creada a través del diseño de personaje) y las acciones que el sistema de juego demanda sean desempeñadas (función). La perspectiva es fundamentalmente narrativa y, en consecuencia, sistémica a pesar de hacer uso de referencias del campo de la comunicación y psicoanalíticas. Dado este perfil, no se persigue la construcción de explicaciones generalizadas ni universales ya que cada fenómeno de esta naturaleza opera sobre distintas fuerzas y causas, mas no por ello los ejemplos trabajados dejan de ser significativos. Imagen y decisiones Al trabajar con videojuegos, existen varios aspectos que es necesario considerar con el objetivo de poder ponderar en qué nivel de abstracción es posible observar los conflictos existentes entre los mostrados por la imagen visual y lo que el juego demanda para ser resuelto. No se trata de las únicas posibilidades para abordar diferentes aristas en un videojuego; según los autores y perspectivas así como los campos de su proveniencia, podrían ser considerados otros. Como nuestra atención se centrará, al menos en principio, en la imagen gráfica, se considerará un nivel de lo mostrado el cual, a través de su expresividad, ayuda a articular la dimensión narrativa del juego [1]. Por medio de los gráficos, el juego muestra lugares y personajes así como objetos y elementos para sostener historias y tramas. Estas imágenes gráficas logran cohesionarse a través de su temática y concordancia de estilo, y en apariencia pueden presentar el videojuego como un todo integrado. El segundo elemento lo comprenden las reglas que articulan al juego al acotarlo [2] en tanto tiempo, espacio y operaciones posibles; el compendio de reglas permite sostener el sistema de juego y puede correr de manera independiente a lo narrado (algoritmo). Por ejemplo, si se trata de un videojuego shutter (género donde el jugador dispara contra objetivos y obtiene puntos), las reglas establecen una serie de elementos que serán considerados contrarios al jugador quien deberá defenderse de ellos disparando; los cuerpos oponentes bien pueden ser asteroides, extraterrestres, soldados, etc., esto no altera las reglas del juego pero sí la manera en que el jugador se ve involucrado afectivamente en la actividad de juego. Consideraremos un tercer aspecto, central para el presente texto, que es la jugabilidad (calidad del juego en términos de sus reglas de funcionamiento y de su diseño), que tiende a priorizar la posibilidad de que ciertas acciones dentro del juego no estén sujetas a la narrativa[3]; sin embargo, cabe mencionar que mucho de la jugabilidad si bien no tendrá impacto en la trama per se, sí será observado en la manera en que ciertos elementos narrativos puedan ser significados en etapas más avanzadas. 296 En el caso del videojuego Heavy Rain (un juego de drama y acción en el cual un padre de familia debe rescatar a su hijo de un asesino serial), el personaje de Ethan Mars es controlado por el jugador. Se le presentan varias decisiones que no tendrán repercusión posterior en la trama pero sí en el afecto depositado en la experiencia de juego. Por ejemplo, en la segunda escena en casa, Ethan juega en el jardín con sus dos hijos y ambos le piden que juegue “avioncito” con ellos; pero Ethan sólo puede cargar primero a uno y luego al otro, entonces el jugador debe decidir en qué orden jugará con ellos. Esta decisión no cambia lo que ha de ocurrir a cada uno de los niños, pero junto con otras decisiones similares, el juego persigue que el jugador sienta a su personaje cercano a los otros para que su pérdida adquiera mayor significado. Este tipo de mecánicas es utilizado para lograr empatar las metas del personaje con las del jugador [4], de tal suerte que se logre empatía por la situación y el sentimiento de pérdida se vea acentuado para incrementar el efecto de ficción en los siguientes capítulos. Los aspectos que refieren a la experiencia de juego adquieren gran relevancia, especialmente al tratarse la mayor parte de las decisiones de mecánicas de juego que apoyan que el jugador se pueda conectar con las víctimas. Estos juegos, dirigidos mayormente a adultos jóvenes, se apoyan en este tipo de mecánica para crear empatía que no es inherente a la audiencia; es decir, el hombre de veintitantos años de edad difícilmente se interesará por el cuidado de un niños, a menos que se vea forzado a involucrarse a través de sus acciones y metas, pero no con los personajes. Sin embargo, al observar el tipo de decisiones que el juego usa para crear esta empatía, se trata más de circunstancias que de manera tradicional corresponden a personajes maternos. En este sentido, si bien Ethan Mars representa visualmente un hombre, primero padre de familia y después divorciado, mucho del comportamiento resultado de las mecánicas de juego es predominantemente femenino. En contraste con las mecánicas de juego que llevan a crear lazos afectivos con personajes y situaciones, existen otro tipo de dinámicas que tienden más a reiterar modelos narrativos prexistentes en la cinematografía. El caso de la serie de videojuegos Tomb Rider ofrece un ejemplo donde ocurre lo contrario a lo expuesto sobre el videojuego anterior. El personaje principal de la saga de Tomb Rider es una mujer, Lara Croft, que se dedica a cazar tesoros y superar misiones, pero la característica principal por la que este personaje es conocido corresponde a su desproporcional figura voluptuosa. La imagen gráfica que se muestra en pantalla, representa a una mujer. Sin embargo, el tipo decisiones que el personaje debe tomar así como las rutas de solución de algoritmos a los que está sujeta, corresponden de manera transparente a las de sus contrapartes masculinos, siendo uno de los 297 ejemplos más notorios el personaje de Indiana Jones creado por el director George Lucas. Lara Croft es un personaje reactivo que, en muchas maneras, es víctima de las circunstancias y mayormente es forzada a resolver las misiones y sobrevivir; el tipo de decisiones que debe tomar tienen que ver más con soluciones operativas para mantener el curso de la historia. De esta manera, lo que la imagen gráfica muestra resulta disonante ante la función que el personaje desempeña en el sistema de juego. Es evidente que, para los fines perseguidos tanto por las reglas como por la narrativa, estos juegos podrían haber tenido un protagonista masculino (que, de hecho, tienen); sin embargo, mucho tuvo que ver en la decisión de crear a Lara Croft que el público comprador del juego han sido mayoritariamente hombres [5], quienes encuentran mayor comodidad en ver durante horas a una mujer que a otro hombre. El autor Lajos Egri propone tres dimensiones para la creación de personajes. El autor explica: “Antes de que un ser humano pueda tomar una decisión, se requieren muchos tipos de presión, pero hay tres principales; el fisiológico, el sociológico y el psicológico. De estos tres tipos de fuerza se pueden hacer innumerables combinaciones. […] Un cierto tipo de carácter se desarrollará en su propia línea hasta madurar. Sólo en los malos textos un hombre cambia sin tener en cuenta sus características.” [6] Estos tres aspectos si bien son distintos, no se encuentran aislados uno de los otros; la relación existente entre dos de ellos, dará las características del tercero. En consecuencia, cuando estas dimensiones no operan de manera acorde entre ellas, se produce una disonancia; no se trata de un fallo si este tipo de ruido ayuda a que los demás elementos narrativos se presenten (la fuerza que hace que se presente el conflicto, por ejemplo), y su solución implique una síntesis que apoye la premisa narrativa. De no ser así, la intención es distinta, como se observa en casos como el de Tomb Rider, donde Lara Croft permaneció plana durante varias de las ediciones del juego hasta el viraje que The Rise of The Tomb Rider promete; en contraste, personajes como Bayonetta (bruja que utiliza magia y armas de fuego para enfrentar a las fuerzas angelicales que atacan la Tierra), del juego con el mismo nombre (Nintendo-Sega, 2009), mantiene la cohesión entre las tres dimensiones al trascender la función narrativa del personajes y manifestar un rol femenino pero empoderado, que además permite que se el personaje madure. Es evidente que este tipo de disonancias entre las dimensiones del personaje de tres dimensiones, no es una característica universal en el medio pero sí una muy frecuente. 298 De esta manera, se puede observar que el hecho de que las producciones de videojuegos hagan uso de personajes femeninos, no implica en realidad una feminización del medio. Las funciones de estos sistemas de juego se mantienen a pesar de las variantes que ofrecen en lo gráfico. Sin embargo, existen otros niveles en el diseño de los videojuegos que pueden permitir otro perfil de pensamiento que no necesariamente corren de la misma manera que lo visual. Mecánicas de juego y mecánicas de cambio Las mecánicas de juego que implican la jugabilidad, permiten al jugador involucrarse con el juego de distintas maneras. Al ofrecer la posibilidad de elección sin repercusiones en las conexiones lógicas de la trama, el diseño de videojuegos apuesta por una experiencia cuya carga afectiva sea más sensible hacia los personajes y su situación de conflicto [7]. Sin embargo, pocas son las producciones que se arriesgan a romper con los patrones heredados de medios de comunicación anteriores. En medios significativos durante el siglo XX, los personajes masculinos no sólo obtenían mayor tiempo de exposición en pantalla, sino que sobre ellos recaían la mayor parte de las acciones [8]. Sin embargo, ante la demanda de un público femenino creciente junto con algunos cambios que se han dado en los espacios cinematográfico y televisivo, la industria de los videojuegos ha contemplado no sólo el incremento de personajes femeninos sino la generación de propuestas de nuevas mecánicas de juego. Si bien es cierto que la actitud de las mujeres frente al riesgo suele ser más reservada [9], también es cierto que mucho de la experiencia de juego no tiene que necesariamente mantenerse en el ámbito de la acción rápida y reactiva, sino que también involucra otro tipo de mecánicas. La empatía creada entre el jugador y los demás personajes suele ser utilizada para que éste, independientemente de que se trate de un hombre o una mujer, posea un motivador afectivo más eficiente que el sólo querer terminar o ganar el juego. Juegos con gran carga narrativa como es el caso de Heavy Rain, apelan a la sensibilidad de los jugadores para poder ofrecer una experiencia de juego más significativa. Casos semejantes son Beyond Two Souls (Quantic Dream, 2013) e, incluso, el premiado Last of Us (Naughty Dog, 2013), ambos son juegos donde las decisiones tomadas por el jugador permiten un acercamiento a los conflictos que el sistema de juego plantea así como los inherentes a los relatos. Ya se trate de un problema de bullying o del fin del mundo, los personajes dentro de estos sistemas de juego no sólo terminan por ser altamente empáticos sino que resisten en muchos sentidos el ocupar la posición reactiva de las víctimas. 299 “La posibilidad de jugar es un logro en el desarrollo emocional. El inicio del juego es símbolo de la confianza del niño en el ambiente, el niño que juega hace suya una parte de la realidad exterior. El juego contribuye a la integración de sentimientos ambivalentes.” [10] Estas mecánicas de juego ofrecen una jugabilidad que hace manifiesta la maduración del videojuego como medio narrativo para dar sentido a la vida cotidiana. En consecuencia, admite conflictos de mayor complejidad, cosa que de muchas maneras es demandada también por las audiencias. Como consecuencia de lo anterior, no resulta extraño que franquicias como lo es la serie de Tomb Rider estén por dar un giro inesperado, dada la personalidad que ha distinguido a este título. Para su entrega del 2015, SquareEnix ofrecerá a los jugadores una óptica distinta del personaje Lara Croft[11]. La nueva producción es altamente narrativa y trata sobre la adolescencia del personaje así como sobre sus motivaciones para escoger la vida de una caza recompensas. Visualmente ya no se trata del cuerpo de proporciones exageradas que rayaba en lo deforme, sino que se ha diseñado un cuerpo joven más natural que va de la mano con una profunda construcción de los conflictos internos del personaje. Este tipo de propuesta también atiende a mecánicas de juego más proactivas donde el jugador no sólo reacciona ante los obstáculos y enemigos dentro del ambiente de juego. Se trata también de permitir que los jugadores se involucren más a fondo con el personaje, que a estas alturas ha trascendido el papel de muñeca operadora y se encuentra en una relación más significativa para la experiencia de juego. Es necesario en este punto considerar que los cambios de este tipo en las mecánicas de juego, no necesariamente van de la mano con cambios en los imaginarios sociales y culturales de los cuales se desprenden las temáticas y conflictos para medios de entretenimiento como son los videojuegos. Cabe mencionar que, al menos en Estados Unidos, el mercado femenino representa un 40% del mercado de los videojuegos [12]; y ante un número tan elevado, es casi esperado que la oferta en el mercado del entretenimiento participe con nuevos productos. Conclusiones Las imágenes gráficas poseen una potente carga cultural que suele refrendar los esquemas de pensamiento vigentes en un entorno social. Sin embargo, en medios como los videojuegos, en ocasiones, se hace uso de las imágenes para construir una parte de un personaje, si se piensa al personaje como una construcción tridimensional (dimensiones física, sociológica y psicológica); 300 el resto se construye a partir de la posibilidad de tomar decisiones a lo largo del juego sin afectar el mismo, pero con profundo impacto en la dimensión afectiva de la experiencia de juego. En este sentido, si bien un personaje puede verse gráficamente como una mujer, esto no implica que el papel que opera dentro del ambiente de juego sea femenino; es decir, existirá una disonancia entre las dimensiones del personaje. Lo mismo ocurre con los personajes masculinos. Uno de los aspectos a tomar en cuenta, es que este tipo de cambios en las mecánicas de juego pueden llegar a generar cambios de sensibilidad en el pensamiento de las personas que juegan. Sin embargo, es evidente que ese no es uno de los objetivos primordiales dado que la prioridad es depositada en atender demandas de consumo de un mercado de mujeres video jugadoras que va en ascenso. Referencias [1] Ryan, M.-L. (2001). Beyond Myth and Metaphor: The Case of Narrative in Digital Media. The International Journal of Computer Game Research, 1. [2] Juul, Jesper. (2003). The Game, the Player, the World: Looking for a Heart of Gameness. In: Copier, M., and Raessens, J., (Eds.) Level Up: Digital Games Research Conference Proceedings, Utrecht: Utrecht University, pp. 30-45. [online]. Disponible: http://www. jesperjuul.net/text/gameplayerworld/ Fecha de acceso: 10 de septiembre de 2014. [3] Sicart, M. (2011). Against Procedurality. The International Journal of Computer Game Research, 11. [4] Juul, Jesper. (2011). Half-Real: Video Games Between Real Rules and Fictional Worlds. MIT Press, Estados Unidos de Norteamérica. Pág. 122. [5] Cohen, Mark. (2000). Lara Croft: The Art of Virtual Seduction. Prima Games, Estados Unidos de Norteamérica. Pág. 21. [6] Egri, Lajos. (2009). El arte de la escritura dramática. Fundamentos para la interpretación creativa de las motivaciones humanas. UNAM, México. Pág. 99. [7] Jenkins, Ria. (2014). From Lara Croft to Bayonetta: what is a strong female character? En: The Guardian [online]. Disponible: http://www.theguardian.com/technology/2014/ aug/05/lara-croft-bayonetta-female-games Fecha de acceso: 4 de mayo de 2015. [8] Thompson, T. L., & Zerbinos, E. (1995). Gender roles in animated cartoons: Has the picture changed in 20 years? Sex Roles, 32, 651-673. [9] Harris, C.R., Jenkins, M. y Glaser, D. (2006). «Gender differences in risk assessment: Why do women take fewer risks than men?», Judgment and Decision Making1, pp. 4863. 301 [10]Winnicott, D. (1987) Realidad y juego. Editorial Gedisa. Barcelona. Pág. 75. [11]Regan, Tom. (2015). New Rise of The Tomb Raider Gameplay Details Emerge. En: IGN Entertainment US [online]. Disponible: http://www.ign.com/articles/2015/02/12/newrise-of-the-tomb-raider-gameplay-details-emerge Fecha de acceso: 5 de mayo de 2015. [12]Greengrass, Paul. (2014). Gender in Gaming: Tomb Raider #1. En: Reflections. Film, Media and…Stuff [online]. Disponible: https://kgvreflections.wordpress.com/2014/01/01/ gender-in-gaming-tomb-raider-1/ Fecha de acceso: 4 de mayo de 2015. 302 El método de la prefabricación y su incidencia en la gestión del diseño y la construcción arquitectónica contemporánea en el campo profesional mexicano Tomás Sosa Pedroza, Sue Carolina Andrade Díaz Universidad Autónoma Metropolitana, Azcapotzalco, División de Ciencias y Artes para el Diseño Resumen La prefabricación es un método contemporáneo de construcción, con aplicaciones de tecnología de punta y con una alta incidencia en la producción contemporánea mexicana, tanto en lo arquitectónico como en obra civil. El mercado de la construcción y del diseño contemporáneo de nuestro país, al igual que en el resto del mundo, se han visto tan notoriamente beneficiados con la aportación de estos componentes tecnológicos y estéticos en las edificaciones, que sin ellos no sería posible interpretar al quehacer arquitectónico contemporáneo tal como lo percibimos actualmente. Palabra clave: Prefabricación, diseño arquitectónico, gestión del proyecto, proceso de enseñanza-aprendizaje UAM-Azc. Antecedentes El trabajo por exponer es el resultado parcial de mi tesis de grado en la UAM-Azc cuyo objetivo es explorar teóricamente el método de construcción llamado prefabricación. Según los analistas sociales y de la arquitectura mexicana, desde los finales del siglo pasado las tendencias contemporáneas del diseño en nuestro país han sido conducidas hacia un claro concepto de modernidad, razonamiento entendido no como el período histórico denominado “modernismo” ubicado en el siglo XIX sino como un concepto social originado en las primeras décadas del XX. Para estos analistas la modernidad es más que un período de cierta época histórica, es más bien una tendencia social hacia el progreso colectivo, así vemos que el investigador social Perló M. (1990:9) ubica a la modernidad “en las artes plásticas se considera al modernismo como un período de unos 15 años que se inicia en 1890 y termina en los primeros años del siglo XX” pero concluye que desde su perspectiva “el término se asocia más con la idea de progreso, de cambio, de ruptura que el atraso, que con la ortodoxia de un movimiento filosófico determinado” 303 La arquitectura mexicana se apropió de la idea de representar a la modernidad desde la segunda década del siglo XX a partir de la necesidad de determinar una identidad nacional después del movimiento armado de 1910 y por el crecimiento poblacional generado por la paz social derivado del mismo movimiento armado (Canales F.). La arquitectura sufrió una paulatina transformación a partir de ese momento, al sustentar su crecimiento como disciplina en el modelo fundamentado en la realización a través de lo proyectable y abandonado el modelo basado en la tradición y lo heredado (Villers L., Kochen J. J. y Odériz A.). En esta etapa de nuestra historia, la modernidad social tenía como fundamento los postulados europeos del positivismo los que se reflejaban en la arquitectura a través de diseños eclécticos y con uso de materiales con fuerte presencia industrializada. Los factores del cambio que impulsaron hacia este movimiento moderno en la arquitectura, según Enrique Yánez (Yánez E. 1990), fueron fundamentalmente la implementación de novedosos procesos constructivos emanados de la revolución industrial europea, en las formas de producir y comercializar el hábitat humano. Fue tal la influencia de estos cambios sociales que modificaron substancialmente el pensamiento, la educación y la cultura humana, y que como consecuencia se requirieron de nuevos espacios habitables para satisfacer las recientes necesidades del hábitat, que no existían anteriormente. 1. 2. Figura 1. Hotel de CD. de México. Figura 2. Estación ferroviaria B. A. Argentina. 304 En el período postrevolucionario, cuando el movimiento armado se consolidó a través de instituciones firmes, el Estado se constituyó como el principal impulsor del desarrollo económico en todos sus sentidos incluyendo la promoción de las obras arquitectónicas y de la infraestructura urbana necesaria en ese momento (López P. 2011 pag. 31). Siendo un factor de suma relevancia en este período la exposición de la teoría arquitectónica planteada por el Mtro. Jose Villagran que en esencia definió a la arquitectura como construcción, en donde la sinceridad estructural y de los materiales utilizados en la edificación era la base de la modernidad, rompiendo radicalmente con los conceptos anteriores de que los elaborados recubrimientos de las fachadas y los accesorios de ornato eran la principal base (Canales F.) Los años finales de la primera mitad del siglo fueron de gran relevancia para el crecimiento económico y la industrialización del país, fundamentándolo en la explotación del petróleo recientemente nacionalizado. Es en esta época cuando las grandes empresas mexicanas se fundan constituyéndose como fuertes pilares del crecimiento, siendo la empresa ICA (4 de julio de 1947) la más representativa del desarrollo de la construcción arquitectónica mexicana. Figura 3. Torres de Satelite. 305 En las décadas posteriores a la segunda mitad del siglo el impulso a la iniciativa privada por parte del Estado derivó en una expansión económica de crecimiento colaborado denominado como “economía mixta”, igualmente fundamentado en los ingresos petroleros, desde los años 60’s hasta el año de 1981. Las empresas formales fueron incentivadas por el gobierno mediante contratos de obra de gran envergadura lo que motivó un gran crecimiento en la industria de la construcción, particularmente. Es en este período cuando la iniciativa privada se manifestó como un componente muy sólido en la dinámica económica del país expresándose en el movimiento arquitectónico a través de una experimentación estructural mediante la utilización de nuevos materiales y sistemas constructivos derivados de una incipiente industrialización, tendencia dominante por encima de la experimentación formal en los edificios. (Canales F.). A partir de la octava década, desde la entrada de nuestro mercado de la arquitectura al contexto en el que se vive actualmente es notorio que la recurrencia del concepto de modernidad se encuentra ligado a las tendencias económico-sociales derivadas de la globalización. La tendencia globalizante de los actores productivos de nuestro país se puede considerar como iniciada en la décadas de los 80’s y 90’s con las firmas de diferentes tratados comerciales entre México y otros países americanos y europeos. Sin embargo el factor más contundente para insertar la economía de nuestro país al concepto globalizante, se dio a través del acuerdo comercial del norte de América llamado TLC, protocolizado en la gestión presidencial de Salinas de Gortari. Aunque hubo varios antecedentes de firmas comerciales internacionales, como el Acuerdo General de Aranceles y Comercio (GATT por sus siglas en inglés) consolidada por el gobierno de De la Madrid (1984), ha sido el TLC el más influyente en el desarrollo económico del país y como consecuencia en el entorno arquitectónico. Es a partir de este evento que se observa en los creadores arquitectónicos una modificación en sus tradicionales métodos de diseño, renovándolos a través de la implementación de las herramientas y recursos que las nuevas tecnologías digitales ofrecen al mercado actual de la Arquitectura y de la construcción, e incluyendo en estos nuevos métodos de diseño los sistemas constructivos y materiales de punta del tipo industrializado, que se ofertan en el mercado local y mundial de la edificación contemporánea. En los inicios del siglo XXI, gracias a estas novedosas propuestas, las tendencias de las edificaciones desarrolladas en el interior de los campos de la Arquitectura y el urbanismo de nuestro país han modificado substancial306 mente el estado cultural arquitectónico, reafirmando de manera contundente el concepto de la modernidad. El reflejo en el hábitat mexicano de las modificaciones mencionadas se encuentra presente en las edificaciones construidas en los últimos veinte años, a través de diseños con propósitos más formales de identidad corporativa, a través de la integración de sistemas constructivos más novedosos, más eficientes estructuralmente, más resistentes y de más rápida colocación. Igualmente se pueden mencionar en este cambio modernizador a los emprendedores aglutinados en grandes y medianas empresas, nacionales o extranjeras, nuevas o las tradicionalmente establecidas y que a través de investigaciones y patentes recientes aportan dentro del esquema globalizante en que se desenvuelve el mercado internacional desde esa década, productos y servicios altamente eficientes en su desempeño, apariencia y economía. Como en todas las áreas del conocimiento humano, la arquitectura del nuevo milenio y consecuente con la nueva conformación social y sus nuevas formas de pensar fundamenta su desempeño como ciencia en apoyo a la sociedad a través de tres componentes: la industrialización de sus procesos productivos, en las herramientas nacidas de la electrónica digital y la ya mencionada economía política del Estado fundamentada en el TLC. La industrialización en la construcción Se entiende por industrialización aplicada a la arquitectura y la construcción, como un proceso de manufactura que aplica tecnologías avanzadas en sus métodos de diseño, de gestión administrativa y de fábrica, empleando insumos mejorados y controlados, y contemplando la transportación y equipos de montaje dentro de su diseño específico, con el objetivo de obtener una mayor productividad. La industrialización, aporta a la modernidad arquitectónica contemporánea insumos y sistemas de alto valor tecnológico lo que ha permitido al arquitecto diseñador y al propio mercado de la construcción hacer uso de opciones alternativas a la forma tradicional de construir. La implementación de sistemas constructivos novedosos, más eficientes, estructuralmente más resistentes y de más rápida colocación, así como el uso de insumos y materiales igualmente resistentes, de mejor apariencia y con acabados permanentes, ha sido la aportación de la industrialización a la Arquitectura catalogada como moderna. Contrario a los métodos constructivos aplicados con tecnologías industrializadas, el conjunto de técnicas del tipo artesanal, aplicadas en la cons307 trucción tradicional, se caracterizan por fundamentar su trabajo en el uso de materiales naturales y en muchas ocasiones en los materiales típicos de la región, además en el empleo de mano de obra asentada en la tradición del oficio que desprecia la capacitación técnica, y por último sus resultados estéticos son producto del sello personal del albañil. CONSTRUCCIÓN ARTESANAL CONSTRUCCIÓN INDUSTRIAL Busca el respeto de la tradición del oficio haciendo solo cambios en caso de no poder continuar haciendo lo mismo Cambia al ritmo del desarrollo tecnológico y lo impulsa hacia el cambio Su precio es negociado Su precio está establecido tomando en cuenta la competencia, la oferta y la demanda Da en el producto el sello personal de quien lo creó Proporciona el producto más acorde posible a las necesidades de la sociedad para la que fue creado Calidad de producción La calidad final la da el constructor La calidad la dan las normas, los estándares, los códigos y la satisfacción del cliente Relación cantidad-calidad A mayor cantidad, menor calidad y uniformidad Cantidad con calidad Producción Es única y hecha por un artesano Producción limitada Su producto es repetitivo y está hecho por una o varias empresas Producción masiva Costo de inversión Casi no se requiere inversión Se requiere inversión proporcional a lo producible Planeación Sus procesos conllevan improvisación Sus procesos son planeados y previstos Tiempos de producción Los tiempos de realización son aleatorios Los tiempos de realización son programados y controlados CARACTERÍSTICAS Aplicación tecnológica Costo Diseño Herramientas nacidas de la electrónica digital Haciendo un análisis de las primeras prácticas del ambiente digital en el entorno del diseño internacional de la arquitectura, es posible mencionar que se originó en los años 60 del siglo anterior, desarrollándose a partir de entonces una corriente extremadamente dinámica entre los diseñadores. Como es de entenderse en estos primeros inicios la mayoría de los despachos internacionales no fundamentaban sus esfuerzos proyectuales a través del ordenador sino que era usado exclusivamente como auxiliar de dibujo en dos dimensiones. La parte creativa de los proyectos se daba de manera externa a los ordenadores a través de la croquización, con el apoyo de las herramientas habituales de dibujo y sobre la tradicional mesa-restirador del diseñador. 308 El resultado final se concentraba en un conjunto de documentos llamado proyecto ejecutivo en donde se plasmaba, en dos dimensiones, la creación del diseñador en cortes, en plantas, fachadas, perspectivas axonométricas, etc., para efectos de comunicación visual con el cliente, las autoridades y el futuro constructor de la obra. El empleo de la computadora era escaso y se limitaba para funciones casi exclusivamente en la faceta de la administración del proyecto. Posteriormente y gracias a los avances en los programas computacionales de dibujo a la herramienta virtual se le fue dando mayor participación, sobre todo en la representación gráfica en dos dimensiones; de plantas, cortes y fachadas. Esta nueva función asignada a los equipos virtuales ayudó a simplificar el trabajo del diseñador, permitiendo el manejo del dibujo a través de capas que se podían superponer como hojas de papel (los llamados layers), con la ventaja de hacerlo de manera simultánea. En la actualidad las herramientas digitales han magnificado tanto las posibilidades de diseño a los arquitectos contemporáneos que permiten previsualizar a la perfección lo inmaterial de la idea arquitectónica, con los componentes tangibles que tiene la arquitectura como: la estructuración, las instalaciones, presupuestos y la administración de lo proyectado, etc. con la ventaja adicional de que esta pre-visualización se puede lograr a través del dibujo 3D. Esta visión inmaterial ha fortalecido a la más material de las Artes y esta misma visión es la que permite la edificación de proyectos con mayores dificultades técnicas. La tecnología aplicada a productos y sistemas constructivos también se ha visto fortalecida por el avance en los procesos de diseño asistidos por computadora, permitiendo a los profesionales de la construcción industrializada nuevos procedimientos de diseño y de producción. Como resultado final de esta aportación virtual a la producción industrializada se observan nuevos planteamientos formales y estructurales en las edificaciones terminadas recientemente generados en sus inicios por la inquietud de los despachos de los arquitectos actualizados con estas nuevas herramientas de diseño. 309 4. 5. Figura 4. Torre Bancomer. Figura 5. Esquema de red Museo Suomaya. La prefabricación y su incidencia en la gestión del diseño Por sus industrializados procesos de confección y sus sistemáticos modos de aplicación en obra, a la prefabricación se le envuelve en el entorno de construcción industrializada, sin embargo debido a las importantes variantes en el método de diseño y debido a las importantes aportaciones que ha dado al mercado de la arquitectura contemporánea, a la prefabricación es necesario considerarla como un método independiente de construir y diseñar. Aunque el concepto de construcción prefabricada no tiene una definición semántica muy precisada en el lenguaje común, en la expresión de la práctica arquitectónica sí tiene una connotación bien definida y utilizada con precisión por los profesionales del diseño y la construcción contemporánea. El concepto entendido de “prefabricación”, en nuestro ámbito arquitectónico, es básicamente una referencia de tiempo, de distancia y de aplicación de las cargas finales de trabajo de los sistemas y productos fabricados con ésta técnica, en donde por lo general, los componentes estructurales de la edificación son elaborados en plantas industriales alejadas de la obra y transportados y colocados posteriormente en su sitio terminal de trabajo. Los productos construidos de este modo obtienen todos los beneficios de un método proceso industrial, como son la reducción en el tiempo de fabricación, la reducción de costos de producción, control de calidad mucho más estricto, una óptima calidad en su apariencia y mejora notable en la resistencia estructural. Utilizando la definición descrita por los autores Raúl Díaz y Heraclio Esqueda en su libro productos de Concreto (ed. IMCyC) se define a la prefabricación como: 310 Como el empleo racional de diseño, materiales, equipos mecánicos de producción, transporte y montaje, para producir en series repetitivas, fuera de obra o en ella misma, elementos que no necesiten modificaciones ni complementos, debido a que están diseñados con bases de coordinación modular, estandarización y tipificación. 6. 7. Figura 6. Construcción torre alfa. Figura 7. Construcción L-9 metro. De donde se derivan palabras clave como las siguientes: Empleo racional de diseño.- La prefabricación al ser un método de construcción de punta e incluyente obligado de la Arquitectura contemporánea, integra en sus procesos de producción variados métodos de diseño fundamentados en preceptos industriales y con apoyo de las herramientas de la computación, todos ellos derivados de las ciencias de la comunicación, como los de organización, planeación, control, etc., siendo el diseño el eje rector de todos ellos. Coordinación modular.- El mercado de la Arquitectura de nuestro país, por sus formas de desarrollo plantea a los diseñadores un panorama sumamente complicado de conciliación entre diseño y construcción, ya que en él intervienen dos diferentes sistemas de medición, que hay que decirlo son escasamente concordantes entre sí. El sistema métrico decimal, que es el sistema de medición oficial para aplicarse en México y el sistema inglés de medidas, son los dos sistemas que un diseñador tiene que conciliar durante el proceso de diseño y que en pocas ocasiones logra a plenitud. El diseño se desarrolla con el sistema métrico decimal, la construcción del tipo industrial se fundamenta en el sistema inglés. Tipificación.- La tipificación, entendida como una acción de normalizar es aplicada en forma sistemática por la industria de la prefabricación, ya que las autoridades mexicanas sistematizan oficialmente la mayoría de los procesos de producción aplicados en este tipo de industria. 311 Según esta tesis nos podemos dar cuenta que la prefabricación es un método de diseño que agrupa dentro de sí una serie de elementos o factores con tendencias industrializadoras, como son: los recursos humanos tanto técnicos como obreros y administrativos, los recursos de mecanización de alta tecnología, materiales de última generación y evolucionados procesos de administración fundamentados en programas de cómputo. Gracias a esta tendencia industrial del diseño contemporáneo es posible cumplir los objetivos buscados en cualquier proyecto arquitectónico; hábitat más confortable, a menor costo, más sólido y con reducción de tiempos en su manufactura. Según esta tesis nos podemos dar cuenta que la prefabricación es un método de diseño que agrupa dentro de sí una serie de elementos o factores con tendencias industrializadoras, como son: los recursos humanos tanto técnicos como obreros y administrativos, los recursos de mecanización de alta tecnología, materiales de última generación y en los evolucionados procesos de administración fundamentados en programas de cómputo. El diseño y la construcción también se han visto impactados por el avance de las nuevas herramientas fundadas en las ciencias de la computación en donde prácticamente en todos sus procesos, tanto en el diseño como en su aplicación en obra, así vemos que en los despachos de diseño o en las empresas pre fabricadoras la utilización de esta herramienta es indispensable actualmente para desarrollar sus procesos de ejecución. La nueva herramienta ha permitido la aparición de nuevos procedimientos de construcción, de nuevos materiales y con la inquietud de los arquitectos e ingenieros por nuevas y más audaces de formas arquitectónicas y estructuras. Al inicio de este nuevo siglo se observa una tendencia clara de los profesionales del diseño arquitectónico y constructor del hábitat hacia el manejo de sistemas y materiales prefabricados en sus proyectos, a la par de una tendencia de los empresarios de este mercado por ofrecer productos continuamente renovados y novedosos para el mercado de la construcción en México. Edificar la nueva arquitectura con bases prefabricadas industriales otorga al producto terminado valores estéticos y ventajas técnico-constructivas de gran aporte, además de permitir la edificación en menor tiempo, a menor costo y reducción considerable de los costos finales de la obra, posibilitando diseños de vanguardia. El uso de maquinaria especializada en todos sus procesos, la aplicación de insumos de mayor capacidad para resistir los esfuerzos y el de emplear en los mismos procesos mano de obra altamente capacitada posibilitan alcanzar tales metas. 312 La prefabricación tiene una serie de ventajas, algunas de las más importantes son: Ventajas de tiempo.- En la construcción tradicional las fases de la obra tienen que ser ejecutadas en orden físico, es decir la cimentación es construida después de haberse ejecutado la excavación correspondiente, la estructura después de la cimentación, los acabados no pueden ser colocados hasta después de haberse retirado la cimbra de la estructura, etc., esta circunstancia es obligada por los procesos de construcción que comúnmente son en base al concreto armado. En la prefabricación el ahorro de tiempo es posible porque la ejecución de estas mismas fases es posible, porque mientras en obra se ejecutan los trabajos de la cimentación, al mismo tiempo la estructura o al menos algunas partes de la fase, se realiza en la planta industrial de prefabricados. Ventajas de costo.- La economía de los costos de producción de los prefabricados se logra al utilizarse en su elaboración los fundamentos de la industrialización, es decir el uso mayoritario de maquinaria especializada, mano de obra capacitada debidamente en sus tareas cotidianas, insumos para cimbras más perdurables (como el acero), insumos mejorados para concretos, sistematización en los procedimientos de producción, etc. Ventajas de calidad.- Sistematizar los procesos y las piezas en su diseño, y ejecutar industrialmente las piezas prefabricadas refleja ventajas de alta calidad en su resistencia, en sus uniones y en su calidad estética. Debido a estas posibilidades, generalmente los sistemas y las piezas prefabricadas son diseñadas y construidas con características aparentes. La prefabricación en el momento de ser contemplada como un componente sistemático del método de diseño arquitectónico, ha permitido impulsar a la arquitectura contemporánea hacia un estatus de calidad sin precedente, por sus características altamente innovadoras, de un alto aporte tecnológico y de alto valor comercial. Gracias a esta tendencia industrial del diseño contemporáneo es posible cumplir los objetivos buscados en cualquier proyecto arquitectónico; hábitat más confortable, a menor costo, más sólido y con reducción de tiempos en su manufactura. La prefabricación y su incidencia en la construcción contemporánea La prefabricación en su faceta de componente constructivo se fundamenta en una técnica de producción llamada EL PRESFUERZO que utiliza pro313 cesos de alta tecnología y que permite la producción de los componentes prefabricados de rápida, eficiente, económica y con el valor agregado de poder ser producidos en serie. La técnica del pres fuerzo es un proceso de aplicación que desde su empleo sistemático en la industria, ha logrado impulsar a la prefabricación como un método constructivo sumamente innovador, altamente técnico y provechosamente ventajoso para el mercado de la construcción, tanto nacional como internacional. Actualmente, y gracias a todas las ventajas que proporciona a los industriales de la construcción, esta técnica permite ofrecer opciones sumamente atractivas que reduce en tiempo y costos y aporta una excelente calidad de producción a las edificaciones arquitectónicas actuales. El principio estructural del pre esfuerzo es intuitivo y su origen se pierde en la historia, de las técnicas y el artesanado. Es una técnica general que se puede aplicar a cualquier material de construcción como; el acero, el concreto, la madera, cerámica, etc., sin embargo es en el sistema de concreto reforzado en donde los industriales de la construcción han enfocado sus esfuerzos comerciales y de investigación, desarrollando materiales y sistemas constructivos con tecnología de punta más evidentes, ofreciendo a la Arquitectura productos industriales y métodos de construcción mucho más ventajosos en tiempo, calidad y costo. Se puede definir al pre esfuerzo como: La creación intencional de esfuerzos de compresión, adicionales y permanentes en una estructura o conjunto de piezas, con el propósito de mejorar su comportamiento y resistencia bajo condiciones de servicio altamente demandantes y por sus técnicas de aplicación estos esfuerzos son normalmente aplicados en los extremos de los elementos estructurales. F= fuerzas intencionales de presfuerzo P= carga de diseño sobre la viga 314 En el dibujo se representa gráficamente la función del preesfuerzo en una viga simplemente apoyada. En los extremos de la pieza colada previamente se aplican las fuerzas F de compresión que anulan parcial o totalmente a la deformación de pandeo que se produce naturalmente en el centro ocasionado por el peso propio de la pieza y por la carga permanente P. Una estructura o un elemento aislado al que se le pueden anular o contrarrestar artificialmente algunos esfuerzos de tensión en sus partes internas, reacciona más favorablemente a todas las cargas de diseño o incidentales, además de ofrecer al diseñador opciones mucho más viables de aplicación en estructuras grandes o pesadas o en estructuras con diseños arquitectónicos poco convencionales. En la técnica del concreto pres forzado la resistencia a todos los esfuerzos producidos en las estructuras por la aplicación de las cargas y sobrecargas, naturales e inducidas, se logra con la utilización del material único, el concreto que se pre comprime de manera permanente. El acero utilizado en los elementos pres forzados posee características estructurales diferentes al utilizado clásicamente en el concreto premezclado, puesto que en estos elementos el acero es el medio para aplicar la fuerza de compresión externa, y en teoría podría quedar por fuera del propio concreto. 8. 9. Figura 8. Mesa de pretensados. Figura 9. Aplicación de postensados puente mezcala. La técnica constructiva del pres fuerzo es un término que engloba dos métodos de aplicación, ambos respetan fielmente su teoría de diseño y buscan los mismos objetivos. El pres fuerzo puede aplicarse en la construcción a través de dos métodos 315 El pretensado y el postensado Cada método tiene sus características propias de aplicación que los hacen viables a las diversas circunstancias de obra que se presentan en el mercado de la construcción actual, ya sea en obras de edificación, urbanismo o infraestructura urbana. Conclusiones Como ha sido expuesto, la prefabricación es un método de diseño puntualizado como tecnología de punta y que tiene una alta incidencia en la producción arquitectónica y de obra civil en el mercado contemporáneo de la construcción, pero que a pesar de que es un método de producción altamente rentable y cada vez más influyente en la praxis arquitectónica, todavía es un tema escasamente teorizado y pobremente documentado desde la visión del diseño arquitectónico. La ausencia de información documentada en el contexto mexicano sobre las ventajas que ofrecen los sistemas y productos prefabricados y sobre las condicionantes de su uso, repercuten directamente en la gestión del diseño profesional y lo que es peor en una baja incidencia de aplicación en las edificaciones construidas durante los finales del siglo XX y al principio del XXI del mercado mexicano, que según la Asociación Nacional de Industriales de la Prefabricación y el Presfuerzo (ANIPPAC por sus siglas) apenas alcanza el 3% de utilización en las edificaciones construidas a partir del inicio de este siglo. Cone estos porcentajes se puede deducir que la prefabricación todavía no no alcanza todo su potencial como herramienta de producción arquitectónica, actualmente. En mi opinión y en razón de razón de la realidad planteada es urgente modificar los tradicionales métodos de diseño de las futuras edificaciones por diseñarse y construirse, volteando a los nuevos horizontes que el mercado mexicano ofrece al diseñador y constructor del hábitat contemporáneo con el fin aprovechar en su máxima dimensión las ventajas tecnológicas, de costo y de calidad que ofrece esta nueva herramienta llamada prefabricación. 316 10. 11. Figura 10. Cámara de senadores. Figura 11. Oficinas administrativas en monterrey. Referencias [1] Canales Fernanda. La Construcción De La Modernidad En México. Revista Arquine # 68. México 2014 [2] Enrique X. De Anda. Historia De La Arquitectura Mexicana. Gg. 2013 [3] Gustavo López Padilla. Nueva Arquitectura Mexicana. Editorial Designio Unam. 2011 [4] Edward R. Burian. Modernidad Y Arquitectura En Mexico. G.g. Mexico. 1998. Entrevista Al Arq. Alberto Perez-Gomez. [5] (http://eadic.com/blog/prefabricacion-vs-industrializacion/). 317 Un acercamiento a la actual postura política virtual desde la mirada del Diseño Betsabee Álvarez Jiménez Facultad de Arquitectura y Diseño, Universidad Autónoma del Estado de México [email protected] Resumen En este trabajo reconoce al “meme” como el neopasquin. En este caso se analiza un neopasquin político siguiendo la estructura propuesta por Ch. Perice de la abducción para llegar a un resultado que nos pueda explicar la imagen. Si se lee al meme como neopasquín político se podrá comprender que cualquier escrito anónimo puede formar parte de su definición. El presente escrito, si bien, no se encarga de delimitar los mercados, si habla acerca de uno “El mercado virtual”, quien lo conoce o quien lo ve. Pero, sin embargo, está presente; es este mercado el que difunde la publicidad política. Dentro de lo que engloba este escrito refiere al marketing político a la comunicación política y al proceso que lleva a cabo esta para dar a entender su mensaje a las masas. Este trabajo trata de articular estos conceptos con la ya distribución mediatizada de los neopasquines y en él habrá una planteamiento como resultado, un acercamiento entre México y Chile haciendo un análisis del neopasquín usado para el manejo de los nuevos mercados. Palabras Clave: meme, neopasquin, significado, comunicación, virtualidad Introducción En este artículo se discute el nuevo uso del pasquín y neopasquín dentro de la neo-comunicación o llamada Folkcomunicación por Luis Beltrão (1965). Él habla de las relaciones comunicacionales entre sociedades marginales urbanas y rurales. Se pregunta: ¿Qué pasa, pues con las sociedades invisibles? El presente escrito, si bien, no se encarga de delimitar los mercados, si habla acerca de uno “El mercado virtual”, quien lo conoce o quien lo ve. Pero, sin embargo, está presente pues; es este mercado el que difunde la publicidad política o la también llamada Folkmarketing político, a raíz del autor Beltrão. 318 El pasquín político tiene como característica el ser furtivo, satírico, o presentarse de manera burlona o sarcástica ante los ojos del espectador para informar de algo, es muy común que no lleve firma de quien lo ha hecho y es un medio de difusión que pretende llegar a las más personas que pueda. En este sentido y de manera virtual se presenta al “meme”. Se introduce el termino “meme” en 1976 “The Selfish Gene” como el gen que se mimetiza de otros. “(…)Necesitamos un nombre para el nuevo replicador, un sustantivo que conlleve la idea de una unidad de transmisión cultural, o una unidad de imitación. «Mímeme» se deriva de una apropiada raíz griega(…)Espero que mis amigos clasicistas me perdonen si abrevio mímeme y lo dejo en meme”(Dawkins:1990;211). El meme trata de mimetizarse, como lo hacen las modas, los lenguajes, los medios de producción etc. “(...) Al igual que los genes se propagan en un acervo génico al saltar de un cuerpo a otro mediante los espermatozoides o los óvulos, así los memes se propagan en el acervo de memes al saltar de un cerebro a otro mediante un proceso que, considerado en su sentido más amplio, puede llamarse de imitación.” (Dawkins:1990;212). El “meme” no solo es la propia imitación sino la comprensión de un nuevo sentido de información. Debemos entonces estudiarlo y leerlo como neopasquin, parte del lenguaje. Y por ende parte de la comunicación. Del mismo modo que el pasquín el meme se ha caracterizado por ser irónico en sus criticas, es del mismo modo viral y anónimo, siendo esparcido por las redes sociales en la virtualidad es casi imposible saber quién es la persona que lo introduce al ciberespacio. Dentro de los nuevos elementos de la comunicación, uno de ellos, es que se ha globalizado la información en las elecciones presidenciales de los países del mundo. Se ha encontrado que el actual pasquín político, es el tipo de afiche o libelo que ha ido evolucionando junto con la globalidad de la información. El pasquín político actual forma parte de la comunicación masiva en las nuevas tecnologías. Por lo tanto, se pueden plantear alternativas de análisis en las que, el neopasquín (político) propagandístico de las campañas para la elección presidencial, es un tipo de comunicación de masas, y que, por medio de su reconceptualización, dentro de los esquemas de las condiciones de las tecnologías actuales ayudarán a la comprensión y crítica de los signos utilizados en las campañas políticas en México. 319 Figura 1. Neopasquín político: en la comunicación de masas y su re-conceptualización. Que las reglas del juego de la comunicación política sean de procedencia mediática no quiere decir que los medios se conviertan en un factor independiente, inmunes a la influencia manipuladora de otros actores. Puesto que son los medios los encargados de poner en relación a la política con su público en todo momento y siempre que pueda aquella tratara de alternar en beneficio propio de la información política. Mas difícil la tienen los ciudadanos, tercer actor de esta comunicación, debido a que son más bien un objetivo a conquistar y a persuadir por políticos y medios, antes que actores en sentido propio (Ortega; 2011: 12). Uno de los fines inmediatos de la comunicación política es este sentido de empoderamiento y de mantener el control, como decía Maquiavelo, un príncipe prudente no puede mantener fidelidad en las promesas cuando tal fidelidad redunda en prejuicio propio. Si bien mantener el control de la comunicación hace que el pueblo se sienta en conformidad y en tranquilidad, también, es cierto que lo que los gobernantes buscan es mantener el poder de la sociedad en control y para esto se valen de los recursos mediáticos y el juego con la imagen. Thomas Hobbes habla del Leviatan, mencionado en la Biblia en el libro de Job, donde lo describe: El Leviatan como creación de Dios cuya monstruosidad consiste en que ningún individuo tiene tanta fuerza o poder como él, de tal modo que careciendo de temor ante los más poderosos, Leviatan simboliza -lo que poéticamente se clasifica como- la ley para todos los hijos del orgullo (…) Si tiene sentido alguno, decir que los ciudadanos hobbesianos tienen miedo al estado… (Carrillo; 2002: 268). Es así como se llega a la conclusión, basados en la teoría del Leviatan de Hobbes, que el empoderamiento es uno de los factores determinantes dentro del juego político en que se afirma el poder, por así decirlo, el poder lo tiene alguien indefinible o amorfo. Hobbes presenta al Estado como un monstruo o una máquina de poder. 320 La folkcomunicación, envuelta en los pasquines actuales La folkcomunicación, propuesta teórica planteada hace más de 40 años por el periodista y profesor brasileño Luiz Beltrão (1965), es entendida en sus propias palabras como “...el proceso de intercambio de informaciones y manifestaciones de las opiniones, ideas y actitudes de masa, a través de agentes y medios vinculados directa o indirectamente con el folclore” (Arroyo; 2008). La folkcomunicación es la resistencia de la cultura popular, la comunicación de los marginados rurales y urbanos. Los culturalmente marginados. Se basa en un estudio de medios y de agentes de información de datos y expresión de ideas. De lo que se habla, pues, es de una comunicación subalterna o marginada. Esto dice que es un tipo de comunicación en movimiento. El nuevo pasquín político toma fuerza en las redes sociales, como un medio alterno de la comunicación siendo nuevo y reaccionario. Los pasquines actuales se vuelve una resignificación simbólica de la propia identidad política/juvenil. Supone la cercanía de la institución que se ha hecho vieja y se creé que es para los nuevos viejos. Pero la juventud conoce y reconoce la propia esfera política y la hace propia para resignificar y hacer parte a los demás y acerca su significación hacia las de los otros y se crea una globalidad de información donde no solo la identidad nacional es importante, sino la nacional global genera una propia visión local. ¿Cómo se puede jugar con los mismos signos dentro de los significados y a su vez resignificar con los mismos signos para que los signos virtuales se transformen en nuevos y útiles para las nuevas redes sociales? La folkcomunicación parece validarse hoy tanto o más que antes, pues, en el nuevo siglo presenciamos una transformación sin precedentes en la historia de la humanidad que está definiendo una nueva sociedad contemporánea, con nuevas formas de expresión de las aspiraciones y expectativas populares (Arroyo; 2008). En este mismo panorama, la folkcomunicación es un medio para el estudio y entendimiento de los pasquines actuales ya que es este movimiento de la comunicación fuera de los limites legales pero sin dejar de ser legitimada por los actores que los hacen y los que están alrededor. 321 Figura 2. Neo-pasquín político en el espacio de la Folkcomunicación. El mercadeo político y el actual pasquín El marketing (término en inglés) es una de las herramientas más utilizadas dentro de la publicidad y los medios sirven para posicionar productos y servicios. En la actualidad los medios de comunicación han sido una ayuda fundamental en el marketing. Hoy en día la mercadotecnia, no solo ha servido para publicitar y vender productos, sino que es también de gran ayuda para posicionar en un mercado electoral, a un candidato o a un partido político. De la mercadotecnia habría de desprender la mercadotecnia política, cuya función primordial, en los regímenes democráticos, es precisamente la movilización de los medios para manipular la voluntad colectiva que, consciente o inconscientemente, sanciona la legitimidad del poder (Montero; 2006: 7). Actualmente el marketing político es reconocido como posicionador en las elecciones de algún aspirante político. El marketing político es una de las bases de la política para poder empañar u ocultar obstáculos que pudieran tener para la gente. La política, por su naturaleza, necesita darse a conocer, por lo cual, se vale de la comunicación política para el intercambio de la información dentro de sus usos políticos y/o electorales. El marketing político, se vale de la comunicación política para dar por entendido su trabajo. Desde los años cincuenta, las técnicas de la mercadotecnia, que hasta entonces habían tenido un papel clave en el campo de la promoción de ventas de productos y en el “posicionamiento” de marcas, en la siempre fluctuante preferencia de los consumidores, se han encadenado a una nueva vertiente poniéndose al servicio de la política, a la que, en un principio trasladaron los mismos supuestos al redefinir al ciudadano, como consumidor, y al candidato, como el producto, quien es exhibido en las pantallas de la televisión –siguiendo el símil de Régis Debray- con el papel de la estrella (Montero; 2006: 18). 322 Puesto que son los medios los encargados de poner en la relación a la política con su público en todo momento y siempre que pueda aquella tratará de alterar en beneficio propio la información política. (Ortega:2011;12). La marketing político movido por el publicidad política vende productos políticos que llegan a su público meta a partir de las imágenes generadoras de informaciones y/o comunicados que son los encargados de hacer la comunicación política. “…La comunicación política es el conjunto de técnicas que permiten captar las necesidades que un mercado electoral tiene, estableciendo, en base a estas necesidades, un programa ideológico que las soluciones y ofreciéndole un candidato que personalice dicho programa al que se apoya e impulsa a través de la publicidad política…” (Barranco; 1994: 13). La política entonces se ha convertido es un juego lucrativo para la mercadotecnia y para los personajes que se encuentran dentro de ella, siendo pues, que la política se vale de ellos para convertirlos en un artículo vendible. Pero no sólo es la política, sino que los candidatos en ella se mueven. Es innegable que la mercadotecnia política tiene en la actualidad una importancia fundamental y es materia de especial preocupación de parte de los analistas y los sectores más conscientes de la clase política (Montero; 2006: 20). La comunicación política se ha vuelto indispensable para la promoción de los asuntos políticos. La comunicación política forma parte de la experiencia de venta de la política. Es condición para poder negociar entre el emisor y (el) los receptores el resultado de este intercambio, que sin embargo, es lucrativo para una de las dos partes. La comunicación puesta al servicio de la política y, en consecuencia de los políticos (Montero; 2006: 7). En la política hay una estrecha relación entre el político y el electorado o quizá eso debería ser, un ambiente estrecho entre ambos. Lo real es que, tanto la comunicación política y el marketing político han generado estos caminos, pero con ciertos ruidos al momento de hacer que el mensaje llegue al receptor. Esto es, que han creado neopasquines o los llamados “memes”, que han sido parte importante en la época actual. Los pasquines políticos actuales han entrado de manera viral por todas las redes sociales conformando una forma de pensamiento o varias alrededor de la política actual. Y ha reconfigurado esta forma ambigua entre la propaganda y la publicidad política volviéndola así mediática y globalizada. 323 Un acercamiento a los actuales pasquines o a los memes Un pasquín es un escrito anónimo que se fija en sitio público, con expresiones satíricas contra el Gobierno o contra una persona particular o corporación determinada. (RAE: 26/11/13) En Italia se colocó una estatua llamada pasquino en honor a un zapatero muy conocido en Roma, en ella se hizo costumbre colocar escritos a sus pies sin autor, eran anónimos y cualquiera podía leerlos. El pasquín es un libelo o folio colocado en las calles o el plazas con contenidos satíricos, en su inicio fue conocido por sus acusaciones hacia el papa entre los siglos XVI y XIX. (RAE: 26/11/13) Los pasquines no solo fueron llamados así, por una falta de tolerancia o rebeldía, fue porque se tenía por claro, que era una fuente confiable, porque la gente que escribía no tenía casi nada que perder o al menos no tenían tanto miedo porque fueran descubiertos y de alguna forma se mostraba como una posible fuente confiable de información, pero lo que, si era característico y para resolver su seguridad era que no tenían el nombre escrito, no eran firmados. Los multimedios, hoy tienen esta misma característica o posibilidad. Y he llegado a esta postura puesto que: El pasquín político hace el juego dentro de los multimedios de reproducir informaciones y crear ese círculo que lo convierte en comunicación entre los internautas. A éste, comúnmente, se le ha llamado ”meme” que ha sido un nombre generado dentro de los multimedios por la gracias de poder mimetizarse dentro de los medios casi sin ser percibido. La transmisión cultural, los procesos de formación y circulación de ideas que se imponen rápidamente en una época o en una sociedad determinada, siguen unos caminos que no son alterables a los que describen las teorías clásicas de la información o de la comunicación que estudian los canales, los sistemas de codificación, los medios de comunicación, etcétera y que no se reducen tampoco a los mecanismos de difusión o transmisión cultural estudiados por los antropólogos o los sociólogos sino que, supone además un proceso de asimilación mental y afectivo que se efectúa en interacción con el medio cultural, y que manifiesta los rasgos propios de un proceso evolutivo. (Cortés; 2013) Los “memes” han facilitado, poder burlarse de forma frontal y tan desfachatada de la política y de casi cualquier cosa que nadie le ha tomado como ofensa directa, como algunos otros comentarios hechos en medios masivos como televisión y radio… que se ha vuelto tolerado entre las hegemonías de la política, iglesia y medios. Pero, hay estados totalitarios que han puesto normas duras contra “pasquineros”. En México, el Estado de Veracruz ha impuesto castigos y multas contra cibernautas-pasquineros. 324 Desde el ámbito de la semiología se empieza a señalar que la transmisión cultural se sustenta en procesos que impregnan el conjunto del tejido social y que van más allá de las consabidas presiones de los medios de comunicación. Así, recientemente, Umberto Eco señalaba que “desde hace varios decenios circula la teoría, según la cual, los medios de comunicación no siempre crean opinión, sino que refuerzan la que ya circula (Cortés; 2013). La única preocupación en la actualidad del neopasquin o el “meme”, es en qué medida puede hacerse viral, de otra forma no tendrían la aceptación en las masas. Aceptación que dentro de muchos mercados virtuales tiene. Ya que los memes hoy en día pueden ser el medio para hablar o burlarse casi de cualquier cosa. En Chile empezaron a tomar fuerza en el pasado movimiento estudiantil 2011-2012. Los estudiantes chilenos hicieron gran uso de estos, como un autodiscurso de lo que estaba pasando en su entorno y para reconocerse dentro del grupo. Estos son discursos autodirigidos al mismo movimiento. Ambos discursos son inconmensurables, poseen un desacuerdo profundo y no es posible un consenso (Holzmann ; 2012: 4). Con el uso de los actuales pasquines políticos, se puede desafiar al sistema, que si bien, no generan cambio, están ahí para gritar la inconformidad por la cual fueron hechos. En el caso chileno, los memes marcaban el curso del movimiento y la lógica del propio. Gran parte del movimiento estudiantil se configura y organiza a través de la red, lo que hace necesario explorar el lado del movimiento en cuanto se desarrolla al alero de las tecnologías que proporciona internet, medio por el que se difunde información, noticias, videos, etcétera, y mediante el cual se organizan (Holzmann; 2012: 6). En el contexto mexicano pasa algo similar, los movimientos sociales no se hicieron esperar al enterarse de los candidatos presidenciales en el mismo año, del mismo modo que los estudiantes Chilenos, la juventud mexicana empieza hacer uso de las redes para poder organizarse. Los actuales pasquines políticos empiezan a rodar en la red desde que aparecen las imágenes de los candidatos presidenciales para las elecciones del 2012-2018. Surgieron memes que empiezan a utilizar las redes para conocer y ridiculizar y/o ensalzar a candidatos presidenciales. El movimiento juvenil, #yosoy132, utiliza las redes sociales para organizarse para que los conozcan y para dar a conocer movilizaciones. Los pasquines políticos surgen en este momento para disfrazar y poner a salvo la integridad de los propios jóvenes. 325 Tanto Chile como México empatan los movimientos juveniles generados por causas distintas, pero exigiendo ambos un cambio radical, los pasquines políticos actuales ayudaron en estos procesos: mexicano y chileno. Método de análisis: Abducción Pasquín político actual El método que se usa para este análisis de pasquín político es el propuesto por Ch. Peirce, la forma más sencilla (según mi percepción) de llegar a un hipótesis definible, es decir que es lo más obvio que nos podría explicar una imagen dada y como se explica. Para Peirce la abducción es primero (existencia, actualidad); la deducción va en segundo lugar (posibilidad, potencialidad); y la inducción en tercer lugar (generalidad, continuidad). La abducción juega el papel de producir ideas nuevas o hipótesis. La deducción funciona como una forma de evaluar las hipótesis. Y la inducción justifica a la hipótesis con datos empíricos. (VargasMendoza:2006;17) Figura 3. Josefina y Pinochet. Este pasquín que en Junio del 2012 rodó por las redes sociales es uno de los mejores ejemplos encontrados donde pueden conocer y reconocer rastros de ambas posiciones políticas, en México y en Chile. Abducción: La abducción es la búsqueda de un patrón de regularidades en el fenómeno estudiado y así poder sugerir una hipótesis. (Vargas-Mendoza:2006;17) En este pasquín se plantea una unión entre la posición política de Josefina Vázquez Mota (candidata presidencial en México 2012-2018) y el ex dictador de Chile Augusto José Ramón Pinochet Ugarte (1973 y 1990). Esta unión presupone la similitud en características entre ambos actores políticos. 326 Deducción: Deducir es derivar consecuencias lógicas desde las premisas. La conclusión es verdadera, dado que las premisas sean también verdaderas. (Vargas-Mendoza:2006;18) Si se sabe que Pinochet fue uno de los más grandes violadores de derechos humanos. Rígido al mandar en un país por su antecedente militar. Al situar a Josefina Vázquez Mota junto al se puede deducir que si ella llegara (pensando en ese momento) a la presidencia el proceso presidencial sería algo muy familiar a el periodo del ex dictador chileno. Inducción: Las proposiciones y las aserciones no están en el mismo nivel de conocimiento. (Vargas-Mendoza:2006;19) Se sabe que en la dictadura de Pinochet hubo acusaciones de violaciones de los derechos humanos las cuales no fueron del todo esclarecidas. Se le acuso de tortura y asesinatos, acciones ilegales e ilegitimas. La candidata presidencial es conocida por su inclemencia para algunos asuntos legales dentro de sus periodos como dirigente. Se le acuso de la coacción del voto a mujeres pertenecientes al programa oportunidades (México). Se le acuso de ser cómplice de los muertos durante el periodo presidencial de Felipe Calderón Hinojosa (2006-2012). En su paso en la SEDESOL (Secretaría de Desarrollo Social) fue culpada de algunas faltas en el tema de desarrollo social. Resultado del análisis • Tanto Augusto Pinochet como Josefina Vázquez representan a la derecha, o podría aseverarse ultraderecha. Pinochet por su parte, es el símbolo del fascismo en Latinoamérica. Josefina recordada en México por robos y caros regalos a la iglesia, desvíos de recursos para poblaciones de escasos recursos (población tarahumara) y la amenaza de continuar con la guerra que el ex Presidente Calderón habría iniciado en 2006, donde se contabilizan 47 mil 515 asesinados (Siempre: presidencia de México, GÓNGORA, Genaro.), una cifra similar a la que reconoce Chile durante el periodo de Pinochet de mas de 40,000 muertos (El País, DÉLANO Manuel). Pero solo esto es lo que reconoce el gobierno, en ambos (México-Chile) casos no se sabe a ciencia cierta cual es la cifra real. Se presupone que a partir de este análisis la combinación de la imagen de Pinochet con Josefina Vázquez, la forma de dirigir a un país de la candidata por el PAN (Partido Acción Nacional) podría reflejar la manera de Augusto Pinochet. Que de tal forma se obtendrán los mismos resultados o seria muy parecido lo que pasaría en el país bajo su régimen. 327 Conclusiones El pasquín político es un elemento actual, utilizado en el ciberespacio como un elemento de comunicación “libre”. Es un elemento que puede ayudar o ser un crítico (“enemigo”) de la política no democrática, porque, siempre estará ahí para criticarla o para ayudar a su buen entendimiento. Es posible llamar al meme neopasquín, porque la naturaleza de ambos es mimetizarse en el ambiente político-propagandístico, y en ambos casos es posible, investigarlos, analizarlos para poder concebir, su influencia y crítica en los resultados políticos donde intervienen. El neopasquín es el resultado de un proceso de comunicación libre, y el proceso mediático que ha tenido como centro la crítica a la política. Respecto al análisis del pasquín, presentado para su crítica desde el diseño y la semiótica, se tiene que, sin ahondar en su propuesta específica y particular, un pasquín puede ser analizado tanto en su propuesta gráfica como discursiva. El mensaje presentado contiene todo un ejercicio de comunicación y éste puede generar una respuesta crítica por parte del receptor. En el ciberespacio se pueden tener diferentes niveles de respuesta, puede ser, desde, un simple “like” hasta un comentario y más aun compartirla entre los demás usuarios de la red, para que cumpla su función de comunicación, su folkcomunicación. Referencias [1] Arroyo Carlos M. (2008). Folkcomunicación: aportes para la reflexión de un campo en crecimiento. REDALYC Numero 60. México [2] Barranco S. Francisco J.(1994). Técnicas de Marketing Político. Red editorial Iberoamericana. México [3] Carrillo C. Lucy. Thomas Hobbes y El concepto de estado constitucional de derecho. Revista de estudios políticos. Nueva Época, Núm. 117. Julio-Septiembre 2002 [4] Cortés Morató Jordi. ¿Qué son los memes? Introducción general a la teoría de memes. 29/11/13 http://biblioweb.sindominio.net/memetica/memes.html [5] Dawkins Richard (1993). El gen Egoísta: Las bases biológicas de nuestra conducta. Salvat. Barcelona [6] El país revisado el 9/12/13 DÉLANO MANUEL http://elpais.com/diario/2011/08/20/internacional/1313791208_850215.html [7] Holzmann I. Juan F (2012). Memes y caricaturas del movimiento estudiantil Chileno. Santiago de Chile. [8] Montero L. Francisco X.(2006) Los mercenarios de la imagen: Mercadotecnia vs Democracia. Siglo XXI. México. [9] Ortega Félix (2011) La política mediatizada. Alianza editorial. Madrid España. 328 [10] Real Academia Española 26/11/13 http://buscon.rae.es/drae/srv/search?id=SEyrC9b4aDXX2UAXQVqJ [11] Siempre presidencia de México revisado el 9/12/13 Góngora, Pimentel, Genaro David http://www.siempre.com.mx/2012/01/los-muertos-de-la-guerra-de-calderon [12] Vargas-Mendoza Jaime E. (2006), La filosofía de la ciencia de Charles Peirce: Lecturas para un seminario, Asociación Oaxaqueña de Psicología A.C. México. 329 Lina Bo Bardi y su universo subversiva y revolucionaria, vanguardista y crítica Maricarmen Ramírez Hernández División de Ciencias y Artes para el Diseño, Universidad Autónoma Metropolitana [email protected] Resumen A Lina en el centenario de su nacimiento 1914-2014. Las emociones se apretujan en el estómago, la nítida luz se refleja en el verde esmeralda de la vegetación. Ahí, al frente, se asoma cauta la geometría de su casa-hogar. Inicia la aventura. Arquitecta, artista, diseñadora de muebles y modas, artesana, vanguardista, revolucionaria y critica, dueña de una personalidad y mirada que arrasaron los prejuicios y los límites impuestos en una época marcada por el fascismo. Por ello, cuando en 1946 pisa tierras brasileñas, manifiesta, “Me sentí en un país inimaginable donde todo es posible”. Se apasiona por la naturaleza tropical y por el pueblo brasileño, que a decir de la misma Lina “No está contaminado por la soberbia y el dinero”. Este ejercicio tiene como único objetivo revelar a las nuevas generaciones la historia de una arquitecta-revolucionaria que elige a Brasil como su país, en donde actuará siempre bajo una actitud ética y comprometida, imbuida por los principios de igualdad, justicia social y democracia. Empuña al arte como arma en contra de la opresión y a la ciencia como su aliada, encaminando sus pasos en la búsqueda de la completa libertad de creación. Transformando para siempre el paisaje cultural brasileño. Palabras clave: Revolución, transformación, democracia, arquitectura y paisaje Introducción “Los que deberían haber sido años de sol, de azul y de alegría, los pasé debajo de la tierra, corriendo y descendiendo bajo bombas y metrallas”. Aquilina Bo Bardi Brasil es doblemente mi país, es mi “Patria por Elección” Lina Bo Bardi Es una mañana prodigiosa, un grupo de amigas viajan en un autobús que las lleva de Campinas a Sao Paulo, el tiempo apremia, se abullonan en el sillón, disfrutando anticipadamente del placer próximo a disfrutarse. Recorrer los 330 camellones, jardines y arquitectura de la Universidad de Sao Paulo (USP) , sus veredas pobladas de especies maravillosas y pequeños simios cabeza de león… más tarde, la promesa de visitar la casa de Lina Bo Bardi, arquitecta, artista, diseñadora de muebles, escenógrafa, editora e ilustradora, vanguardista y revolucionaria. Las emociones se apretujan en el estómago, la luz es especial, un calorcito recorre la espalda, los olores despiertan memorias ancestrales, la boca hace agua adivinando el placer del maracuyá, acaí o cajú, la exuberante vegetación cubre la mirada de esmeralda, olores cálidos inundan el ambiente. El recorrido de la USP a la casa de Lina es sorpresivo, la ciudad nos envuelve. Arquitectura en altura. Nos sorprenden los espacios reglamentarios entre edificio y edificio, acostumbrados como estamos a enfrentarnos a una ciudad de México donde los edificios se apretujan unos al lado de los otros sin permitirse ni siquiera respirar, apenas una junta constructiva de 10 centímetros los separa, y resguarda de la indeseada proximidad, en Sao Paulo el viento envuelve a los edificios. El ritmo, la pulsión de Sao Paulo es avasallante, es una ciudad vital con una vida intensa de día y noche. Sin embargo, la desigualdad está presente. Periferias polarizadas hacen evidente que este lugar de jauja no puede sustraerse a la realidad de toda América Latina. La pobreza abraza a amplios sectores de nuestras ciudades. Mis amigas conversan y yo logro sustraerme por unos instantes. Mi mirada sobre Brasil se agudiza y no puedo evitar preguntarme ¿Que percibió Lina, que se entregó a Brasil sin titubeos? Nos aproximamos por fin a la “Casa de Vidrio” –hoy Instituto Lina Bo e P M Bardi- hogar de Lina y Pietro María Bardi (su esposo). Una densa vegetación casi la cubre por completo, apenas adivinándola detrás de una espesa cortina de árboles inmensos, enredaderas, cubrepisos y arbustos de la más diversa variedad. La casa que se imbrica con la naturaleza establece una respetuosa comunión con el contexto y confina el universo infinito de una mujer ejemplar. Lina Humanista, arquitecta, artista, su historia está por develarse. El lugar en que nacemos no es una elección. Si lo es aquel donde decidimos vivir. Achillina Bo Bardi, nombre completo de Lina (su sobrenombre Achillina di Enrico Bo) nace en Roma en 1914, en Prati di Castello, barrio que surgió cuando la ciudad se transformó en capital de Italia. Cuando era pequeña (Figura 1) iba a Bordighera en el límite con Francia, Niza y Cannes a visitar a su abuelo materno quien vivía en Taliacozzo. Su abuelo era médico, vivía 331 en una casa antigua y muy bonita –comentaba Lina-. También gustaba de ir a la playa en Ostia un puerto de Roma. En su juventud gustaba de acudir a espectáculos de variedades, esto no era del gusto de su madre, pero tenía un tío que era periodista, un gran cómplice, él era quien la llevaba a los espectáculos. Otra de sus pasiones era el cine, disfrutaba particularmente las películas alemanas americanas y francesas, (Instituto Lina Bo e P.M. Bardi 2008). Figura 1. La infancia de Lina y sus primeros años de escuela. Fuente: Instituto Lina Bo e P.M. Bardi (Documento oficial). Su formación es artística, estudia diseño en el Liceo Artístico y posteriormente en la Facultad de Arquitectura de la Universidad de Roma. Paradójicamente ella nunca quiso ser joven, ella “quería tener historia”. Sin embargo terminó aborreciendo la formación que recibió ya que se centraba en la observación de monumentos antiguos. Descontenta con la formación totalmente tradicionalista que impartían rechazaba esa orientación valorada por el fascismo y decide trasladarse a Milán. A su llegada se vincula, e inicia una etapa de trabajo con el líder del movimiento por la valoración de la artesanía Italiana, quien además es arquitecto. Este encuentro será determinante en su vida. A la par de su formación como arquitecta y artista, establece tempranamente un profundo compromiso político colaborando con el Partido Comunista Italiano. Como parte de sus actividades políticas se integra a la resistencia en contra de la ocupación alemana. De manera que los que habrían de ser años de juventud, alegría y producción profesional se tornan en años de lucha clandestina (Figura 2). Definir a Lina obliga a una amplia gama de adjetivos, humanista, brillante, inteligente, revolucionaria, critica. 332 Figura 2. Lina en Milán Italia, mayo de 1945, en un barrio popular construido durante el fascismo. Fuente: Instituto Lina Bo e P.M. Bardi. Finalmente termina la Segunda Guerra Mundial y Lina se casa con el historiador y crítico de arte Pietro María Bardi, y ambos deciden Viajar a Brasil, se embarcan para cruzar el Atlántico (Figura 3), Lina Lleva en la Maleta un alud de emociones y deseos, empieza una nueva etapa, la promesa de un nuevo lugar, toda vez que avista desde el barco la ciudad de Olinda – Ciudad a la que llega el barco en el que viajaron-, vientos renovadores sacuden su melena, esboza una sonrisa esperanzadora, desembarcan y al pisar tierra la escucho decir…“Me sentí en un país inimaginable donde todo es posible”, ese lugar era Brasil, el lugar prometido. Figura 3. Nápoles 1946 abandonando Italia. Fuente: Instituto Lina Bo e P.M. Bardi. Arquitectura de dos mundos. O entre la metralla y la pasión En este nuevo mundo (Figura 4) Lina encuentra el lugar propicio para crear en libertad, a decir de Aniello Avella (2014) “La posibilidad de construir 333 un mundo nuevo para un pueblo nuevo (…) Hija de una tradición muy antigua, ella devora y es devorada por la arquitectura popular. En ese banquete antropofágico la arquitectura convive y se mezcla con el diseño, la museología, la educación y la realización teatral y cinematográfica”. Se perfila así, una creadora comprometida con la complejidad del proyecto, el contexto, pero particularmente con los seres humanos que habitarán la arquitectura. Figura 4. Olinda en Recife, primer encuentro de Lina con Brasil. Fuente: Instituto Lina Bo e P.M. Bardi. Su arquitectura estará influenciada por el viejo mundo en el que creció se formó y al cual rechazó y el nuevo mundo que se ofrece complaciente, a su apetito, Lina siempre pondrá de relieve los valores éticos y sociales del arte heredados de su origen, bajo este código que estará presente en sus obras se materializa su doble esencia Italia-Brasil, ella se encargará de depositar en sus obras lo mejor del viejo y nuevo mundo, elige finalmente una vida comprometida y se nacionaliza brasileña. “Cuando la gente nace –escribe Lina- no escoge nada, nace por casualidad. Yo no nací aquí, escogí este lugar para vivir. Por eso, el Brasil es doblemente mi patria, es la patria que elegí…” (Aniello Avella 2014). De la misma forma eligió trabajar para los más pobres, aunque eso no le impidió realizar grandes obras, pero siempre obras que tuvieran un impacto en la comunidad. Lina fue siempre cercana al pueblo, viajo por todo Brasil, pero estableció profundos vínculos afectivos con una región especial…el nordeste de Brasil, concretamente a Bahía en donde se vincula a grandes personalidades tanto de Brasil como de Italia –ya que en ese momento otros intelectuales importantes de Italia se dejaban seducir por la efervescencia imperante en esta región del mundo. El golpe militar de 1964 la obliga a regresar a São Paulo. (Enciclopedia Itaú de Artes Visuales) 334 De esta profunda experiencia asume los rasgos de lo que califica como “arquitectura pobre”. Y podemos citar como ejemplos representativos de esa etapa de su carrera los soportes museográficos de la exposición A Mão do Povo Brasileiro [La Mano del Pueblo Brasileño], 1969, hechos con tablas de pino de segunda calidad; el edificio del Sesc Pompéia, 1977, adaptación de una antigua fábrica de tambores; el Teatro Oficina, 1984, construcción que disuelve la rigidez de la relación escenario-asistencia por medio de la creación de un teatro-pista, como un sambódromo. Después de esta fructífera e inspiradora etapa su vida queda marcada para siempre (Aniello Avella 2014). “El legado de la temporada nordestina dejo incorporado para siempre en su producción artística la forma de una radical experiencia de simplificación de lenguaje, la arquitectura pobre, como ella acostumbraba a decir, es un modo de devorar la cultura popular y conjugarla con las soluciones más osadas de vanguardia. La aristocracia del pueblo, expresión típica de la lengua de Lina, que recuerda el espíritu heroico apuntado por Rosellini, es un concepto cuyo origen está en el pensamiento de Antonio Gramsci, el teórico del socialismo y fundador del Partido Comunista Italiano, que muere por consecuencia de un largo y duro presidio, impuesto por el régimen fascista”. ( Aniello Avella 2014) Lina vivió así, sin concesiones, comprometida con las causas más justas. Se definía así misma como comunista, sin embargo nunca se pliega a las instituciones, y sostiene a lo largo de su vida una férrea lucha contra toda forma de explotación y opresión. Lina fue a decir de Jorge Amado (citado por Aniello Avella), “Una suerte de figura tutelar de las artes bahianas. La dictadura militar, reaccionaria y oscurantista, la obligó a irse de Bahía”. Y regresa a casa, Sao Paulo (Figura 5), a la avenida Paulista, a su casa de cristal en Morumbi… Figura 5. Dos de sus principales obras en San Paulo . El Centro Cultural de Pompéia y el MASP, Museo de Arte de San Paulo. Fuente: Instituto Lina Bo e P.M. Bardi impresao oficial. 335 El banquete antropofágico de Lina Ella devora y es devorada por la arquitectura popular, en un “banquete antropofágico”, sin precedentes. Tal parece que al engullir las costumbres, la belleza, la cultura de las comunidades con las que trabajó pudieran transmutarla en la cosa misma, nutrirla, darle vida, largo y renovado aliento… como cuando una madre a su hijo recién nacido dice: quisiera comerlo, en un acto de profundo amor, ser en su hijo y ser para su hijo, su hijo en ella y ella en él, los dos la misma esencia, la misma carne, la misma piel. Esta visión permea para siempre su vida. La antropofagia que surge como tema en la poesía se convirtió en el tema central de la XXIV Bienal de Sao Paulo 1998 y adquiere vigencia. Antes Lina de alguna manera abrazo y se nutrió de este banquete antropófago. Este encontrarse en el otro, ser el otro, nace a mi parecer de la pasión que Lina desarrollo desde su llegada a Brasil en 1946, por las artesanías y el arte popular, y una genuina preocupación por entender e imbuirse en la cultura brasileña, a través también, de su acuciosa capacidad de observación. La observación antecede a la arquitectura La sensibilidad de Lina Bo Bardi, su capacidad de conmoverse y su capacidad de observación acuciosa, ese agotar los pequeños detalles, los más nimios, será en el tiempo un rasgo en su trabajo cotidiano. Como explica en alguno de sus textos, es posible la reconstrucción de la historia de la civilización solo si estamos atentos a los pequeños cascos, restos y lascas, que almacenaban en sus grietas y dobleces una vida de información. Su potente narrativa espacial se equipara a su profunda lucidez al escribir, a su narrativa en donde nos comparte su visión del mundo, su arquitectura, su pensamiento en torno a las artes, el diseño, la teoría de la arquitectura y por supuesto la manera en que establece una estrecha relación con los seres humanos y con la naturaleza. Para Lina la arquitectura se mixtura con todos los diseños, así, en mayúsculas, museología, la educación, la realización teatral y cinematográfica, el diseño de joyas y accesorios, escenografía entre algunos de sus intereses. Su forma de vida sus obras y dibujos- diseños dan cuenta de ello. En la casa de cristal, su casa en Morumbi, construyó una atmosfera especial en cada rincón. Universos y narrativas infinitas nos sorprenden agazapadas en su intimidad, cada resquicio, cada habitación en su morada constituyen en sí mismos universos que nos narran paso a paso, los materiales, colores, texturas, olores de los que ella se rodeaba a todas las escalas. El contexto. La arquitectura. Los muebles. Los objetos. Los significados, simbolismo e imaginarios que subyacen, en todas y cada una de sus obras. 336 Escribir y diseñar Su obra es emblemática pero no prolifera, logró construir poco, sin embargo sus edificios definen los paisajes paulistas. Paralelamente escribe intensamente, registra sus memorias, realiza ensayos críticos sobre su obra, se posiciona respecto a otros arquitectos, de igual manera realiza ensayos sobre la historia de la arquitectura y realiza trabajo crítico sobre ello. Su creatividad no conocía de límites, estaba en creación permanente. Lo mismo diseñando un edificio para la cultura, que una pequeña casa en un pueblo distante, que sus joyas o accesorios. Así mismo la escritura le apasionó y fue una tarea que no abandonó nunca. Las problemáticas que aborda en sus escritos son complejas, en el libro Lina por escrito, textos escogidos de Lina Bo Bardi (2009) podemos encontrar: A moradia nos bairros habitacionais em Roma, Arquitetura e natureza: a casa na paisagem; disposição dos ambientes internos; Na Europa a casa do Homem ruiu; Casa de Vilanova Artigas; Bela criança; Duas construções de Oscar Niemeyer; Residência no Morumbi; Teoria e filosofia da arquitetura; Cultura e não cultura; Arquitetura ou Arquitetura ; Inatualidade da cultura, A escola e a vida; Casas ou museus?; A invasão O Arte industrial solo por mencionar algunos de sus textos. El dibujo-diseño en su narrativa Lina escribe ensayos, panfletos, crítica y poesía pero también dibuja-diseña desde temprana edad, lo mismo hace grabado, acuarela, oleo o muestra su dominio en el diseño-dibujo. Poseía una imaginación vivida, algunos de sus temas favoritos estaban vinculados con el mar, la naturaleza, las ciudades y la arquitectura. Su universo creativo también estaba habitado por princesas atrapadas en las rocas o sorprendidas por remolinos marinos, ya en sus primeros trabajos mostraba cierto domino con el manejo de la acuarela, una de sus técnicas favoritas. Para los años veinte gustaba de representar escenas de la cotidianidad, en ellas estaba presente el paisaje natural y urbano, así como las relaciones humanas, las festividades y los personajes entrañables de cada una de las ciudades y pueblos que pintaba. En los años 30, desde mi punto de vista empieza a ahondar en los pequeños detalles, en sus dibujos a lápiz y acuarelas es ostensible su acuciosa observación, y el estudio detallado, minucioso de los objetos, personas o plantas que dibujaba. En sus trabajos a lápiz podemos encontrar algunos rostros en los que pone un particular énfasis en el delineado del contorno y en los ojos logrando gran expresividad. En lo que se refiere al dibujo de vegetación también a lápiz, encontramos entre sus trabajos el estudio y composición de pequeños arreglos de plantas o detalles de vegetación en los que pone 337 especial cuidado en el juego de sombras y los pliegues de las hojas. Percibo sus trabajos de acuarela como meros estudios o exploraciones y divertimentos, sin embargo desarrolla una narrativa propia que la caracteriza y que más tarde abonará y servirá de plataforma para sus obras más emblemáticas. El trabajo final que Lina presenta para su graduación (escuela para madres solteras 1939) pone de manifiesto el lenguaje arquitectónico que más tarde la caracterizará. Así mismo el diseño de mobiliario que tanto la apasionaba se muestra en algunas láminas elaboradas con acuarela, en ellas detalla, los muebles, así como su funcionamiento, los accesorios e incluso la textura y transparencia de las telas se insinúan en un trabajo de trazo seguro y claro. En los cuarenta sus trabajos ilustran una de las revistas más importantes de la época “Domus” dirigida por la misma Lina y Pagani, el diseño de modas, de interiores y de mobiliario son temáticas incorporadas a la revista. Por la misma época también participa en la revista “Estile”, “Belleza” “Cuaderni di domus”, “Illustrazione Italiana” y “Grazia” dan cuenta del talento de la mancuerna Lina-Pagani. También la revista “A” que aparece en 1946 fundada y dirigida por Lina, Bruno Zevi y Carlo Pagani. Para los años cuarenta, sus diseños-dibujos alcanzan plenitud. El trazo de la línea, seguro, contundente. Escenas de interiores, rincones de la ciudad, mobiliario y objetos caracterizan su narrativa. Es precisamente en el año 46 que su vida, sus dibujos-diseños tendrán un giro sorprendente, sin perder nunca su esencia. Su arquitectura es poesía y práctica científica. Para Lina la arquitectura era estructura y forma un binomio insoslayable, acompañado de un juego de espacios, luz y sombra, juego de composición y exploración de escalas. Resuenan voces cercanas Italia- Brasil, italiano y portugués. Mediterráneo y trópico. Fascismo y libertad creadora. Desde luego ella elevaba la estructura al nivel de poesía. Logrando equilibrio entre el profundo conocimiento de los materiales, conjuntamente con una exploración minuciosa de su potencial estético. Alcanzando en sus obras la más grande manifestación de dignidad y plenitud. Ana Carolina de Souza Bierrenbach en su artículo Entre textos y contextos (www.vitruvius.com.br/revistas/.../arquitextos), nos muestra una visión muy acertada acerca de la arquitectura de Lina. En este trabajo Ana Souza identifica dos caminos que nos aproximan a las concepciones de mundo generadas por la arquitectura de Lina. En el primero de ellos queda de manifiesto como concibe y de qué manera participa el ser humano en su arquitectura, y cita a Lina: 338 “Si fuera necesaria una definición de arquitectura (...) sería quizás la de una aventura en la cual el hombre es llamado a participar como actor, íntimamente; a definir la no gratuidad de la creación arquitectónica, su absoluta adherencia al útil, (...) pero no por esto menos ligada al hombre “actor”; quizás esta pueda ser, siempre que sea necesaria, una definición de arquitectura. Una aventura estrictamente ligada al hombre, vivo y verdadero”. Lina Bo Bardi. Queda claramente manifiesta la importancia que el hombre-ser humano tiene como protagonista en su arquitectura. Y enfatiza al hombre vivo y verdadero, el que vive, respira, recorre y se apropia de los espacios de sus recovecos y pliegues, participando así de la experiencia de habitar. El segundo texto –enfatiza Ana Souza- Lina plantea su posición respecto al binomio arquitectura-naturaleza y explora las diferencias entre. Arquitectura orgánica y arquitectura no organiza, nuevamente una cita de los textos de Lina que aclara esta posición: “Eligimos para este discurso el tema de la arquitectura y de la naturaleza, que podemos traducir, en términos estrictamente arquitectónicos y críticos correspondientes a arquitectura orgánica y arquitectura no orgánica, o arquitectura clásica y arquitectura romántica. (...) ¿Qué se entiende por arquitectura orgánica, natural? Se entiende una arquitectura que no se limita a priori, una arquitectura “abierta” que acepta la naturaleza, que se acomoda a ella, que busca mimetizarse con ella, como un organismo vivo, una arquitectura que llega a asumir formas de un mimetismo, como un lagarto sobre las piedras al sol. (...) ¿Qué se entiende por arquitectura no natural, arquitectura que encuadra la naturaleza sin formar parte de ella? Una arquitectura delicadamente apoyada en la naturaleza, (...) una arquitectura que vigila la naturaleza pero que no le da confianza y puede estar tanto aquí como allá. (...) La primera posición en íntimo contacto con la naturaleza y la segunda suficiente en sí, separada de la naturaleza. (…) ¿Qué hay de real en estas dos categorías? Existe realmente un compartimiento estanco orgánico-natural y racional-no-orgánico? (...)Cualquier obra de arte valida es orgánica en cuanto responde a principios verdaderos, naturales, orgánicos. (...) Ninguna obra valida huye de la ley de la organicidad en tanto que es natural y no modificable por el hombre. (...) La arquitectura orgánica fascina, pero en la no orgánica nosotros sentimos una profecia: (…) el plano no existe en la naturaleza, pero el hombre lo ha pensado y puede usarlo.” [3] Podemos observar a través de este fragmento como Lina a lo largo de su quehacer como arquitecta mantendrá siempre unidos en un binomio inseparable a la naturaleza y al hombre (Figura 6) . A través de algunas de sus obras podemos observar con claridad cómo se mantiene fiel a este pensamiento. 339 Figura 6. Casa de Cristal en Morumbi, Sao Paulo, queda de manifiesto el respeto de Lina por la naturaleza, esta casa la habito hasta su muerte. Fuente: Instituto Lina Bo e P.M. Bardi documento oficial. La arquitectura se materializa a través de la democratización del conocimiento A manera de conclusión Pensamiento: Lina desarrolló una visión-acción amplia e interdisciplinaria. Su trabajo rebasó los campos del diseño, la arquitectura y el urbanismo. Supo trascender y actuar con resiliencia después de vivir en Italia devastadoras experiencias provocadas por el fascismo. De manera que cuando llega a Brasil en 1946 comprende como nadie la cultura brasileña desde una mirada no solo antropológica sino compleja. Y une vanguardia estética y tradición popular. Se concreta así un pensamiento que tuvo en su arribo a Brasil “Me sentí en un país inimaginable, en donde todo era posible”. Piedras contra brillantes: desde niña colecciono “cosas” piedras, conchitas, y rocas de Abruzzi. Pedazos de fierro y toda suerte de pequeños objetos. Colecciono también colores, el rosa fue siempre su preferido. En su adolescencia, absorta se detenía en una vitrina de Via Condotti, a admirar joyas antiguas y camafeos, este hábito, marco su vida (imagen 7) y su profesión, se detenía en los detalles. Por eso amo a Brasil con sus piedras maravillosas. 340 Arte y ciencia: Empuña al arte como arma en contra de la opresión y a la ciencia -arquitectura y practica científica- como su aliada. Y encaminando sus pasos en la búsqueda de la completa libertad de creación. Sus huellas quedaron grabadas en la memoria y en la vida cotidiana, desde las más importantes ciudades como Sao Paulo hasta las más pequeñas comunidades, allí su arquitectura vigila para asegurarles un futuro, sellado por la libertad, democracia e igualdad. Imagen 7. diseños de sombreros, y joyería de Lina Bo Bardi. Fuente: Instituto Lina Bo e P.M. Bardi documento oficial. Agradecimientos En Lina me encontré. Gracias: Lina poesía. Lina ciencia. Lina coleccionista, Lina puente. Lina interfase-interface. Lina pasión y razón. Lina escalera. Lina casa de cristal. Lina artesana. Lina vanguardia. Lina mujer. Lina piedrasjoyas. Lina arte. Lina transparencias, Lina pasión y plenitud. Lina humana, luchadora, revolucionaria, absoluta y plena. Referencias [1] Ana Carolina de Souza Bierrenbach. Entre textos y contextos, la arquitectura de Lina Bo Bardi. Consultado el día 4 de julio de 2014. www.vitruvius.com.br/revistas/.../arquitextos [2] Aniello Angelo Avellas, 2009 [3] Bardi L. (1999). Igreja Espírito Santo do Cerrado, Editorial Blau, Lisboa. [4] Contribuição Propedêutica ao Ensino da Teoria da Arquitetura, Instituto Lina Bo e P.M. Bardi. São Paulo. (1957). 341 [5] El arquitecto de dos mundos. Lina Bo Bardi, uma italiana construtora de Brasil. Consultado el dia 2 de julio de2014. www.revistaapuntes.uc.cl/letras/html/6_publicaciones/ pdf.../tl44_7.pdf [6] Enciclopedia Itaú de Artes Visuales. Bardi, Lina Bo (1914 - 1992). Consultado el día 6 de julio de 2014. www.itaucultural.org.br/.../enciclopedia [7] Lina por escrito, Instituto Lina Bo e P.M. Bardi. São Paulo. (2009). [8] Lina Bo Bardi, Instituto Lina Bo e P.M. Bardi. São Paulo (2008). 342 La creación e interpretación musicales de las mujeres en las orquestas sinfónicas mexicanas Artemisa Margarita Reyes Gallegos Humanidades y Artes. Instituciones: Universidad Nacional Autónoma de México / Instituto Politécnico Nacional [email protected] / [email protected] Resumen La orquesta sinfónica goza de una importante tradición y desarrollo en el ámbito de la música clásica. Para el desarrollo de su actividad son imprescindibles dos elementos: los músicos intérpretes y las obras de los compositores que conforman el repertorio de los conciertos. La actividad interpretativa se realiza por 80 a 100 músicos que ejecutan distintos instrumentos musicales y un director que la preside. De esta organización musical, únicamente un reducido porcentaje lo constituyen las mujeres, del mismo modo, la dirección orquestal femenina tiene poca presencia en la programación de las temporadas en nuestras orquestas. En los últimos años, bajo el rubro de políticas de “equidad de género” y con motivo de la celebración del “día internacional de la mujer”, se preparan programas conformados con obras de creación femenina, aun así no todavía no se logra la suficiente representatividad. Este estudio expone un panorama actual de la presencia femenina en la actividad musical de las orquestas sinfónicas mexicanas. Palabras clave: Música, orquesta sinfónica, mujeres, intérprete, directora de orquesta, compositora. Abstract The Symphony Orchestra has an important tradition and development in the field of classical music. For the development of its activity are essential two elements: the musicians performers and the works of composers who shape the repertoire of the concerts. The interpretative activity is carried out by 80 to 100 musicians who perform different musical instruments and a conductor, who presides over it. This ensemble only a small percentage are women, in the same way, the orchestral female direction has little presence in the performing of the musical seasons in our orchestras. In recent years, under heading of “gender equity” policy and for the occasion of the celebration of the “international women’s day”, have been presented symphonic programs 343 comprised works by female creation, but still it doesn’t achieve enough representation. This paper presents an outlook about the female involvement in the current context of the musical activities inside of the Mexican symphonic orchestras. Key words: Music, symphonic orchestra, women, performer, woman conductor, woman composer Introducción La trayectoria que han recorrido los distintos ensambles de instrumentistas para establecer su organización interna ha visto transcurrir varios siglos desde que se empezaron a conformar los primeros grupos que ya atendían a la distribución de los instrumentos y su participación dentro del conjunto sonoro, cuya disposición se fue estabilizando y precisando hasta llegar a conformarse en lo que hoy reconocemos como orquesta sinfónica. Con varios siglos de trayectoria, la presencia femenina en esta organización musical, aun hoy, es exigua. Sea como haya sido este desarrollo, una orquesta se integra por un conjunto de personalidades tanto individuales —dirección— como colectiva —instrumentistas— con un fin común: ‘hacer sonar’ la música. Para ello se requiere distribuir funciones con base en las características de las diferentes familias de instrumentos y la capacidad técnica de los ejecutantes con jerarquías y responsabilidades acordes a dichas características. Asimismo, para la creación de la materia prima, es decir, lo que se ha de “hacer sonar” se requiere de la obra musical. Básicamente en la sinfónica interactúan tres perspectivas para entender y ejercer el quehacer musical: la creación, la dirección y la ejecución instrumental. El acceso de la mujer a la educación y el desarrollo social y profesional fueron de las importantes banderas enarboladas en los movimientos sociales del siglo XX, reivindicando su derecho a la igualdad de oportunidades y la ‘equidad de género’, lo que incluye su integración en el mundo de la música clásica.1 La presencia de la mujer en la actividad musical ha de estudiarse desde diferentes perspectivas, quizá los aspectos más determinantes en el desarrollo de las carreras musicales femeninas han sido el matrimonio y la maternidad, que de manera importante han determinado su inclusión laboral en general y su aceptación en el campo musical profesional. No menos importante son 1 (GARCÍA GIL & PÉREZ COLODREDO, 2014, pág. 174); (QUEROL GUTIÉRREZ, 2014, pág. 242). 344 cuestiones como el desempeño y la evaluación de las audiciones de ingreso, al respecto, afortunadamente en los últimos años se han extendido las audiciones a cortina cerrada, con lo que, según algunos estudios se ha incrementado su ingreso a las orquestas sinfónicas.1 Algunos otros aspectos a valorar son los requisitos de permanencia, conveniencia de condiciones laborales, las relaciones laborales con los compañeros, horarios hábiles, conciliación familiar-laboral.2 De acuerdo con los datos publicados por el Instituto Nacional de Estadística y Geografía (INEGI) las mujeres constituyen el 37.88% de la población económicamente activa ocupada, sin embargo, en la actividad sinfónica del país, tan solo representan el 25%.3 Las mujeres en la actividad musical en México Cuando indagamos sobre la aportación de las mujeres a la historia de la música ‘culta’, ‘clásica’ o ‘académica’, encontramos escasas referencias. Si bien es cierto que la práctica musical nunca ha sido ajena a las mujeres, ejemplos de ello se encuentran a lo largo de la historia en todas las culturas, su participación se ha privilegiado para el ámbito doméstico y el religioso.4 En el contexto occidental de los últimos siglos, los principales espacios de actividad musical femenina eran:5 La familia aristócrata.- en cuyo seno la mujer aprendía, entre otras labores domésticas, a interpretar algún instrumento musical El convento.- uno de los pocos lugares donde la mujer podía desarrollarse musical y/o intelectualmente Las familias con tradición musical.- cuando se aprende la música en el seno de la familia y se sigue la tradición si alguien de sus miembros ha sido músico Los conservatorios de música se fundaron con el objetivo de formar músicos competentes en la ejecución del repertorio clásico, fueron opciones de desarrollo educativo y profesional para las mujeres que les permitía desem1 Véase por ejemplo Orchestrating impartiality: the impact of “blind” auditions on female musicians (GOLDIN & ROUSE, 1997). 2 (SETUAIN BELZUNEGUI, 2014, pág. 19). 3 (INEGI, 2014). 4 Un detallado estudio respecto a la actividad musical en las escoletas musicales de los colegios de niñas en la Nueva España se encuentra en La música en las instituciones femeninas novohispanas (MURIEL & LLEIDÍAS, 2009). 5 (SOLER OCAMPO, 2011, págs. 50-51). 345 peñarse como profesoras, pero que en la mayoría de los casos era tomado como afición: para ‘ornato y recreo’.1 En México, la actividad orquestal que de alguna manera precede a la orquesta sinfónica, inició en el siglo XIX; no es mucho lo que se ha dedicado a su estudio y menos aún al estudio de su conformación y desempeño por géneros, es decir, cuál y cómo ha sido la participación de hombres y de mujeres de manera cualitativa y cuantitativa. Esta situación permite advertir que es éste un campo fértil para la investigación musicológica, que además nos permitiría comprender la situación social, laboral y académica de nuestros músicos y en particular de las mujeres que la integran. La orquesta es la entidad sonora en la que la habilidad de tocar en ensamble, de escuchar e integrarse con todas las secciones instrumentales, de asumir en el momento indicado, la acción asignada en la partitura y de seguir las instrucciones de la dirección para transitar entre las diferentes voces de la orquestación; es una labor de disciplina y trabajo conjunto liderado por el director para llegar a la interpretación de la obra que el compositor ha creado. En este ámbito idealmente se trascienden las referencias de lo femenino y de lo masculino en pro de una concepción musical. En los siguientes apartados veremos cuál es la situación en cuanto a la participación por géneros en los diferentes aspectos de la actividad en las orquestas sinfónicas mexicanas.2 Presencia femenina en la bio-bliografía musical mexicana Empecemos por revisar la representación femenina en algunas muestras de bio-bibliografía musical mexicana de los siglos XX y XXI. La revisión de ocho fuentes representativas,3 nos muestra la mínima inclusión femenina en dichas ediciones, coincidentemente también solo la de Consuelo Carredano es de autoría femenina. En estas fuentes, de 618 apartados dedicados a músicos, se les dedica escueta atención a 46 mujeres —entre las que figuran una santa: Cecilia y, una compositora francesa—, de todas, las más populares gozan a como máximo de tres o dos menciones entre las fuentes revisadas. (Tabla 1). 1 (GARCÍA GIL & PÉREZ COLODREDO, 2014, págs. 174-176) 2 Los datos con los que fueron elaborados los análisis aquí presentados se tomaron de las páginas web de las orquestas. Si bien no siempre se encuentran actualizadas, son el referente ‘oficial’ publicado por dichos organismos. 3 (GRIAL DE, 1965); (MONCADA GARCÍA, 1966); (ÁLVAREZ CORAL, 1980); (CARREDANO, 1994); (ORTA VELÁZQUEZ, 1996); (SOTO MILLÁN, 1996); (SOTO MILLÁN, 1998) y (SACM). 346 Tabla 1. Mujeres músicas en la bio-bibliografía musical mexicana. Mujer mencionada Año de publicación Especialidad Menciones Agudelo Y Murguía Graciela Josefina Eugenia 1945- Compositora 3 Álvarez Lucía 1948- Compositora y pianista 2 Anitúa Yáéz Fanny 1887-1968 Cantante 2 Granillo González Ma. Del Consuelo 1962- Compositora 2 Grever María 1855-1951 Cantante y compositora 2 Guraieb Rosa 1931-2014 Compositora y pianista 2 Lara Ana 1959- Compositora 2 Ortiz Gabriela 1964- Compositora 2 Peralta Castera Ángela 1845-1883 Cantante 3 Rodríguez Ramírez Marcela 1951- Compositora y guitarrista 3 Vázquez Lilia Margarita 1955- Compositora y pianista 2 Villanueva Mariana 1964- Compositora 2 Ahora bien, de la cuantificación de nombres que aparecen en las fuentes revisadas, en la Gráfica 1 se puede apreciar la marcada inclinación por resaltar a los hombres músicos. En cuanto al porcentaje del total de las menciones en todas estas fuentes, las mujeres representan tan solo el 9%. (Gráfica 2). Gráfica 1. Bio-bibliografía musical mexicana 347 Gráfica 2. Mujeres y hombres en la bio-bibliografía musical mexicana. La mujer en las orquestas sinfónicas mexicanas Llegado este punto, oportuno es definir quiénes ‘hacen’ la música en la orquesta sinfónica. Una orquesta se integra con músicos que desempeñan diferentes actividades muy especializadas, cada una de estas figuras tiene sus propias características; (Tabla 2) sin embargo, de manera general, cuando nos referimos al músico de orquesta, la figura con mayor representatividad es la del atrilista. Tabla 2. Músicos en la orquesta sinfónica. Creadores Compositores Arreglistas Atrilistas Concertino / repetidor Músico principal y co-principal Músicos de fila Músicos extra Músicos suplentes Solista(s) Instrumentista Cantante Instrumentistas Intérpretes Directores Titular Asistente Huésped La dirección musical Cuando la orquesta se complementó con más instrumentos y se agruparon los instrumentos por familias, los ejecutantes configuraron un grupo cada vez más numeroso; a su vez, el desarrollo de los instrumentos permitió una escritura más compleja. Coordinar el ensamble requirió de mayor especialización. Como en tota actividad de conjunto en la que los participantes son cada vez más numerosos y diversos, la orquesta requiere que todos sus integrantes actúen de manera coordinada, precisa, disciplinada, hacia un 348 fin común: necesita para ello de un líder que determine la directriz de la interpretación, función que desempeña el director, quien se convierte en el intérprete de la idea del compositor plasmada en la partitura y líder de la agrupación. La música involucra el liderazgo a varios niveles, el principal es el del director, están además, a otro nivel, el del concertino y de los principales o jefes de sección. La presencia de mujeres en la dirección musical sinfónica es un suceso relativamente nuevo, pues aunque el primer director profesional, en el sentido que hoy lo tenemos, apareció a mediados del siglo XIX, tan solo hay unas cuantas mujeres en el ámbito internacional dirigiendo orquestas; la mujer subió al pódium hasta el siglo XX.1 La interpretación instrumental en el atril En cada orquesta sinfónica confluyen diferentes particularidades instrumentales y personalidades, aun así se presentan generalidades. Ocurre que ciertos instrumentos son ejecutados principalmente por hombres, en tanto que otros lo son mayoritariamente por mujeres. Al respecto se han elaborado diversas argumentaciones, tales como: la forma y fuerza empleada en la producción del sonido; el registro y su relación con el tamaño y el peso; el prestigio de la familia instrumental asociado al origen y el desarrollo histórico y social de cada uno de ellos; el tipo de repertorio disponible.2 Al lado de estos considerandos está la connotación de género que se ha dado a los instrumentos musicales por lo que la tradición ha dispuesto que el arpa, por ejemplo, sea un instrumento femenino, mientras que los alientos metal sean propios para los hombres. A continuación se desglosan algunos datos relativos a la conformación y distribución por sexo de los integrantes de 14 orquestas sinfónicas mexicanas, ellas son: Filarmónica de Jalisco, Filarmónica de la UNAM, Filarmónica de Querétaro, Filarmónica de Toluca, Sinfónica de la Universidad Autónoma de Nuevo León, Sinfónica de la Universidad Autónoma del Estado de Hidalgo, Sinfónica de Michoacán, Sinfónica de Minería, Sinfónica de Xalapa, Sinfónica del Estado de México, Sinfónica del Estado de Puebla, Sinfónica del IPN, Sinfónica Nacional, Sinfónica Sinaloa de las Artes.3 En la revisión de las nóminas de las orquestas estudiadas se contabilizaron 1158 músicos en total, de los cuales 291 son mujeres y 867 son hombres, por lo que las mujeres representan la cuarta parte de los instrumentistas. 1 (CHENG, 1998, pág. 82); (QUEROL GUTIÉRREZ, 2014, pág. 242). 2 (SETUAIN BELZUNEGUI, 2014, pág. 30). 3 Información obtenida de las páginas web oficiales de los orquestas, actualizada al 3 de septiembre de 2014. 349 (Gráfica 3). Si se hace el análisis por secciones instrumentales, se puede apreciar con mayor detalle las diferencias en la distribución. (Gráfica 4) Gráfica 3. Distribución del personal en las orquestas sinfónicas. Gráfica 4. Distribución del personal por secciones Instrumentales. Enfocando aun más el análisis, es decir, si se cuantifica la presencia masculina y femenina por instrumentos, es posible apreciar que la mayoría de las mujeres se encuentra en el área de cuerdas, sustancialmente en los violines (aunque tan solo significan la tercera parte de los concertinos); en orden descendente siguen las violas, los violonchelos y las flautas. (Gráfica 5) Respecto al arpa, en cifras absolutas se contabilizaron 12 mujeres, pero si se toma en cuenta que su número en cada orquesta es de uno y excepcionalmente de dos (y que frecuentemente no se cuenta con ninguno de base), entonces el porcentaje de mujeres arpistas es del 80%, el más alto en todo el conjunto –como dato complementario es oportuno mencionar que la primera mujer mexicana que tocó en una orquesta sinfónica en el país fue la arpista Eustolia Guzmán;1 también en el piano hay una mayor proporción femenina. 1 (TAMAYO, TAMAYO, & (coords.), 2000, págs. 61-80). 350 Gráfica 5. Atrilistas en las orquestas sinfónicas mexicanas. El caso de la orquesta de una institución académica Su conformación por instrumentos Para el presente estudio se tomó el caso de la Orquesta Sinfónica del Instituto Politécnico Nacional (OSIPN), agrupación con medio siglo de trayectoria profesional. Precisamente esta orquesta tuvo de marzo 2009 a junio 2013 como directora artística a la Dra. Gabriela Díaz Alatriste, primera directora mexicana asignada a la titularidad de una orquesta institucional en nuestro país. La OSIPN está conformada por una plantilla de 80 músicos, de los cuales el 20% son mujeres. Como se muestra en la Gráfica 6, las secciones de metales y las de maderas (a excepción de las flautas) están integradas únicamente por hombres. [17] La presencia de solistas El solista es un intérprete en la orquesta sinfónica, que no obstante su alto desarrollo musical, es un invitado esporádico. Su participación depende del repertorio que integra los programas, por lo que puede ocurrir que haya conciertos que no requieran de solistas. Una muestra de su actividad la hemos obtenido de la revisión de la programación de la OSIPN. Entre 2009 y 2011, las mujeres solistas representaron el 28.5%, 72% y 37.5% respectivamente, del total de la programación con solistas. El desglose anual se muestra en la Gráfica 7. 351 Gráfica 6. Participación por género de solistas en la OSIPN Gráfica 7. Participación por género de solistas en la OSIPN Autores de las obras musicales A través de la historia se han producido composiciones de gran nivel realizadas por mujeres, que, no obstante, tienen una mínima inclusión en la programación de las orquestas. La representación de la composición femenina en los conciertos sinfónicos es aun menor que la de la interpretación instrumental, la relación entre compositoras y nivel de desarrollo económico y políticas de ‘equidad de género’ no es una proporción directa.1 En justificación de esa equidad, y con motivo de celebrar el ‘Día internacional de la mujer’ se programa un concierto en el que las obras son mayoritariamente de compositoras. Sin embargo, al ser únicamente un concierto con estas características al año, no parece significar una ‘equidad’ real. En la Gráfica 8 se muestra la comparación entre la programación de obras compuestas por hombres y por mujeres entre enero de 2009 y junio de 2014. 1 (RAMOS, 2010, pág. 10). 352 Gráfica 8. Compositores mexicanos en la programación de la OSIPN Algunas reflexiones En este análisis de la situación actual de las mujeres en las orquestas sinfónicas mexicanas, se destaca que si bien en México el porcentaje promedio de las mujeres económicamente activas ocupadas es de casi 38%, en las orquestas sinfónicas nacionales tan solo alcanza tan solo la cuarta parte del total. En los últimos años ha habido una mayor promoción de la actividad de las mujeres en la música, en su mayoría, impulsada por mujeres, o bien como propaganda de políticas de inclusión y equidad de género, acciones que, loables y valiosas, son aún insuficientes para lograr los objetivos que enuncian. Actualmente es posible encontrar algunos ejemplos de bibliografía y discografía sobre mujeres en la música: intérpretes, directoras, compositoras, musicólogas tanto estudios históricos como de la presente época, es así como es posible reconocer exponentes en estos rubros musicales con obras y actividad del más alto mérito. Cada día son más las obras musicales de compositoras, programadas en conciertos sinfónicos y de cámara. Para lograr una suficiente valoración de la obra y actividad de la mujer en la música todavía habrá que impulsar acciones contundentes de difusión y promoción. Referencias [1] ÁLVAREZ CORAL, J. (1980). Compositores mexicanos. Biografíoas de 40 músicos desaparecidos (Sexta edición aumentada 1993 ed.). México: Edamex. [2] ARBENA, J. (2014). Mujeres en la creación musical de México (review). From Latin American Music Review, Volume 24, Number 1, Spring/Summer 2003. (P. Muse, Productor) Recuperado el 2 de septiembre de 2014, de http://muse.jhu. edu/login?auth=0&type=summary&url=/journals/latin_american_music_review/ v024/24.1arbena.pdf [3] CARREDANO, C. (1994). Ediciones Mexicanas de Música. Historia y catálogo. México: CENIDIM - CONACULTA. 353 [4] CHENG, M.-h. (April de 1998). Women Conductors: Has the train left the station? (F. o. Institute, Ed.) Harmony(6), 80-90. [5] GARCÍA GIL, D., & PÉREZ COLODREDO, C. (março de 2014). Mujer y educación musical (Escuela, Conservatorio y Universidad): Dos historias de vida en la encrucijada del siglo XX español. Dedica. Revista de Educação e Humanidades(6), 171-186. [6] GOLDIN, C., & ROUSE, C. (1997). Orchestrating impartiality: the impact of “blind” auditions on female musicians. NBER working paper series. Working paper 5903 (págs. 1-46). Cambridge: Labor Studies. [7] GRIAL DE, H. (1965). Músicos mexicanos (5ª reimpresión 1973 ed.). México: Diana. [8] INEGI. (13 de agosto de 2014). Ocupación y empleo. Indicadores de ocupación y empleo al segundo semestre de 2014. Recuperado el 2 de octubre de 2014, de Instituto Nacional de Estadística y Geografía : http://www3.inegi.org.mx/Sistemas/temas/Default. aspx?s=est&c=25433&t=1 [9] Las mujeres en la música. (8 de marzo de 2012). Zona FrancaMX. [10]MONCADA GARCÍA, F. (1966). Pequeñas biografías de grandes músicos mexicanos (2ª edición 1979 ed.). México: Framong. [11]MURIEL, J., & LLEIDÍAS, L. (2009). La música en las instituciones femeninas novohispanas. México: UNAM, Instituto de Investigaciones Históricas; Universidad del Claustro de Sor Juana. [12]ORTA VELÁZQUEZ, G. (1996). 100 biografías en la historia de la música. México: Instituto Politécnico Nacional. [13]QUEROL GUTIÉRREZ, C. (março de 2014). Las directoras de orquesta como ejemplo de liderazgo femenino. Dedica. Revista de Educação e Humanidades(6), 233-248. [14]RAMOS, P. (Enero-Junio de 2010). Luces y sombras en los estudios sobre las mujeres y la música. Revista Musical Chilena(213. Año LXIV), 7-25. [15]SACM. (s.f.). Sociedd de Autores y Compositores de México. Recuperado el 9 de septiembre de 2014, de Compositores. Música mexicana de concierto: http://www.sacm. org.mx/mmc/redes-cont3.html [16]SETUAIN BELZUNEGUI, M. (2014). El acceso de las mujeres a las orquestas en España. En V. Pliego de Andrés, & R. C. Madrid (Ed.), La musa invisible. Actas de las jornadas sobre música y mujeres 2013 (págs. 19-42). Madrid: Musicalis. [17]SOLER OCAMPO, S. (diciembre de 2011). La situación de la mujer en el ámbito musical actual como docente, intérprete, compositora y directora de orquesta. Hekademos. Revista Educativa Digital(10, año IV), 45-56. [18]SOTO MILLÁN, E. (. (1996). Diccionario de compositores mexicanos de música de concierto. Siglo XX (Vols. I (A-H)). México: Sociedad de Autores y Compositores de Música, Fondo de Cultura Económica. [19]SOTO MILLÁN, E. (. (1998). Diccionario de compositores mexicanos de música de concierto. Siglo XX (Vols. II (I-Z)). México: Sociedad de Autores y Compositores de Música, Fondo de Cultura Económica. [20]TAMAYO, L., TAMAYO, S., & (coords.). (2000). El arpa, de la modernidad en México: sus historias. México: UAM / Azcapotzalco. 354 La mujer y el diseño universal Ana Laura González Rodríguez Universidad Autónoma del Estado de México, Facultad de Arquitectura y Diseño, Ciencias y artes para el Diseño [email protected] Resumen La mujer actualmente ya no se conforma con ser madre y esposa, ahora se preocupa también por tener una educación que le permita no solo tener un lugar en el mundo laboral sino también aportar algo a la sociedad, al alcanzar un mayor nivel cognitivo es capaz de distinguir problemáticas que afectan el desarrollo de su propia familia y/o comunidad y tratar de crear un cambio de conciencia. Enfrentarse a una discapacidad, no es fácil, sea temporal o permanente, tampoco lo es el estigma que representa la mala denominación y entendimiento de esta condición, la sociedad actual vive un ritmo de vida demasiado rápido, los que se quedan atrás difícilmente logran tener un lugar en ella, las barreras arquitectónicas y urbanísticas de las ciudades acrecientan este problema, la movilidad y la accesibilidad no son fáciles para la población, aun cuando no se tengan discapacidades. El Diseño Universal, también llamado diseño para todos o incluyente, se ha convertido en una herramienta fundamental para que las personas que tienen alguna discapacidad logren una independencia y autonomía en su entorno, usado ampliamente en países europeos, en México lleva relativamente poco tiempo de ser empleado, y en el contexto de la ciudad de Toluca aún se enfrenta a graves barreras para su correcta aplicación. Palabras Clave: barreras, peatón, Toluca, discapacidad, urbanismo. Abstract Women currently already is not content with being a mother and wife, is now also concerned about having an education that allows you to not only have a place in the world of work but also contribute something to society, to achieve a higher cognitive level is able to distinguish problems that affect the development of their own family or community and to try to create a shift in consciousness. 355 Face a disability, it is not easy, either temporary or permanent, nor is the stigma that represents the bad naming and understanding of this condition, current society lives a too fast pace of life, those who are left behind hard they manage to have a place in it, the architectural and urban barriers of cities increase this problem, mobility and accessibility are not easy for the population even when disabilities are not taken. Universal design, also called design for all and inclusive, has become an essential tool to make people who have disabilities to achieve independence and autonomy in your environment, widely used in European countries, in Mexico takes relatively little time be used, and in the context of the city of Toluca is still facing serious barriers for its correct implementation. Key words: barriers, pedestrian, Toluca, disability, urban planning. Introducción ¿Por qué una mujer arquitecta se preocupa por el tema del diseño universal y la discapacidad? Como profesional: la arquitectura y el urbanismo conforman una especialidad, como disciplina enfocada al tema, es importante para las ciudades actuales relacionarse con todos sus miembros, constantemente la población urbana tiene nuevas necesidades y con ellas llegan nuevas formas de cubrirlas. Como mujer: Tener un familiar que es ejemplo de ser una persona con discapacidad debido a una enfermedad degenerativa como es el Parkinson, la cual ha provocado el deterioro de sus funciones motoras, esto le dificulta salir a la calle debido a la inestabilidad de sus movimientos, esta observación se convirtió en inquietud al comprobar que, efectivamente, las calles de esta ciudad, no están preparadas para que todas las personas las recorran y se convierten en verdaderos obstáculos muchas veces insalvables, esta misma inquietud es la que ha guiado mis pasos a través del proceso de hacer un postgrado. Esta exposición está dividida en dos partes: La primera, se refiere a diferenciar los conceptos de persona con discapacidad y persona con capacidades diferentes, esto a razón de que actualmente existe una confusión y creencia que el primer término es despectivo, peyorativo o discriminativo y que el segundo tiene una connotación positiva. La segunda parte está enfocada a identificar que es el Diseño Universal con una posterior contextualización a la ciudad de Toluca. 356 Persona con discapacidad vs persona con capacidad diferente El concepto de discapacidad fue empleado hasta mediados del siglo XX y ha evolucionado históricamente durante siglos, así como también los valores que le han dado forma, los cuales han formado la apreciación parcial del término formando una historia incompleta y por lo tanto estereotipos que continúan hoy día. Actualmente en la mayoría de los textos consultados, que hablan sobre aquel o aquellos con alguna limitación física o mental se les denomina como persona con discapacidad, tanto en documentos internacionales, tal es el caso de la ONU con la Convención sobre los derechos de las personas con Discapacidad y Protocolo Facultativo, o sus organismos UNESCO, OMS, entre otros; así como organismos nacionales, como son el INEGI e IMSS y documentos como la Ley General para la Inclusión de las personas con discapacidad, es decir este término es el correcto y aceptado a nivel mundial. La convención sobre los derechos de las personas con Discapacidad y Protocolo Facultativo menciona que la discapacidad es un concepto que evoluciona y que resulta de la interacción entre las personas con deficiencias y las barreras debidas a la actitud y al entorno que evitan su participación plena y efectiva en la sociedad, en igualdad de condiciones con las demás (ONU, 2006, pág. 2); las personas con discapacidad incluyen a aquellas que tengan deficiencias físicas, mentales, intelectuales o sensoriales a largo plazo. Así mismo a nivel nacional INEGI nos menciona que la concepción de discapacidad se ha transformado en las últimas décadas al dejar el enfoque médico-biológico, en el que las enfermedades y/o las deficiencias corporales juegan un papel central, para logar una visión más integral y contextual, donde la discapacidad es el resultado de la interacción de múltiples factores tanto de orden médico-biológico como contextuales (las características del entorno físico, social, cultural, personal, familiar, etc.). En otras palabras, una persona con discapacidad no sólo es aquella que presenta una determinada deficiencia física o enfermedad, sino la que, dado un estado de salud y las características del entorno (tanto físicas, como de actitudes) se ve afectada su capacidad para realizar sus actividades cotidianas. “Para hacer referencia a la población con discapacidad se han usado términos como el de “impedidos”, “inválidos”, “minusválidos” o “incapacitados”. Estas y otras expresiones han estado estrechamente relacionadas con actitudes sociales y culturales; no obstante, parece existir el acuerdo de que estos términos no son los más afortunados para referirse a las personas con discapacidad. Demetrio Casado 357 (1990) plantea que adjetivos como los antes señalados, son calificativos sustantivados que, aunque pudieran parecer neutrales, presentan por lo menos tres sesgos: son términos de significado negativo, que no corresponden con las facultades y capacidades subsistentes en las personas con discapacidad; denotan perpetuidad sin conceder espacio a la rehabilitación, además de ser identificaciones que sustituyen a la persona por su circunstancia La siguiente tabla sintetiza las perspectivas que se han conceptualizado sobre la discapacidad, llamados modelo médico y social y que son retomados por INEGI. Tabla 1. Diferencias entre modelo médico y modelo social de la discapacidad. Modelo Médico Modelo social Visión Problema causado por una enfermedad, trauma o estado de salud que requiere cuidados médicos, en forma de tratamiento individual Conjunto de condiciones creadas por el ambiente social. Características Adaptación de la persona al resto y cambio de conducta por medio de la rehabilitación. Inferioridad biológica o fisiológica de la persona, que busca la normalización de la persona Las interpretaciones médicas han contribuido históricamente a la construcción social de la dependencia Fracaso del entorno social para ajustarse a las necesidades de las personas con carencias Opresión social que se manifiesta en los entornos, la idealización de la inteligencia y la competencia social Responsabilidad colectiva para hacer las modificaciones ambientales necesarias que posibiliten y permitan alcanzar la participación plena de las personas con discapacidad en todas las áreas de la vida social “Sin embargo, en nuestro país durante los años 2001 y 2002, el gobierno foxista acuñó un concepto: personas con capacidades diferentes. A través de los años, éste se ha difundido entre la ciudadanía, autoridades y medios de comunicación de todo el país” (Alva RuizCabañas, 2010). Personas con Capacidades Diferentes, Personas con Capacidades Especiales, Personas con Necesidades Especiales: Desde el principio de igualdad propio a las personas humanas, no existen las capacidades diferentes o necesidades especiales. Todos y todas tenemos las mismas capacidades (potenciales, reales, en desarrollo) y necesidades (amar y ser amados, comer, vestirse, tener salud, sobrevivir). Todas y todos compartimos la misma esencia humana en igualdad. Lo que nos diferencia no tiene que ver con nuestras capacidades o necesidades esenciales y cuando no existen barreras en el entorno, se pueden manifestar y satisfacerse en igualdad (Movimiento Congruencia) 358 Algunos ejemplos del significado de una capacidad diferente serían: un niño de 2 años que por su estatura no es capaz de alcanzar objetos de una mesa, las condiciones propias de su edad no se lo permiten, una mujer que es surda tiene la capacidad de escribir o manipular objetos con la mano izquierda de una manera más sencilla que con la mano derecha, de igual manera una persona invidente tiene la capacidad de leer o escribir en braille, sistema que una persona vidente no puede siquiera comprender, una adolescente sorda que es capaz de comunicarse con su familia o amistades por medio del lenguaje de signos. Estos ejemplos demuestran que todas las personas, presenten o no alguna discapacidad, tienen capacidades distintas, que pueden ser aprendidas o desarrolladas de acuerdo al contexto donde se desarrollen. Este contexto muchas veces es el que permite que una persona con alguna limitación física o mental se convierta en discapacitada fuera del mismo, donde su zona de confort se encuentra amenazada al no poderse desenvolver libremente, dado que el diseño de esos espacios u objetos es incorrecto, al no poderse usar por todas las personas, bajo esa idea es que se crea el concepto de Diseño Universal. Diseño Universal Diseño Universal es un concepto creado por el arquitecto americano Ron Mace, que consiste en la creación de productos y entornos diseñados de modo que sean utilizables por todas las personas en la mayor medida posible, sin necesidad de que se adapten o especialicen. El objetivo del diseño universal es simplificar la vida de todas las personas, haciendo que los productos, las comunicaciones y el entorno construido por el hombre sean más utilizables por la mayor cantidad posible de personas con un costo nulo o mínimo. El diseño universal beneficia a personas de todas las edades y capacidades, es una aproximación a la generación de entornos y productos que puedan ser utilizados por el mayor número de personas posible. (Hernández Galán, 2011, pág. 15) Como variantes o sinónimos del diseño universal se encuentran el diseño para todos, diseño incluyente o diseño accesible, todos se refieren a lo mismo, es el diseño que tiene en cuenta la diversidad humana, la inclusión social y la igualdad. “El Diseño para Todos tiene como objetivo principal hacer posible que todas las personas dispongan de igualdad de oportunidades” (Hernández Galán, 2011, pág. 16). Así mismo se habla de accesibilidad refiriéndose a esa cualidad del medio físico que permite acceder a él con seguridad, emplear sus 359 recursos, relacionarse y comunicarse con sus contenidos y con las demás personas. No se trata de generar acciones específicas para personas con discapacidad sólo ante la necesidad de superar algún obstáculo específico, existente de antes. Ahora se habla de mejorar la calidad de vida, de manera general, global, en un ámbito más, como es el de la accesibilidad, en el que está implicada toda la sociedad y en todos los lugares: en los espacios naturales, en los municipios rurales, en las grandes ciudades, en los medios de transporte, en la comunicación e información. (Hernández Galán, 2011, pág. 20) Al tratarse de una metodología de diseño que se adapta al momento, el Diseño Universal contribuye a la prevención y la eliminación de obstáculos para la integración, tanto psicológica como educativa o con respecto al ámbito familiar, cultural, social, profesional, urbano y arquitectónico. (Soren, 2010, pág. 12) Según el Center for Universal Design de la Universidad de Carolina del Norte el diseño universal debe seguir los siguientes siete principios: Equidad de uso: el diseño es útil y comercializable para personas con diversas capacidades. • Dispone del mismo significado de uso para todos los usuarios: idéntico siempre que sea posible y equivalente cuando no lo sea. • No provoca segregación o estigmatización a ningún usuario. • La provisión de privacidad y seguridad debería ser igual para todos los usuarios. • El diseño es atractivo para todos los usuarios. Flexibilidad de uso: el diseño se adapta a un amplio rango de preferencias individuales y capacidades. • Permite escoger el método de uso. • El acceso y uso se adapta a la mano derecha o izquierda. • Se adapta a la precisión y exactitud de los usuarios. • Se adapta al ritmo de los usuarios. Simple e intuitivo: el diseño es fácil de entender independientemente de la experiencia, conocimiento, nivel cultural o capacidad de concentración. 360 • Elimina la complejidad innecesaria. • Cumple las expectativas y la intuición del usuario. • Se adapta a un amplio rango de habilidades culturales y de lenguaje. • La información está ordenada en función de su importancia. • Genera avisos e información útil durante y después de finalizar la tarea. Información perceptible: El diseño transmite la información necesaria de forma eficaz para el usuario, independientemente de las condiciones ambientales o de sus capacidades sensoriales. • Utiliza diferentes modos (táctil, sonoro, escrito, pictográfico) para presentar la información esencial. • Dota de suficiente contraste entre la información esencial y el entorno • Permite la compatibilidad entre los diferentes dispositivos y adaptaciones utilizados por las personas con problemas sensoriales. Tolerancia al error: el diseño minimiza el peligro y las consecuencias negativas producidas por acciones accidentales o no intencionadas. • Ordena y distribuye los elementos de modo que se minimice el riesgo y los errores. Los elementos más usados se dispondrán de forma más accesible, los elementos peligrosos serán eliminados, aislados o protegidos. • Facilita avisos de peligro o error. • Facilita elementos de seguridad ante fallos. • Disuade de la realización de acciones inconscientes en tareas que requieren atención. Bajo esfuerzo físico: el diseño debe ser usado de forma cómoda y eficiente con el mínimo esfuerzo. • Debe permitir al usuario mantener una posición natural del cuerpo. • Minimiza las acciones repetitivas. • Minimiza los esfuerzos físicos continuados. Espacio suficiente de aproximación y uso: dimensiones y espacio apropiadas para permitir el acercamiento, alcance, manipulación y uso independientemente de tamaño del cuerpo del usuario, su postura o movilidad. 361 • Facilita un amplio campo de visión de los elementos importantes para cualquier usuario, independientemente de que esté asentado o de pie. • Permite el alcance de todos los componentes de forma cómoda independientemente de la posición. • Facilita el espacio adecuado para el uso de ayudas técnicas o de asistente personal (Hernández Galán, 2011, págs. 17-19). “Además de estos principios, también hay que prestar atención a las diferentes etapas del proceso del Diseño Universal, sobre todo en lo que se refiere a los proyectos nacionales o locales, que han de ser resistentes, perdurables y de un coste mínimo” (Soren, 2010, pág. 14). El contexto de Toluca Los países europeos han realizado acciones continuamente para la integración y accesibilidad de todos sus habitantes a la vida común, pero en países como México las leyes que apliquen los principios del diseño universal son muy pocas, en el caso del estado de México se encuentra la Ley para la protección, integración y desarrollo de las personas con Discapacidad, pero este no es aplicado de manera integral, dado que la discriminación y exclusión aún es un gran problema, y especialmente en ciudades como Toluca, con graves problemas a nivel urbano, donde la accesibilidad y movilidad para el peatón con alguna limitación física es mínima. 1. 2. Figura 1. Cambios bruscos de nivel en banquetas. Figura 2. Banqueta rota. Alexander Naime hace una breve y clara descripción de la situación que atraviesa esta ciudad respecto a los derechos del peatón: Toluca se ha ido haciendo desconocida para sus propios habitantes. Sus constantes transformaciones, la falta de un sentido de convivencia, los propósitos compartidos de quienes viven en un mismo espacio físico, se han 362 ido diluyendo por la necesidad de sobrevivencia que las condiciones económicas han ido imponiendo. Caminar por su calles se ha hecho una tarea casi heroica. Día a día, el peatón, el hombre que camina por la calle, se enfrenta a situaciones que constantemente lo excluyen de la vida de la ciudad. El peatón sufre cada día más agresiones y la ciudad va confinando a sus habitantes a espacios cada vez más reducidos. El caminar se ha constituido en una tarea exclusiva para los más aptos, para aquellos que tienen la habilidad de sortear infinidad de obstáculos. El peatón de nuestra ciudad debe ser un hombre o mujer sano, con habilidad para correr en cualquier momento con reflejos perfectamente coordinados que le permitan enfrentar cualquier eventualidad… …Ser ciego en la ciudad significa estar condenado a una vida dependiente, a no tener derecho a disfrutar de un espacio de convivencia, ni a escuchar las voces de otros o a sentir el sol en otros espacios que no sean los propios. Andar en silla de ruedas expone a la compasión y a la agresividad. La ciudad está proscrita para quien padezca de un problema físico. (Naime, 2000, págs. 89-90) 3. 4. Figura 3. Vehículo obstruyendo paso peatonal. Figura 4. Vehículo estacionado sobre la banqueta. Para efectos del presente trabajo de investigación sería imposible hablar de los problemas urbanos que representa la ciudad de Toluca en su totalidad, por esta razón el estudio se acota al área correspondiente a la colonia Morelos y específicamente a la calle de Horacio Zúñiga, en el tramo que comprende Sitio de Cuautla hasta Andrés Quintana Roo. Haciendo un poco de historia, en los setentas, con el Prof. Carlos Hank González (1970-1975), se implanta un programa masivo de construcción de vivienda, creando para este fin los organismos: INFONAVIT, FOVISTE y FIVIMI, el Gobierno Estatal del Estado de México crea el ISSEMYM, el instituto AURIS (cuyo objetivo es regular la tenencia de tierra, urbanización 363 del suelo y la construcción de vivienda). En Toluca se autorizan 8 fraccionamientos: Valle Verde, Izcalli primera y segunda sección, Colonia Morelos, Rancho Dolores, Salvador Sánchez Colín, Independencia Tercera sección y Don Camilo, los cuales fueron de tipo popular. Así, mediante un proceso lento de asimilación por imitación, la sociedad se ha venido acostumbrando a vivir en una vivienda “moderna” (de actualidad), respetando esquemas funcionales y de organización similares a los de otros países. En México sigue prevaleciendo los modelos anteriores; si acaso un tanto adaptados con introducción de algunos equipamientos. La era del Funcionalismo (1950-1989) marcó importantes cambios en la ciudad de Toluca en cuanto a la vivienda, se nota más intención, en estos periodos se construyen diferentes fraccionamientos, condominios y subdivisiones en donde las construcciones de tipo de interés social se dan en mayor cantidad. Los conjuntos habitacionales que resaltan el pensamiento arquitectónico del funcionalismo en Toluca son: Colonia Federal (1960), Benito Juárez (1965), Colonia Izcalli Toluca (1971), Colonia Granjas y Morelos (1975). Hablando específicamente de una de estas colonias funcionalistas, la Morelos, ya es mencionada en el bando municipal de 1973 como sector, incluyendo también Granjas y Federal teniendo las siguientes colindancias: Al norte con Valentín Gómez Farías, entre Boulevard Xinantécatl y Andrés Quintana Roo, continua por Quintana Roo en dirección sur hasta paseo Xinantécatl, en dirección poniente con el camino a Tlacotepec, en dirección noroeste hasta cerrar con Paseo Xinantécatl, continuando por este hasta Valentín Gómez Farías. Actualmente esta colonia esa habitada en su mayoría por adultos mayores que por sus condiciones físicas y médicas se han convertido en una población sumamente sensible a padecer alguna discapacidad, a nivel urbano el espacio público representa una grave barrera para su integración y desarrollo, tomando de ejemplo la calle de Horacio Zúñiga donde se ubican algunos centros de reunión de adultos mayores como son el centro de Jubilados y Pensionados del Instituto de Seguridad Social del Estado de México y Municipios (ISSEMYM), que ofrece talleres para los maestros jubilados, además de incluir en sus instalaciones un área habitacional; y la Iglesia de los Desamparados. En esta misma calle pueden observarse diversas barreras que dificultan el paso a toda clase de peatón donde se categorizan las siguientes: 364 • • • • • • • • • • • • Esquinas que no cuentan con rampas para sillas de ruedas Rampas para silla de ruedas improvisadas y mal construidas banqueta levantada por las raíces de los árboles banqueta agrietada o botada, postes de luz y señalizaciones que obstruyen el paso en las esquinas, tapas de registro mal colocadas, registros de Telmex obstaculizando el paso, accesos vehiculares que obstruyen el libre paso a peatones, arboles obstruyen el paso, bolardos que minimizan el paso por las esquinas comercios que obstruyen el paso por diversas causas escalones localizados a la entrada de comercios 5. 6. 7. 8. Figura 5. Bolardos en esquina y vehículo estacionado en franja peatonal. Figura 7. Raíces levantadas, poste de luz y caseta telefónica obstruyendo el paso. Figura 8. Rampa mal construida, pierde continuidad con la banqueta siguiente. Figura 9. Banqueta agrietada y botada en distintos punto. En esta calle como en tantas otras de esta ciudad es omitido el hecho que sostenibilidad y accesibilidad confluyen al plantear la movilidad sin exclusión; “a menudo se olvida que el sistema primordial de movilidad es el peatonal… La movilidad sostenible implica una mejora de la calidad de vida urbana y la aplicación de criterios de sostenibilidad ambiental y social” 365 (Juncá Ubierna, 2011, pág. 166). “La cadena de la movilidad accesible ha de garantizar recorridos e itinerarios accesibles que configuren mallas, lo más tupidas posible, que faciliten el desenvolvimiento y uso de los espacios de uso público y el acceso a los de uso privado en las diversas escalas de manzana, barrio, ciudad, área metropolitana, región y país” (Juncá Ubierna, 2011, pág. 168). La inexistencia de esta cadena de movilidad en la calle de Horacio Zúñiga, ejemplo de este trabajo, imposibilita el garantizar una igualdad de derechos, de oportunidades y sensibilización hacia el peatón y sobre todo al que presenta alguna discapacidad. Conclusiones Mujer arquitecta: Ser mujer y arquitectura es formar parte un combo muy especial, representa poder observar cosas tan simples, tan cotidianas, que fácilmente son obviadas o pasan desapercibidas, de una manera diferente, con una sensibilidad distinta, y saber que podemos representar un cambio, porque esa es la naturaleza de la mujer, la entrega y dedicación que le damos a nuestra profesión, a nuestra vida y a nuestra familia es única. Arquitectura y el urbanismo de las ciudades actuales, arquitectura universal: Ciudades como Toluca que actualmente buscan una apertura al cambio de mentalidad de sus habitantes, se enfrentan a dos problemas, por un lado, una población peatonal abrumada e indefensa ante la pérdida del sentido de seguridad en el espacio público, dado por calles y avenidas que no muestran ningún tipo de cuidado y protección por parte de las autoridades, y por otro la obsesión por diferenciar muy bien las fronteras del espacio público y el espacio privado, pero sobre todo de quien es el usuario de cada uno. Esa pérdida de control se ve reflejada directamente en la arquitectura y urbanismo de las ciudades actuales, que desesperadamente intentan adaptarse al crecimiento desmedido de su población y de los vehículos automotores, pero muy pobremente a las necesidades del peatón y sobre todo del peatón con discapacidad, que es el más vulnerable, pero es el que debe aparentar más fuerza. Es por ello que el diseño universal es una herramienta básica para permitir espacios y entornos accesibles para toda la población, evitando la discriminación y exclusión del peatón en espacios públicos y privados, al contrario es incluido y tratado como igual, pero para que esto sea posible también la mentalidad de la población debe cambiar, y ser también universal, per366 mitiendo ver a las personas por lo que pueden aportar y no por lo que no pueden hacer. Tema actual de la senectud y la discapacidad en términos generales: No se puede negar la estrecha relación que existe entre las personas de la tercera edad y la discapacidad, las condiciones mismas del envejecimiento provocan cambios en las capacidades físicas y sensoriales de los individuos, también es cierto que los avances científicos avanzan cada día más, permitiendo que las personas vivan más tiempo y por lo tanto la población de adultos mayores crece cada día más, sin embargo es importante hacer conciencia que tener una discapacidad o ser un adulto mayor no es el fin del mundo y quitar el estigma que representan estas palabras, la discapacidad no define lo que una persona es, como tampoco lo es llegar a una cierta edad, son simplemente condiciones a las que cualquier persona puede y debe enfrentar. Soluciones: técnicas, humanas: Se puede pensar que realizar un proyecto siguiendo los principios del diseño universal es algo fácil, existen reglamentos y manuales, que sirven de guía, hablan sobre medidas antropométricas y ergonómicas, tamaño de circulaciones, porcentajes de desniveles para rampas, tratamientos de pisos, entre otras cosas, pero no es tan fácil como seguir un manual al pie de la letra, las técnicas a utilizar deben realizarse siempre conociendo a la población que la va a utilizar, las condiciones de cada ciudad, cada colonia y cada calle pueden ser muy diversas, estas técnicas deben ayudarnos primeramente a valorar el contexto en el que se desenvuelven los peatones con discapacidad, posteriormente definir técnicas de apoyo a la movilidad, orientación (visual y auditiva), accesibilidad a los espacios y seguridad ante los vehículos y otros peatones. Las reacciones que provoca la discapacidad se deben en gran medida al desconocimiento y miedo que nos da el otro, aquel que esta postrado en una silla de ruedas, no puede ver, oír o hacerse entender. Nadie está listo para esa clase de pruebas, pero, ¿cómo verlo?, ¿cómo entenderlo y sobre todo como apreciarlo?, romper las barreras arquitectónicas y urbanísticas sería el primer paso, crear espacios públicos accesibles, donde todos sean bienvenidos y aceptados, para que las diferencias desaparezcan y los puntos de encuentro florezcan. 367 Referencias [1] Alva Ruiz-Cabañas, J. (14 de Noviembre de 2010). el término correcto. El Universal. [2] Bauman, Z. (2013). Miedo liquido. La sociedad contemporanea y sus temores. México D.F.: Paidós. [3] Hernández Galán, J. (2011). Introducción. En F. ONCE, Accesibilidad Universal y Diseño para Todos. (pág. 269). Ediciones de Arquitectura. [4] INEGI. (2004). Las personas con discapacidad en México: Una visión censal. Aguascalientes. [5] INEGI. (2012). “Estadisticas a propósito del día internacional de las personas con discapacidad”. [6] Juncá Ubierna, J. A. (2011). Diseño de Transporte accesible. En F. ONCE, Accesibilidad Universal y Diseño para Todos. Arquitectura y Urbanismo. (pág. 267). Ediciones de Arquitectura. [7] Naime, A. (2000). Ciudad invisible . Toluca: Instituto Mexiquence de Cultura. [8] ONU. (2006). Convención sobre los derechos de las personas con Discapacidad y Protocolo Facultativo. [9] Soren, G. (2010). Hacia una plena participación mediante el diseño universal. Madrid, España. 368 Estudio de movilidad en personas con esclerosis múltiple Erika Vanessa Coéllar Vázquez Posgrado en Diseño. Ciencias y Artes para el Diseño. Universidad Autónoma Metropolitana - Azcapotzalco [email protected] Resumen Este artículo presenta información relevante sobre el proyecto de investigación para pacientes con esclerosis múltiple. En la primera parte se habla sobre los aspectos generales de la esclerosis múltiple (EM), tales como sus principales síntomas. Posteriormente, se detalla el proyecto de investigación que se llevó a cabo con un grupo compuesto por doce sujetos de estudio. Los resultados presentados evalúan el rango de movilidad en diferentes articulaciones mediante el equipo y software ErgoMov/IBV de valoración articular del Instituto de Biomecánica de Valencia, España, el cual se encuentra en el laboratorio de Ergonomía, en la Universidad Autónoma Metropolitana - Azcapotzalco. Palabras clave: esclerosis múltiple, biomecánica, ergomov. Abstract This paper presents the research project conducted with twelve patients with multiple sclerosis. In the first part discusses the general aspects of the disease multiple sclerosis (MS), such as the main symptoms. Subsequently, the research project was carried out with a group consisting of twelve study subjects discussed. In these subjects their ranges of motion were evaluated in different joints using the computer and ErgoMov / IBV valuation software articular Institute of Biomechanics of Valencia, Spain, which is in the Ergonomics Laboratory at the Universidad Autonoma Metropolitana – Azcapotzalco. Keywords: multiple sclerosis, biomechanics, ergomov. Introducción La presente investigación está enfocada a la enfermedad de esclerosis múltiple, sus características, así como, a la evolución en los pacientes. En el Instituto de Biomecánica de Valencia en España, existe un programa de valoración articular, que evalúa la movilidad del paciente, midiendo rasgos de diferentes articulaciones como el cuello, los hombros, los codos, las muñecas, la espalda, las caderas, las rodillas y los tobillos, básicamente. 369 En primera instancia, el artículo define las características de la enfermedad y expone los principales síntomas. En el desarrollo del presente se describe la metodología del proyecto de investigación, concerniente a la valoración articular de doce pacientes con esclerosis múltiple, miembros de la asociación Unidos Combatiendo la Esclerosis Múltiple (UCEM), midiendo en ellos sus mayores rangos en grados de movilidad. La valoración se realizó en el laboratorio de Ergonomía en la Universidad Autónoma Metropolitana – Azcapotzalco, uno de los requisitos para los participantes fue que asistieran con ropa cómoda como camiseta, shorts y tenis, con el fin de colocarles electrogoniómetros, que son dos bloques terminales unidos mediante un resorte, colocados sobre la piel. ¿Qué es la esclerosis múltiple? La esclerosis múltiple es: “un trastorno crónico del sistema nervioso central – formado por el encéfalo y la médula espinal – caracterizado por la pérdida de mielina. Esta es una sustancia blanca que actúa como una vaina recubriendo los nervios. Desde el momento que va desapareciendo comienzan a producirse placas de tejido endurecido, proceso conocido como esclerosis.” (Carrón, 2013: 60). En la esclerosis múltiple la pérdida de mielina es determinante en la capacidad motriz, visual y cognitiva, puesto que al irse perdiendo, se hace lento el flujo de información que va desde cerebro a los músculos. “La mielina es una estructura que cubre los axones y su función principal es dar velocidad al impulso nervioso […]” (Cuevas, 2010: 2). Los casos de esclerosis múltiple han incrementado, es actualmente “considerada como la causa de discapacidad neurológica más frecuente en el adulto joven, después del traumatismo craneoencefálico.” (Cuevas, 2010: XI). Esta enfermedad tiende a aparecer “entre el segundo y tercer decenios de la vida, pero se han se han observado casos tanto en niños como en personas de la tercera edad.” (Cuevas, 2010: 4). Las personas del sexo femenino se ven mayormente afectadas en una proporción tres a uno, en contraste con el sexo masculino. Aún en la actualidad se desconoce su causa, pero se piensa que puede estar entre predisposición genética y factores ambientales, por lo que si hubiera en la persona la susceptibilidad genética, se cree que pueden darse una serie de eventos alea370 torios en donde el cuerpo “falla en reconocer lo propio de lo ajeno, a esto se le conoce como enfermedad autoinmunitaria.” (Cuevas, 2010: 4). Los síntomas pueden variar de persona a persona dependiendo las áreas del sistema nervioso central que hayan sido afectadas, pero los síntomas principales que pueden presentarse en una crisis son: pérdida del equilibrio, parálisis, ataxia (falta de coordinación), temblores, debilidad, hormigueo, problemas visuales, pérdida de fuerza o sensibilidad, problemas en la función sexual, problemas de memoria a corto plazo, alteraciones urológicas,…” (Carreón, 2013: 60). Valoración del grupo de estudio con ErgoMov/IBV El grupo de estudio del proyecto de investigación estuvo integrado por doce pacientes con esclerosis múltiple, miembros de la asociación de Unidos Combatiendo la Esclerosis Múltiple (UCEM). El grupo estuvo compuesto por sujetos de ambos sexos, por nueve mujeres y tres hombres, en un rango de edades de 10 a 45 años de edad, quienes tienen diferentes niveles de motricidad, lo que motivó a evaluarlos en sus rangos de movilidad. Se determinó evaluar al grupo de estudio en su rango de movilidad a través del equipo y software ErgoMov/IBV Evaluación articular, del Instituto de Biomecánica de Valencia en España. El programa fue desarrollado para registrar ángulos en distintas articulaciones, medidos a través de electrogoniómetros, permitiendo el registro dinámico de los ángulos al estar en movimiento el sujeto de estudio. Las funciones del programa son la monitorización o visualización en la pantalla de la computadora de los ángulos medidos en las articulaciones valoradas y la generación de gráficas temporales de medidas. El equipo ErgoMov consta de los siguientes componentes: un ordenador de registro (computadora portátil); tarjeta de adquisición de datos DaqCard; unidad de visualización K800; unidad portátil K800; tres electrogoniómetros; así como, diversos cables que facilitan la conexión entre los diferentes elementos del equipo y finalmente el alimentador de la unidad K800. ErgoMov cuenta con tres electrogoniómetros: un goniómetro de un solo eje, el torsiómetro Q150 y dos goniómetros de dos ejes de la serie SG, que permiten la medición simultánea de ángulos en dos planos si así es necesario. Los goniómetros de ErgoMov permiten la valoración de las articulaciones de cuello, hombros, codos, muñecas, dedos de las manos, espalda, caderas, rodillas y tobillos. 371 Figura 1. Componentes del equipo ErgoMov. Manual de usuario, pág. 2.2. Figura 2. Conexión de los elementos. Manual de usuario, pág. 2.3. Debido a la condición de los sujetos de estudio y el tiempo necesario para evaluar todas las articulaciones antes mencionadas se decidió solamente valorar la movilidad en espalda, caderas, rodillas y tobillos, debido a que son las que principalmente se utilizan en la marcha. Todas las valoraciones fueron llevadas a cabo en el laboratorio de Ergonomía, se les solicitó a los participantes asistieran con ropa cómoda, como camiseta, shorts y tenis para permitir la colocación de electrogoniómetros sobre la piel de los participantes. Los tres electrogoniómetros se utilizaron con los objetivos antes descritos: el torsiómetro Q150 que ayuda a valorar los movimientos en la espalda, torsiones entre otros movimientos; dos electrogoniómetros: SG150 (largo), el cual registra los canales 1 y 2, utilizado para valorar las articulaciones de la caderas y rodillas; el electrogoniómetro corto SG65 por otra parte registra los canales 3 y 4, empleado para valorar tobillos. Los electrogoniómetros captan los ángulos articulares generando una tensión eléctrica. 372 La unidad portátil K800 permite la conexión de los electrogoniómetros que registran en la computadora las ondas de movimiento realizadas por el sujeto al ejecutar diversos movimientos, produciéndose diferentes ondas que pueden ser a través de cuatro canales. La tarjeta de adquisición de datos por su parte, ayuda a obtener una lectura continua de los ángulos medidos y convierte las señales eléctricas angulares a valores numéricos. Al grupo de estudio se les realizaron cuarenta y dos valoraciones articulares, algunas de ellas fueron las siguientes: flexiones laterales de tronco, flexión e híper-extensión de tronco, circunducciones de tronco, torsiones de tronco, extensión de cadera, híper-extensión de cadera, abducción de pierna, híperabducción de pierna y en la valoración de tobillos se valoraron la dorsi-flexión, plantar-flexión, aducción, abducción y circunducciones, entre otras. Figura 3. Gráfica temporal de flexión lateral derecha de tronco. Usuario 3. Figura 4. Gráfica temporal de flexión lateral derecha de tronco. Usuario 10. 373 Resultados Finalmente, se obtuvieron 504 gráficas temporales por los 42 movimientos de los doce sujetos de estudio, en las que se puede apreciar mayor o menor definición en las ondas, lo que significa mayor o menor movilidad. En las Figuras 3 y 4 por ejemplo, correspondientes a la flexión lateral derecha de tronco, el sujeto de la Figura 3 tiene una movilidad limitada, calificándola en 13.7 grados y el sujeto de la Figura 4 con 47.5 grados tiene mayor rango de movilidad con respecto al sujeto anterior. Estas valoraciones se hicieron con el objeto de conocer el estado actual en el rango de movilidad de los sujetos de estudio como se observan los resultados de los 12 sujetos en la tabla de abajo, correspondientes a la flexión lateral derecha de tronco. Por cuestiones de espacio no es posible presentar las 42 tablas con todos los resultados obtenidos en las valoraciones. Tabla 1. Elaboración propia a partir de los datos obtenidos. Resultados de los 12 sujetos de estudio en flexión lateral de tronco. Conclusiones La capacidad motriz en una persona con esclerosis múltiple varía, es decir, no influye directamente el tiempo que tenga diagnosticado, puede suceder que una persona con diez años con la enfermedad tenga mayor movilidad que otra que apenas tenga dos años con ella. La condición de salud en una persona con esclerosis múltiple puede ser un tanto inestable, debido a varios factores, uno tal vez a la incorrecta prescripción del medicamento correcto por el médico neurólogo desde que es diagnosticado. Otro factor, puede ser que no se cuente con el medicamento y se tenga que cambiar a otro parecido que no tenga el mismo efecto que el anterior lo que repercute en el sujeto en su capacidad motriz, principalmente en fuerza y en equilibrio. Cabe señalar, que además del medicamente apropiado, es necesario que el paciente tenga una constante y apropiada rehabilitación física que mantenga en movimiento constante todos o la mayoría de los músculos. 374 Referencias [1] Carrón, J., Arza, J. (2013). Esclerosis múltiple: análisis de necesidades y calidad de vida de los afectados y su entorno. Multiple Sclerosis: Needs analysis and qualitity of life of affected people and their environment. Revista Española de Discapacidad I (2). 59-75. [2] Cuevas, C. (2010). Esclerosis múltiple. Manual para médicos no neurólogos. Planeación y Desarrollo Editorial, S.A. de C.V. México. [3] Geiger, W. y Reich, D. (2012). Esclerosis múltiple: esperanza en la investigación. National Institute of Neurological Disorders and Stroke. Estados Unidos de América. Recuperado el 15 de enero de 2013 de: http://espanol.ninds.nih.gov/trastornos/esclerosis_multiple.htm#top [4] IBV (2008). ErgoMov/IBV Manual del usuario. Versión 2.0.2. Instituto de Biomecánica de Valencia, España. [5] Izquierdo, M. (2008). Biomecánica y sus bases neuromusculares de la actividad física y el deporte. Editorial Médica Panamericana. Buenos Aires, Madrid. Recuperado el 21 de mayo de 2014 de: http://books.google.es/books?hl=es&lr=&id=F4I9092Up4wC&oi=fnd&pg=PA6&dq=biomecanica&ots=ZmtJhrlKCE&sig=cJ-cZohYoCnkAffK-RhZD93c7so# v=onepage&q=biomecanica&f=false [6] Lacote, M., Chevalier, A., Miranda, A., Bleton, J., Stevenin, P. (1984). Valoración de la función muscular normal y patológica. Masson, S.A. España. 375 “La formación del diseñador industrial para promover el diseño inclusivo” Aideé Peña Martín, Omar Eduardo Sánchez Estrada Centro Universario UAEM, Universidad Autónoma del Estado de México [email protected] Resumen Muchas son las actividades que deben realizar los diseñadores industriales para satisfacer las necesidades actuales; sin embargo es necesario destacar el compromiso que la disciplina tiene con la sociedad, es por ello que los docentes del programa educativo de Diseño Industrial del Centro Universitario Universidad Autónoma del Estado de México (UAEM) Valle de Chalco, se han preocupado por determinar criterios y estrategias para desarrollar proyectos de diseño que atiendan necesidades incluyentes, derivadas de diversas problemáticas que emergen en la sociedad. El objetivo principal es potenciar los proyectos de diseño y su relación con el entorno. Por tal motivo la metodología desarrollada en el presente trabajo inició con un estudio teórico-práctico de los componentes del problema, así como la aplicación de una técnica para el análisis de problemas, además la aplicación de entrevistas y encuestas a estudiantes de quinto semestre de la licenciatura en Diseño Industrial de la asignatura de diseño de mobiliario. En ese sentido podemos decir que el diseño inclusivo hace referencia a la equidad, ya que el diseñador tiene la oportunidad de atender de forma precisa la diversidad cultural y el reconocimiento de las diferencias, esto le permite desarrollar alternativas para resolver situaciones económicas, culturales y biológicas que se presentan en un contexto determinado. Por lo anterior es necesario sensibilizar a los estudiantes sobre las desventajas que afrontan las personas desde su diversidad y actividad cotidiana, identificando las necesidades reales a través de un diseño integral e inclusivo, sin olvidar a las personas discapacitadas en un contexto de usabilidad desfavorable. Palabras Clave: Diseño Inclusivo, formación, estrategias Abstract There are many activities to be performed by industrial designers to meet current needs; however it is necessary to highlight the commitment that the discipline has with society, which is why teachers of Industrial Design of the University Center UAEM Valle de Chalco educational program, have been concerned with identifying criteria and strategies to develop design projects that address inclusive needs stemming from various problems that emerge in 376 society. The main objective is to promote design projects and their relationship with the environment. For this reason the methodology developed in this study began with a theoretical and practical study of the components of the problem and the application of a technique for the analysis of problems, and the application of interviews and surveys to students in fifth semester Bachelor’s degree in Industrial Design furniture design course. In that sense we can say that the inclusive design refers to equity, as the designer has the opportunity to address precisely the cultural diversity and the recognition of differences, this allows us to develop alternatives to solve economic, cultural and biological situations presented in a given context. Therefore it is necessary to sensitize students about the disadvantages facing people from their diversity and everyday activity, identifying real needs through a comprehensive and inclusive design, not to mention people with disabilities in the context of unfavorable usability Key Words: Inclusive Design, training, strategies, teaching and learning. Introducción En la actualidad la Universidad Autónoma del Estado de México afronta desafíos como: el fortalecimiento de los valores, la atención de los derechos humanos, el desarrollo de proyectos sustentables e igualmente una transformación de la educación a partir del estudio y análisis de problemas reales, que permitan generar nuevos e innovadores modelos educativos para inferir y aplicar el conocimiento asertivamente. Ahora bien el diseño como principio básico está ligado estrechamente a la solución de problemas actuales. Por consiguiente las necesidades que surgen con el paso del tiempo están ligadas a situaciones emocionales y psicológicas, las cuales aumentan la proporción del problema, por ello es necesario diseñar a partir de estudios antropológicos, etnográficos, así como antropométricos y ergonómicos para aumentar la calidad de vida de la sociedad. Por lo anterior es necesario romper paradigmas dentro y fuera del aula, tanto los docentes como los estudiantes y de esta forma acelerar las diferentes alternativas de solución. Cabe mencionar que los docentes ahora juegan el papel de facilitadores y los estudiantes el de constructores de su propio conocimiento, esto significa que se requiere experimentar con nuevos métodos de aprendizaje que den la posibilidad de promover el Diseño Inclusivo. El docente debe reconocer cuando sea necesario el desarrollo de nuevas competencias y de esta manera no sólo instruir sino educar a los estudiantes para que busquen y seleccionen la información adecuada, además de pro377 mover su capacidad de análisis, síntesis y comparación de contenidos para facilitar nuevos y mejorados ambientes que favorezcan la usabilidad por el mayor número de personas. El objetivo primordial del Diseño Inclusivo es incorporar a las personas con necesidades especiales y específicas a las actividades diarias para simplificar la realización de las tareas cotidianas mediante la construcción de productos y entornos más sencillos de usar con el mínimo esfuerzo, facilitándole la vida a las personas de diferentes habilidades y edades. El Diseño Inclusivo como herramienta para el proceso de enseñanza aprendizaje, habilita las acciones hacia la tendencia mundial del diseño universal ayudando e impactando en los diferentes ámbitos y niveles educativos del diseño Industrial. Desde este punto de vista el diseño se definiría como cualquier actividad humana “que se oriente a la resolución planificadora y lógica de problemas que admiten soluciones óptimas o satisfactorias” (Ledesma,1997). Mace (1997) define al diseño Inclusivo como: “el diseño de productos y entornos con el fin de que sean usables por el mayor número de personas posibles, sin necesidad de adaptación o diseño especializado” El diseño inclusivo como paradigma del diseño, tiene propósitos claros como la producción de entornos con fácil acceso, capaces de albergar el mayor número de personas sin importar su condición y sin tener que rediseñar o adaptar lo ya construido de forma especial para alguien. De esta manera Muñoz (2011) indica que se empieza a hablar del diseño sin barreras, con una mirada holística que elimine en su totalidad el asistencialismo y que parta de la diversidad humana, con todo lo que esto implica, permitiendo a cada ser humano un goce pleno de su vida cotidiana, con entornos sencillos que beneficien a todos en sus habilidades. El diseño inclusivo, no sólo se limita al diseño caritativo o social, su principal reto es el desarrollo de técnicas que permitan el desarrollo del capital humano y de productos provechosos para un gran numero de personas que demandan equidad de circunstancias y convivencia. Es por esta razón que los diseñadores deben estar al nivel de las exigencias que la sociedad demanda y prestar atención a situaciones de carencias, detectar problemáticas y proponer mejoras que logren la inclusión de la mayoría de los usuarios y con ello mejorar la calidad de vida de las personas al favorecer la usabilidad de los diseños y evitar la discriminación de uso de los productos a personas discapacitadas o que padezcan alguna limitación por su edad, genero o nivel de capacidad física. 378 Metodología Para realizar la promoción del diseño inclusivo se desarrolló una propuesta de enseñanza aprendizaje a partir de criterios de diseño inclusivo, entrevistas, encuestas y la aplicación de una técnica de análisis de problemas, esto permitió la sensibilización de los docentes y estudiantes acorde con las necesidades específicas que se presentaron en los diferentes casos de estudio. El sentido de viabilidad de los proyectos es importante para promover la inclusión y garantizar la autonomía personal de los usuarios, evitar las limitaciones a partir de productos que se adapten a cualquier individuo y entorno como sea posible, además de considerar verdaderamente sus necesidades permite romper la tendencias del diseño exclusivo. Para el desarrollo de estrategias de enseñanza aprendizaje se consideró la generación y promoción de las culturas inclusivas apoyadas principalmente en dos aspectos: reconocer las características de los usuarios y establecer valores inclusivos, en donde se plantea el análisis de los entornos tantos sociales, culturales y económicos, además de una evaluación sistemática de los procesos de aprendizaje, con la intervención y dirección del profesorado y los expertos en el desarrollo de los diseños. Las estrategias para fomentar el diseño inclusivo se aplicaron en los estudiantes de quinto semestre de la licenciatura, interesados en las unidades de aprendizaje como: teoría del diseño y diseño de mobiliario, ya que estas asignaturas abordan significativamente la parte teórica, por otro lado se realizó un estudio detallado del usuario y de esta manera los proyectos fueron encaminados a: a) Promocionar la igualadad y equidad de uso. b) Reestructurar los elementos básicos del mobiliario para atender la diversidad en factores de usabilidad. c) Garantizar el uso del proyecto de diseño. d) Desarrollar expectativas del profesorado sobre las posibilidades de todos los proyectos y su materialización. Los conceptos descritos sustentan la educación inclusiva en el desarrollo de las propuestas hacia el Diseño Inclusivo. Cabe señalar que dentro de la estrategia para fomentar el diseño inclusivo se analizaron los conceptos básicos del diseño universal y diseño para todos, además de realizar un análisis a partir de la técnica FODA, esto permitió detectar indicadores que favorecen el nivel de integración e inclusión en los requerimientos de diseño. (Lazzari, 2012). A continuación se presenta la tabla con el análisis FODA sobre el Diseño Inclusivo. 379 cc Debilidades Desarrollo de planes de mejora para que se concreten los diseños inclusivos y la integración de la mayoría. La falta de adecuación normativa en los proyectos, dificultando la aplicación del diseño universal. Decretos y leyes sobre igualdad y violencia de género. Implementación de unidades de aprendizaje como respuesta a necesidades globales, de convivencia e interculturalidad. Revisión y replanteamiento de los procesos formativos y seminarios de trabajo para su integración en la práctica. La escasa implementación de proyectos globales a partir de la estructura curricular. Como consecuencia los estudiantes difícilmente los estudiantes competencias específicas para el diseño inclusivo Proyectos de diseño que tienen en cuenta el enfoque de género en la atención a la diversidad. Baja exigencia para la habilitación de proyectos de diseño para todos por parte del docente hacia el discente. Oportunidades Amenazas El reconocimiento de la diversidad como una tendencia global. Bajas expectativas en los proyectos inclusivos. Desarrollo de metodologías para la implementación de diseños inclusivos. Flexibilidad en la organización, articulación y desarrollo de proyectos inclusivos. Recursos Humanos para el desarrollo de proyectos inclusivos. Elaboración de planes de mejora por parte del Centro Universitario Las Tic´s como paradigma en los talleres de diseño y los de materialización. La escasa cultura de diseño inclusivo del profesorado para guiar hacia un diseño universal. El pensamiento de diseño exclusivo y las nuevas tendencias de diseño. Figura 1. Análisis FODA sobre el diseño Inclusivo. Después de la obtención de criterios a partir de la técnica FODA y la revisión de los valores inclusivos en 28 proyectos de diseño de quinto semestre, por parte de los docentes titulares de los talleres de diseño, se obtuvo lo siguiente: Figura 2. Gráfica que indica el porcentaje de igualdad, equidad y justicia aplicada en los proyectos de diseño. 380 Como se puede observar en la gráfica la mayoría de los proyectos desarrollados atendieron la equidad, quedando con porcentajes menores la justicia e igualdad; por consiguiente el principal reto del diseño de mobiliario es lograr la integración de los requerimientos que promueven los valores inclusivos de la mayoría de la mayoría de los usuarios. Resultados Cabe destacar que después de haber realizado las encuestas y entrevistas durante el desarrollo de los contenidos de la asignatura de mobiliario, los estudiantes desarrollaron con mayor interés los requerimientos de uso para el diseño de mobiliario y de esta forma se atendió la diversidad como un requerimiento esencial. Los proyectos en su prefiguración se definieron a partir de necesidades y situaciones reales, incluyendo el seguimiento de algunas de las actividades esenciales de los usuarios primarios, con ello se amplió la garantía de uso de los objetos de diseño y su materialización, además se fortalecieron las prácticas, de producción y presentación de los proyectos de diseño industrial, integrando los saberes del diseñador a través de su trayectoria académica. Figura 3. Tabla de porcentaje indicando la usabilidad de los conceptos básicos del diseño. De esta forma los estudiantes indicaron que los conceptos como ergonomía y antropometría son esenciales para el desarrollo de mobiliario y permiten identificar las interacciones que se presentan en los diferentes intervalos de uso de un objeto de diseño, aunado a ello fue posible mejorar las técnicas de producción y los estudios necesarios para determinar los requerimientos de función y ergonomía cognitiva al desarrollar los proyectos (Cañas ,2001). 381 Conclusiones Los proyectos desarrollados en el curso promovieron diferentes metodologías para el diseño, enfocandose en las mejoras de métodos y procedimientos hacia el diseño inclusivo. Las experiencias en diversos escenarios así como las acciones e interacciones del usuario en el diseño de mobiliario, encaminaron a la comunidad estudiantil a comprender la importancia de la inclusión de los entornos y de las personas en cualquier proyecto de diseño. Además podemos afirmar que la teoría del diseño que fundamenta los proyectos, privilegia el cuidado y bienestar de las estructuras sociales, asimismo de las personas y el ambiente en general. A partir de los resultados obtenidos en los diferentes proyectos, se lograron descubrir barreras y necesidades existentes, de igual manera aportar en el desarrollo de las soluciones en cumplimiento de las directrices de la investigación. Es precisamente desde estos escenarios que el diseño inclusivo y la participación activa de las personas en las soluciones de diseño industrial, elevan a un nuevo nivel la tarea del diseñador a partir de los proyectos de diseño socialmente responsable. Referencias [1] Alzate, M. C. M. (2011). El diseño inclusivo como mediador para la transformación social. Traza, 2(4). [2] Cañas, J. J., & Waerns, Y. (2001).Ergonomía Cognitiva: Aspectos Psicológicos de la interacción de las personas con la tecnología de la información. Ed. Medica Panamericana. [3] Lazzari, L., & Maesschalck, V. (2012). Control de gestión: una posible aplicación del análisis FODA. Cuadernos del CIMBAGE, (5). [4] Ledesma, M. V. (1997). Diseño gráfico, ¿un orden necesario? En Arfuch, L., Chaves, N. y Ledesma, M. (1997) Diseño y comunicación. Teorías y enfoques críticos. Buenos Aires:Editorial Paidós. [5] Ledesma, J. (Ed.) (2008), La imagen social de las personas con discapacidad. Estudios en Homenaje a José Julián Barriga Bravo, Madrid, Colección cermi.es, número 35, Ediciones Cinca/CERMI. Disponible en: http://www.cermi.es/esES/ColeccionesCermi/Cermi. es/Lists/Coleccion/Attachments/60/Laimagensocialdelaspersonascondiscapacidad.pdf Última consulta enero 28 de 2015. [6] Mace, R. L., Connell, B., Jones, M., Mueller, J., Mullick, A., Ostroff, E., ... & Vanderheiden, G. (1997). Principles of universal design. last accessed March,24. 382 El Reuso del Agua Residual Tratada y Cambio Climático Carmen Julia Navarro-Gómez1, Eduardo Florencio Herrera-Peraza2, Humberto Iván Navarro-Gómez3, María Socorro Espino-Valdés1, Adán Pinales Munguía1, Jorge Antonio Ortiz2 y Estela Montes Carmona4 Área de Investigación: Ciudades competitivas e inteligentes. Institución: Universidad Autónoma de Chihuahua1, Centro de Investigación de Materiales Avanzados2, Universidad Autónoma de Chapingo3 y Universidad Veracruzana4 [email protected] Resumen El cambio climático natural o inducido representa un gran riesgo para los recursos hídricos. Según estimaciones de las organizaciones mundiales, el 50% de la población mundial vive bajo un estrés hídrico. Por lo que el reuso del agua en la actualidad es una política ampliamente aceptada, como sustitución de agua de primer uso o como fuente para actividades que no requieren la calidad de agua para consumo humano. Sin embargo, es poco el análisis realizado del impacto del uso del agua residual tratada en las comunidades. El objetivo de este trabajo fue determinar la existencia o no de impactos negativos de esta acción, dada la complejidad y características de la calidad de agua residual tratada; el trabajo se centró en la transformación de los compuestos nitrogenados inorgánicos como son: nitrógeno amoniacal (NH3), nitritos, nitratos (NO3) y óxido nitroso. Abordar a este último, el cual es gas de efecto invernadero permite una visión holística de los procesos de estos compuestos analizados. El impacto de esta política de reuso se evaluó con el monitoreo en un punto de aplicación en la ciudad de Chihuahua, así como los análisis de muestras de agua residual tratada y del gas emitido en dicho punto. Para la interpretación se utilizó modelos de estadísticos Multivariante, tanto de Análisis de Varianza (ANOVAS) como de Análisis de Componentes Principales (ACP). El resultado obtenido manifiesta emisiones de Óxido Nitroso (N2O) que pueden contribuir al efecto de cambio climático por el reuso de agua residual tratada, sin embargo esta emisión puede ser mitigado o controlado con medidas simples durante el manejo y operación del reuso. 383 Palabras clave: Saneamiento, Cambio Climático, Óxido Nitroso, Nitratos, Reuso del agua Introducción El cambio climático representa un gran riesgo para: los recursos hídricos, la actividad económica y la estabilidad política. Según estimaciones de las organizaciones mundiales, se dice que el 50% de la población mundial vive bajo un estrés hídrico (Figura 1), aunado a que los recursos hídricos se encuentran bajo una fuerte presión de población en aumento, así como a la extracción excesiva y la creciente contaminación. Hoy en día, los problemas de agua siguen siendo grandes en muchas agendas nacionales, especialmente en las naciones en desarrollo. Figura 1. Indicador del estrés hídrico a nivel mundial (Revenga et al, 2002). El reuso es derivado del reemplazo del agua potable en actividades que no requieren esta calidad, lo que permite disponer de mayor caudal o volumen para satisfacer la demanda creciente de agua potable. Estas acciones cuentan con casos de aplicación por más de 20 años. Se puede citar como ejemplos los de Dan, Israel y los de Arizona en Estados Unidos. Sin embargo, los análisis que se han realizado al respecto, están relacionados con la estimación del valor económico que se recupera de esta práctica, mediante el análisis de costo-beneficio, al satisfacer la demanda de agua potable y no recurrir a nuevas fuentes.(Lluria, 2011). La reutilización del agua no potable en sustitución de la potable se ha demostrado en regiones con escasez de agua por ser una fuente segura y una de las soluciones más eficaces para el ahorro de la misma. El beneficio puede ser considerable, ya que el 30-70% de las extracciones de agua son para el abastecimiento público (Bixio et al., 2005a) 384 Al obtener resultados satisfactorios en cuanto a la sustitución de agua de primer uso por agua residual tratada, se priorizó mundialmente la necesidad de potencializar la gran cantidad de agua residual tratada para la agricultura y al uso municipal. (UNEP, 2002). Sin embargo, esto puede ser que provoque una recarga artificial no intencional, dada la característica de calidad de agua, en la cual se tienen parámetros orgánicos e inorgánicos, los cuales unos son degradables, otros transformables o acumulables. El reuso de agua residual podría ser identificado como una actividad, cuya política está destinada a la conservación y uso sostenible de la biodiversidad y los ecosistemas que mejoren las opciones de adaptación y mitigación del cambio climático, propuesto por el Intergubernamental Panel sobre el Cambio Climático (IPCC). En 1988 se estableció el Grupo Intergubernamental de Expertos sobre el Cambio Climático, para evaluar la información científica, técnica y socioeconómica que permitiera comprender al cambio climático inducido por el ser humano, sus impactos potenciales y las opciones para la mitigación y la adaptación. (IPCC, 2002) Por ello es importante abordar las políticas públicas de manera holística, con la finalidad de anticipar de ser posible la vulnerabilidad de los ecosistemas o en caso necesario medidas de mitigación y adaptación. La mayoría de los documentos referentes a las repercusiones del riego con agua residual tratada (ART), sobre las propiedades del suelo y la movilidad de sus componentes de calidad del agua, se basan en investigaciones cortas y recientes con series incompletas de los datos. Los efectos a largo plazo del riego con esta fuente están en incipiente evaluación. Uno de los rubros que el IPCC indica como factor de cambio climático es el efecto invernadero, que aunque se produce en forma natural, cuando parte de la radiación solar que atraviesa la atmósfera, donde es absorbida por la superficie terrestre, cambia su longitud de onda y se re-emite como radiación infrarroja, la que es absorbida en la tropósfera y devuelta a la tierra por las nubes y en algunos gases, denominados genéricamente gases de efecto invernadero (GEI). La principal preocupación ambiental es que estos gases, aunque en condiciones naturales se encuentran en bajas concentraciones atmosféricas, poseen tiempos de persistencia en la atmósfera muy prolongados (Tabla 1) y tienen un aporte antropogénico importante, lo que genera un escenario de emisiones y potenciales efectos progresivos y acumulativos en el tiempo, debido a la sinergia del poder de calentamiento de cada uno de ellos. 385 Tabla 1. Características de los principales GEI (Lara, 2003; IPCC, 2007). El óxido nitroso generado como resultado de la quema de biomasa (detritos vegetales, combustión del petróleo y volatilización desde suelos fertilizados), también deriva de la actividad microbiana en aguas residuales, suelos y océanos, durante la degradación de la materia orgánica nitrogenada; y las mayores fuentes proceden de la agricultura (Mackenzie et al., 1998; IPCC, 2002). Lo trascendental de este gas, es que posee una capacidad calórica que equivale a 310-320 veces la del CO2 en un escenario de 100 años (IPCC, 1997). Por otra parte, el IPCC considera que la degradación biológica de la materia orgánica presente en las aguas servidas, constituye una de las numerosas fuentes antropogénicas para estos GEI, independientemente si las aguas son tratadas o no en una planta de tratamiento y más si son utilizadas para riego de superficies. Los objetivos de esta investigación fueron identificar, medir y cuantificar los componentes nitrogenados inorgánicos presentes en la calidad del agua residual tratada que pudieran derivar en la generación de óxido nitroso y así contribuir a los GEI. Materiales y Métodos El alcance de la investigación se logró mediante la caracterización del sitio experimental, equipamiento e instrumentación, con el fin de obtener las variables que intervienen en la evaluación como parte del reuso del agua residual tratada (ART). (Figura 2) 386 Figura 2. Caracterización de áreas verdes regadas con ART. Para abordar el problema en particular, se buscó evaluar la relación de la emisión del óxido nitroso con la profundidad del suelo; en la zona de raíces (edáfica) y en la zona no saturada somera (vadosa). El modelo conceptual de análisis, consideró las variables como: tipo de suelo, calidad del agua de riego (pH, nitratos, nitritos, nitrógeno amoniacal, Solidos Disueltos Totales, Demanda Química de Oxigeno, DQO, entre otros), vegetación (zacate), factores climáticos como: temperatura, humedad, precipitación, viento, etc. En la Figura 3 se da el esquema de análisis. Figura 3. Modelo conceptual para el análisis. El proceso da inicio con el riego con ART e impacta en la cubierta vegetal; donde se retiene el agua en el suelo por la acción de las raíces. Es en la zona radicular o edáfica donde se producen reacciones bioquímicas que transforman el nitrógeno amoniacal del ART; ahí las condiciones climáticas 387 pueden inducir o provocar la evapotranspiración y/o la emisión de gases a la atmósfera con contenido nitrogenado como el óxido nitroso. Algunas de las técnicas analíticas, el equipo utilizado, así como la normatividad que aplica, se enlistan en la Tabla 2. Tabla 2. Parámetros analizados en el agua de entrada y salida de los lisímetros. Con respecto al óxido nitroso, se utilizó la técnica de cromatografía de gases con detectores de captura de electrones e ionización de flama. Para lo cual fue necesario determinar, el método de análisis adecuado en el cromatógrafo y la curva de calibración, con la que se cuantifico la concentración del óxido nitroso (Accorsi et al, 2005) Resultados y discusión Basado en el diagrama general de análisis, se ubicaron captores de agua y gas en diferentes puntos del sitio seleccionado. Los puntos de monitoreo del agua fueron a una profundidad de un metro y las cámaras de captación de gas colocadas en las zonas vadosa y radicular en el mismo punto durante un año (2010).Para el análisis cuantitativo y temporal del comportamiento de la emisión del óxido nitroso, se utilizó el software Excel y Minitab 15. En la Figura 4 se aprecia el comportamiento de los resultados obtenidos para el óxido nitroso en puntos de muestreo en las cámaras colocadas en las zonas radiculares. 388 Figura 4. Resultados del análisis de óxido nitroso en zonas radiculares. En la Figura 5 se aprecia el comportamiento de los resultados obtenidos para el óxido nitroso en puntos de muestreo, en las cámaras colocadas en las zonas vadosas. Figura 5. Resultados del análisis de óxido nitroso en zonas vadosas. La reacción hacia el óxido nitroso de los componentes nitrogenados inorgánicos presentes en el agua y/o del contenido de nitrógeno en el suelo, depende del suministro de oxígeno o la saturación por agua en los espacios de los poros vacíos del suelo, de la temperatura ambiente y del estado de crecimiento del zacate. La combinación de estas condiciones permite la acción de las bacterias aerobias. Se tiene un comportamiento en el tiempo similar en los puntos, con tendencia al descenso hacia la temporada fría. Hay dos picos que sobresalen en la tendencia de emisión del óxido nitroso, estos corresponden a las mediciones de los días 13 y 30 de Agosto. Esos días el zacate se encontraba floreando, después de tomar las muestras esos días, se cortó la hierba y la cuantificación del óxido nitroso disminuyo drásticamente al día siguiente. 389 Las muestras obtenidas en la zona de la raíz tienen concentraciones más altas y mayores volúmenes de recolección en comparación con los obtenidos a partir de la zona no saturada poco profunda. Esto es significativo para considerar en cuantificación de la emisión de contaminación por fuente de área de este gas, tanto si esto se hace por medio de la medición directa, o como en la actualidad mediante la estimación de factores. Los resultados obtenidos del óxido nitroso en el tiempo, nos permiten distinguir diferencias en las magnitudes de los valores de las concentraciones originadas por: el tipo de suelo, la calidad de agua de riego y a los parámetros meteorológicos. Sin embargo, para saber si esta asociación es resultado de que realmente existe la asociación indicada, o que esta asociación puede ser debido al, por la presencia de sesgos en el experimento o la presencia de variables de confusión. Es necesario determinar si las diferencias observadas entre los resultados de las muestras del óxido nitroso son al azar o, por el contrario, se pueden atribuir a los tratamientos o criterios de clasificación (tipo de suelo y calidad de agua de riego). Para lo cual se define si existe diferencia estadísticamente significativa entre los resultados. Por lo cual se procedió a transformar los resultados obtenidos del modelo físico a un modelo estadístico que nos cuantifique y de certeza de las conclusiones obtenidas. El modelo estadístico es una expresión simbólica en forma de ecuación o representación vectorial, que se emplea en todos los diseños experimentales, para indicar los diferentes factores que se asocian o inciden en la variable de respuesta, así como determinar cuáles son las variables más importante o influyentes en un fenómeno. Hasta aquí está definida la influencia de las variables (calidad del agua, período de muestreo, tipo de suelo y profundidad de muestreo) en la variable respuesta (cantidad de N2O); con la finalidad de incluir y determinar la influencia de las otras variables meteorológicas (humedad relativa, temperatura promedio diaria y viento), se procedió a realizar un Análisis Multivariante que nos permitió cuantificar la relación y/o asociación entre las distintas variables. El procedimiento MLG (Modelo Lineal General) proporciona un análisis de regresión y un ANOVA para una variable dependiente (óxido nitroso) mediante uno o más factores o variables (profundidad de suelo, tipo de suelo y tipo de agua) que dividen la población en grupos 390 Se aplicó el MLG en el ANOVA, donde se procedió a determinar que el valor de regresión del modelo de los datos observados (R-Sq = 50.71%) y el valor de regresión del modelo de los datos ajustados (R-Sq (adj) = 48.83%), siendo similares los valores de regresión en ambos modelos. En la Tabla 3 se presentan los resultados del ANOVA. Tabla 3. Resultados del ANOVA. Del resultado de la tabla anterior se deduce que el factor principal que más influye es el tipo de agua y el que menos influye es la profundidad del muestreo. Delas interacciones la que más influye es la combinación de tipo de suelo con tipo de agua. El factor de tercer orden no produce influencia en los cambios de la función de respuesta. El modelo ANOVA es: Concentración de N2O = 23.713 +3.65*PS + 6.932*TS +17.689*TA -5.421*TS*TA Las diferencias significativas de las concentraciones de óxido nitroso entre las medias de los grupos (por factores PS, TS y TA), fueron obtenidas con una confiabilidad del 95%.Se muestran que existen diferencias estadísticamente significativas tanto para el factor del tipo de suelo como para el factor del tipo de agua. Sin embargo, como quedó definido que los suelos naturales emiten óxido nitroso, el mayor factor para su incremento en magnitud es el tipo de agua, que en el modelo ANOVA muestra la mayor magnitud 391 Conclusiones Se puede establecer con certeza que existen emisiones de óxido nitroso que se producen en las áreas verdes durante el verano y que los niveles más altos se esperan durante la floración, estas emisiones se consideran en bajos niveles de emisiones para representar un riesgo a la salud en forma directa;, En particular, en los parques y jardines en Chihuahua por el mantenimiento que se les da, (corte del césped en forma continua) no es común el fenómeno de floración en el zacate, también el efecto de la temperatura en la producción del óxido nitroso, puede ser disminuido, mediante los horarios de irrigación, como regar por la tarde, para disminuir las emisiones de óxido nitroso por acción de las temperaturas diurnas. La conclusión de que la emisión de óxido nitroso en el suelo de los parques y jardines en Chihuahua es causada por múltiples variables, incluyendo la textura del suelo, el clima y la calidad del agua. La formación del óxido nitroso se produce durante las reacciones bioquímicas en el suelo, que resulta de las transformaciones microbianas de las formas del nitrógeno en los suelos. El N2O es un intermedio en la desnitrificación (reducción de NO3 a N2) y se forma durante la nitrificación (oxidación de NH3 en NO3). Aunque este es un hecho conocido, el objetivo de esta investigación fue identificar, qué cantidad, dónde y cuándo es generado el óxido nitroso en el suelo con cubierta vegetal (zacate) durante el riego con ART a la atmósfera; además de emplear y modificar la técnica de cuantificación del gas en sitio. Pues esta fase del ciclo del nitrógeno, en las investigaciones revisadas sólo se encuentra a nivel conceptual o modelado, las mediciones en sitio se empiezan a realizar en los campos agrícolas fertilizadas por componentes nitrogenados inorgánicos, pero no en este tipo de coberturas de suelos regados con ART. Referencias [1] Revenga, C., V. Smakhtin, P. Döll, R. Tharme, J. Nackoney, Y. Kura, E. Bos, G; Bergkamp, M. Marker and M. Florke. (2002). Overtapping the World’s Water: A Model Based Pilot Analysis of Environmental Water Scarcity. Poster Presented at the World Summit on Sustainable Development. [2] Lluria, M. (2011). Managed Aquifer Recharge for the Arizona Desert: The Development ofLarge Surface Water Spreading Facilities, www.nwriusa.org/rechargesymposium2011. htm 392 [3] Bixio, D. De heyder, H. Cikurel, M. Muston, V. Miska, D. Joksimovic, A.I. Schäfer, A. Ravazzini, A. Aharoni, D. Savic and C. Thoeye (2005a). Municipal wastewater reclamation: where do we stand? An overview of treatment technology and management practice. Water Science and Technology: Water Supply V 5 No 1 pp 77-85. [4] United nations environment programme (UNEP) (2002) Water and wastewater reuse An Environmentally Sound Approach for Sustainable Urban Water Management Division of technology, industry and economics - international environmental technology centre. http://www.unep.or.jp [5] IPCC, (2002) Cambio climático y biodiversidad, Grupo Intergubernamental de Expertos sobre el Cambio Climático. ISBN: 92-9169-104-7 [6] Lara Scarlette (2003) Estimación de Emisiones de Gases de Efecto Invernadero, Provenientes del Tratamiento de Aguas Servidas en la Región Metropolitana de Santiago de Chile. Tesis para optar al Grado de Magister en Gestión y Planificación Ambiental Universidad de Chile. [7] IPCC (2007) Climate Change Base de las Ciencias Físicas. Grupo Intergubernamental de Expertos sobre el Cambio Climático. Informe del Grupo de Trabajo al cuarto Informe [8] Mackenzie, J., J. Pesek, R. Bacon and A. Madiraju (1998). Comparison of public vs. Agricultural & Resource Economics Association, June 22, 1998, Ithaca, NY. [9] IPCC Technical Paper IV (1997).Stabilization of Atmospheric Greenhouse Gases: Physical, Biological and Socio-economic Implications. JT Houghton, LG Meira Filho, DJ Griggs and M Noguer (Eds). IPCC, Geneva, Switzerland. pp 41 [10] Accorsi, A., Morrone B., Batista G., and Saverio F. (2005) High-speed capillary gas cromatography for determination of inhalation anesthetics. Journal Chromatography A, 1071, 81-84. 393 El Tercer Maestro: importancias de la estética, la organización, la comunicación y la interacción en el entorno académico Ana Jessica Ceballos Ortiz Revuelta, Sandra Lewis Gayol Universidad Iberoamericana, Universidad Pedagógica Nacional [email protected], [email protected] Resumen Para el Dr. Derek Cabrera1, una de las maneras más importantes en las que el conocimiento cambia y evoluciona es mediante la relevancia cuyo concepto, en la teoría del conocimiento, se enfoca al pleno desarrollo del ser humano como individuo y ser social y por lo cual es esencial potenciar y fortalecer sus habilidades y capacidades cognitivas. En este estudio se pretende analizar la importancia de la estética, la organización, la comunicación y la interacción en el entorno académico así como conocer el efecto que tiene el entorno en nuestros cinco sentidos y en nuestro cerebro. Tenemos como objetivo reconocer y promover la facultad de potencializar el proceso de aprendizaje en todos los niveles educativos basándonos en la relación de la concepción estética, del estudiante y del espacio-ambiente. Como veremos más adelante, el entorno físico tiene un impacto profundo en el proceso de aprendizaje del estudiante y es considerado como el tercer maestro por la pedagogía Reggiana. Esta filosofía, enfocada a la educación, nace en un pueblo al norte de Italia llamado Reggio Emilia y se convierte en un modelo educativo para la enseñanza de infantes así como una inspiración para las nuevas tendencias y corrientes educativas del siglo XX. Esta propuesta nace en 1945 y propone al niño como el protagonista del proceso educativo. Mediante ejemplos de experiencias educativas infantiles, profundizaremos en como el diseño y el uso del espacio dentro del aula escolar promueve relaciones, comunicaciones y encuentros (Gandini, 1993) y permiten desarrollar y enriquecer la sensibilidad, suscitando la creatividad y el razonamiento. Al entablar diálogos entre diseñadores, arquitectos, pedagogos y maestros, se ofrece la posibilidad de crear espacios físicos que promueven la experimentación, la exploración y el conocimiento para estudiantes de todas las edades. Este trabajo de investigación está basado en la propuesta estética que el enfoque Reggio Emilia tiene sobre los ambientes y entornos educativos, siendo 1 Cabrera D., Colosi L. (2009). Thinking at every desk. Research Institute for Thinking in Education, NY. 394 una de las experiencias más innovadoras en el campo educativo a nivel internacional. Esta propuesta habla de un orden y una belleza implícitos en el diseño y organización del espacio, equipo y materiales en una escuela (Lewin, 1995) y es en este contexto que la filosofía Reggiana llama tercer maestro al espacio o aula de enseñanza-aprendizaje. El efecto que producen los ambientes en el cerebro estimula el proceso de aprendizaje de diversas maneras. Al comprender estímulos como la iluminación, el sonido, la armonía cromática, las fuerzas visuales y demás sentidos involucrados, la fusión entre diseño y educación se convierte en una herramienta fundamental para el proceso de enseñanza y aprendizaje. El impacto del espacio-ambiente, desde el punto de vista psicoanalítico e humanístico de Erickson, Rogers y Maslow, tiene efectos terapéuticos y de gran importancia en el cerebro por lo cual, el objetivo de este trabajo es también el de invitar a los lectores a profundizar e investigar más sobre la propuesta educativa Reggiana así como analizar y describir el efecto que produce el espacio-ambiente en los sentidos y en el mayor aprovechamiento del proceso de aprendizaje a nivel cerebral. Palabras clave: Reggio Emilia, aprendizaje, espacio-ambiente. Reggio Emilia: Una experiencia educativa Una ciudad rica en historia y en monumentos, Reggio Emilia se encuentra en la zona septentrional de Italia, región de la Emilia Romana de ambientes ricos en belleza y diversidad. Con sus 167,678 habitantes, Reggio Emilia es una comunidad floreciente con una larga historia a sus espaldas. La experiencia educativa de Reggio Emilia es una historia que se extiende por más de 40 años y que puede describirse como el experimento pedagógico de toda una comunidad. Una de las razones básicas de la fuerza y longevidad de Reggio es esa voluntad de atravesar los límites, impulsada por una curiosidad infinita y el deseo de abrir nuevas perspectivas. Los educadores de éste ilustre lugar han extraído teorías y conceptos de diversas disciplinas y han unido su trabajo a un análisis del mundo en un sentido amplio y a su proceso de transformación permanente. En las escuelas de Reggio Emilia, el ambiente físico tiene una relevancia primordial. A lo largo de muchas décadas han logrado trabajar conjuntamente pedagogos y especialistas en arquitectura, arte, diseño, ciencias, literatura, filosofía y comunicación visual para cultivar el sentido de la estética a través del ambiente de aprendizaje. 395 El espacio físico o el entorno, debe invitar a la creatividad y promover el desarrollo de estrategias y habilidades para el aprendizaje. También debe enmarcar el aspecto social y cultural de cada lugar. Los ambientes deben ser espacios vivos, donde se invita al diálogo y a la comunicación permitiendo la construcción de relaciones sociales además de los procesos cognitivos2. Durante el proceso de remodelación de la Escuela Diana, una de las escuelas del municipio de Reggio Emilia, se hizo un estudio enfocándose en tres puntos específicos: 1. Cómo se mueven los niños de diferentes edades en los espacios y para qué los usan. Qué tipo de relaciones construyen en situaciones donde ellos se organizan de manera autónoma como lo es el ambiente escolar. 2. Cómo perciben y representan los alumnos el espacio de la escuela (interior y exterior) usando diferentes medios gráficos y plásticos. 3. Cómo utilizan los niños los canales sensoriales para establecer contacto con la realidad y desarrollar su proceso cognitivo. Vea Vecchi, atelierista o artista plástica de la escuela Diana desde 1970, hace referencias y comentarios a las observaciones e información recaudadas de dicho estudio que considera interesantes para pedagogos, diseñadores y arquitectos. Lo primero que se encontró, dice Vea Vecchi, fue la necesidad que demostraron los niños por establecer conexiones sociales entre ellos. Para estos intercambios sociales los niños escogieron lugares aislados y alejados que les permitía organizar sus juegos. Lo segundo que se encontró, fue una fuerte atracción hacia la narrativa. De una u otra forma, los niños aman contar historias y proyectarse en mundos imaginarios. Para este tipo de juego, los alumnos escogieron áreas abiertas y grandes que les permitieron intercambiar sus historias y actuar sus aventuras por medio de movimientos corporales y físicos. También utilizaron materiales suaves como tapetes y objetos acolchonados, para los movimientos de impacto como saltar y brincar. Las observaciones de este estudio también mencionan la importancia que tiene el papel del piso o suelo. Los niños se arrastran, acurrucan, brincan y exploran dependiendo del material de construcción de cada piso. La madera invita a resbalar, a bailar, a extenderse. Los objetos acolchonados a rebotar, brincar y retozar. El concreto y las losas a correr, caminar, investigar. 2 Vecchi, V (2010) Art and creativity in Reggio Emilia.Routled, London. 396 Otro aspecto importante que menciona Vecchi es no olvidar que en toda aula o salón de clase debe de incluirse un espacio que ayude al relajamiento y al descanso: un lugar con una iluminación natural y suave y un mobiliario que invite al descanso y a recargar la energía. Una conclusión a la que llega Vea Vecchi es que los niños son nómadas de la imaginación y grandes manipuladores del espacio. Por lo tanto, cuando diseñamos o construimos espacios para el aprendizaje, tenemos que tener en cuenta que los niños no utilizan el espacio estrictamente para lo que se creó. No sólo brincan en espacios diseñados para ejercicio. Construyen, inventan y se mueven. Aprenden tanto en lugares aislados como en áreas abiertas. Los ambientes físicos La percepción sensorial del ambiente es un factor importante y decisivo en la construcción y planeación de espacios para el aprendizaje en todos los niveles. Ambientes físicos que reduzcan los niveles de distracción, que promuevan áreas que disminuyan los estímulos, que ofrezcan una iluminación natural, una ventilación adecuada que evite la toxicidad del aire y la incomodidad del estudiante y que impacten favorablemente la motivación, el aprendizaje y el éxito de los estudiantes son hoy en día una necesidad que emerge paralelamente a la concientización de todos aquellos involucrados en el proceso educativo, sean maestros, arquitectos, ingenieros o diseñadores. Estudios neurobiológicos confirman que para obtener un adecuado desarrollo, nuestro cerebro necesita estar expuesto a experiencias que estimulen los sentidos3 ya que por medio de los sentidos recibimos información que nos relaciona con el medio ambiente. La memoria trabaja con estos estímulos a través de las experiencias que pueda generar nuestro entorno. Lograr diseñar un espacio donde no sólo exista un equilibrio sino se ejerciten y estimulen el sentido auditivo, gusto, olfato, vista y tacto, nos va a permitir entrar en una sintonía y diálogo directo con el aprendizaje significativo; un aprendizaje que se llevará a cabo en un espacio dónde la información y las experiencias de aprendizaje construirán imágenes permanentes y reales. Más adelante, en los sentidos y el aprendizaje, analizaremos más a fondo el impacto del espacio-ambiente en cada uno de los sentidos así como en el desarrollo cognitivo. Ciertamente, los espacios para el aprendizaje deben de prestar mejor atención a nuestras habilidades biológicas para que nuestro cerebro se desarrolle 3 Goleman, D. (2000) Working with Emotional Intelligence. Random House Publishing Group. New York, N.Y. 397 y crezca mejor. La luz, artificial y natural, el color, los olores, el micro-clima, las texturas y los sabores, son elementos indispensables a considerar cuando pensemos en procesos para almacenar y procesar información. Los muebles y los materiales también tienen que pertenecer a éste orden estético ya que sirven como instrumentos para la representación, expresión y comunicación de los procesos de aprendizaje. Los materiales deben exhibirse de tal forma que se promueva la exploración, la indagación y la experimentación. Los muebles deben de situarse en lugares que permitan el acceso a la circulación, que inviten a generar conversaciones y a crear conexiones sociales. Deben de tener como prioridad presentarnos un lugar cómodo y agradable, un lugar en el que podríamos vivir además de aprender.41 Para la filosofía Reggiana, los educandos tienen el derecho a desarrollarse y crecer en espacios bellos y agradables, donde la armonía y la estética convivan como componentes fundamentales para los procesos de aprendizaje y el desarrollo social. El ambiente debe de potencializar las habilidades de auto-organización y estrategias personales que cada uno posee, enriqueciéndose con los procesos y metodologías didácticas. Estos derechos pertenecen a estudiantes de todas las edades ya que el objetivo es el mismo: el desarrollo, el crecimiento y el aprendizaje. Los sentidos y el aprendizaje Al ser el contacto que todo ser humano tiene con el mundo exterior, los sentidos son de suma importancia en todos los procesos cognitivos. Mediante los sentidos, se capta la información y se logra la adquisición de conocimiento. Cuando los sentidos se conectan adecuadamente al cerebro, es entonces que podemos decir que se da el aprendizaje. (Figura 1). Los sentidos que se encuentran directamente conectados al cerebro mediante los nervios craneales son los sentidos de la vista, el gusto, el olfato y el oído. Figura 1. Los cinco sentidos y el cerebro. 4 DeViney, J. (2010) Inspiring spaces for young children. Gryphon House Lewisville N.C 398 A diferencia de los 4 sentidos previamente mencionados, el sentido del tacto pasa por la medula espinal antes de llegar al cerebro, y es el único sentido necesario para la supervivencia del ser humano. Las habilidades que nos otorgan nuestros sentidos se basan en la información que se transmite de cada uno de ellos al cerebro y en los aspectos fisiológicos que ayudan a los sentidos a adquirir dicha información. Para el Doctor Laurence D. Rosemblum5 , toda habilidad perceptiva tiene una explicación científica, y mientras los psicólogos han sabido por mucho tiempo que nuestro sistema sensorial puede integrar información sin que estemos conscientes de ello, nuevas investigaciones han arrojado que habilidades perceptuales completas están ocurriendo de esa forma. La vista El sentido de la vista es el sentido dominante por excelencia. La vista es un proceso que da sentido a lo que se ve. Es un conjunto de funciones complejas y aprendidas que involucran muchísimas habilidades. Estudios hechos por el doctor Thomas Politzer, presidente de la Asociación de Rehabilitación de Neuroptometría, demuestran que alrededor del 85% de nuestro aprendizaje, de nuestra percepción y de nuestras actividades son mediadas por el sentido de la visión, y que el propósito de éste proceso es el de alcanzar una respuesta cognitiva y motora apropiada. Así mismo, la estética que provee un ambiente tiene una relación muy cercana con el proceso creativo del individuo. Al proveer ambientes que estimulen favorablemente el sentido de la vista mediante la estética y la iluminación, se favorecerá el proceso creativo e innovador de un individuo6. 2 El oído El sentido del oído nos ayuda a aprender los unos de los otros mediante la comunicación. Una acústica adecuada en el salón de clases evita que los alumnos sufran de falta de atención y de dispersión. El ruido excesivo dentro de un salón de clases es un factor de estrés que llega a aumentar la inseguridad y que crea mucha irritación en los individuos. Los ruidos desagradables crean sensaciones desagradables. A nivel cerebral, el ruido alerta al sistema nervioso mandando una señal a la glándula suprarrenal para que ésta segregue una hormona o neurotransmisor llamado adrenalina7 . Esta hormona ayuda al cuerpo a prepararse a enfrentar una situación peligrosa, aumentando la presión de la sangre y contrayendo los vasos sanguíneos para así evitar que se produzcan hemorragias de sangre severas en caso de heridas graves. El ritmo cardiaco se eleva a la vez que los niveles de concentración disminuyen. 5 Rosemblum L.D. (2010). See What I m Saying: The extraordinary Powers of Our Five Senses Norton Press N.Y 6 Jensen, E. (2006) 7 Discoveries from Brain Research. Corwin Press. Thousand Oaks, CA 7 Jensen, E. (2006) 7 Discoveries from Brain Research. Corwin Press, Thousand Oaks. CA 399 A menor concentración de ruido, mayor equilibrio físico y mental. Al proveer la construcción del conocimiento dentro de ambientes de acústica favorable, se promoverá un entorno de aprendizaje positivo. El tacto El sentido del tacto es el primer sentido que se desarrolla en la etapa embrionaria de todo ser humano y es la primera forma en la que los infantes se relacionan con su entorno . Información de todo tipo entra a nuestro cuerpo y a nuestro sistema nervioso mediante el tacto. En el contexto de la neurobiología, el sentido del tacto se define como “aquel sentido especial por el cual el contacto de un cuerpo con el organismo es percibido por la mente consciente.” (Gardner). Mediante el sentido del tacto, toda persona aprenderá durante el curso de su vida. Siendo tan importante para el desarrollo del conocimiento, proveer espacios de que inviten al desenvolvimiento táctil y kinestésico aportará significativamente al desarrollo del aprendizaje. El gusto y el olfato Hablamos en conjunto de los sentidos del gusto y del olfato ya que están estrechamente relacionados entre sí no solo por las papilas gustativas y el por nervio olfatorio que transmiten información al cerebro, sino que también por el efecto que producen en la retención de información y la memoria. (Figura 2). Al combinar los sentidos del gusto y del olfato, el cerebro logra identificar sabores y olores. De las memorias más poderosas en el ser humano, la olfativa ocupa el primer lugar. El cerebro asocia los olores y los sabores con experiencias previas que pueden ser tanto agradables como desagradables. Al planear espacios educativos, debemos contemplar una buena calidad de aire. Figura 2. Sistemas olfativo y gustativo. 400 Un estudio hecho por el laboratorio nacional Lawrence Berkeley en 150 salones de clase en el estado de California comprobó mediante la recolección de datos en un lapso de dos años, que una ventilación adecuada reduce los porcentaje de ausencia escolar en 3.4% . Así mismo, una buena ventilación reduce la concentración de olores que pueden llegar a perjudicar los niveles de concentración requeridos para un buen desarrollo del proceso de enseñanza aprendizaje en los alumnos. Conclusiones La planeación de espacios educativos está estrechamente vinculada al mejoramiento del aprovechamiento escolar, al desarrollo de capacidades y habilidades de los estudiantes y a los procesos de integración de los sentidos y de la información de manera efectiva y creativa. Basándonos en la experiencia educativa y en el conocimiento y aplicación de los principios de la filosofía Reggio Emilia, pretendemos en este trabajo compartir los modelos educativos Reggianos aplicados a los sentidos, a los espacios, a la importancia de la estética, la organización, la comunicación e interacción del entorno académico, al efecto que tienen en el cerebro y el proceso de aprendizaje, y a la importancia que tienen estos al ser llamados el tercer maestro. Al compartir estos modelos, intentamos establecer la importancia de la colaboración de maestros, arquitectos y diseñadores en la construcción de espacios educativos, de todos los niveles, que ayuden al desarrollo integral y al aprendizaje significativo de los alumnos de todas las edades. Así mismo, al reconocer que los estímulos que reciben nuestros cinco sentidos impactan al organismo y a los procesos mentales, podemos tomar en consideración que la construcción de espacios que promueven el equilibrio entre la estética y los ambientes, que proveen áreas que propicien los diferentes tipos de adquisición de conocimientos y que mantienen un entorno sano y seguro para el proceso educativo impactará de manera significativa el proceso educativo en el ser humano. Referencias: [1] Bailey, B. (2007). Conscious Discipline. Loving guidance press, Oviedo, Florida. [2] Bloomfield, M. (1993) Química de los organismos vivos, (2ª. Edición) Editorial Limusa México. [3] Burri, A., (2002). Children, Art, Artisits. Reggio Emilia Publishers, Italia. [4] DeViney, J. (2010) Inspiring spaces for young children. Gryphon House, Lewisville N.C. [5] Ceppi, G., Zini, M. (1998). Children, spaces, relations. Graffiche Maffei, Carvagio, Italia. [6] Gandini, L., Hill, L., Cadwell, L., Schwall, C. (2005). In the Spirit of the Studio. Graffiche Maffei, Carvagio, Italia. 401 [7] Gardner, Howard (1993). Multiple Intelligences: The Theory in Practice. Basic books, New York, NY. [8] Goleman, D. (2000) Working with Emotional Intelligence. Random House Publishing Group. New York, N.Y. [9] Rinaldi, C. (2006). En diálogo con Reggio Emilia. Routledge, Londres. [10]Roca, N. (2010) Los cinco sentidos. Editorial Edebe, Barcelona. [11]Rosemblum L.D. (2010). See What I’m Saying: The Extraordinary Powers of Our Five Senses. Norton Press N.Y. [12]Vecchi, V., (2010). Art and Creativity in Reggio Emilia. Exploring the role and protential of ateliers in early childhood education. Routledge, London. [13]Machotka, P. Understanding aesthetic and creative processes: The complementarity of idiographic and nomothetic data. Published February 2012 by PsycArticles. [14]Rowe, A. Creative Intelligence: Discovering the Innovative Potential in Ourselves and Others. Published March 12th 2004 by FT Press [15]Mendel, M.J., Eliseeva, E.A., Davies, M.M., Spears, M., Lobsheid A., Fisk, W.J. and Apte, G. Association of classroom ventilation with reduced illness absence: a prospective study in California elementary schools Published October 18 by Redcube [16]http://www.brainline.org/content/2008/11/vision-our-dominant-sense_pageall.html (2008) [17]Thomas Politzer, O.D. Former NORA President, Neuro-Optometric Rehabilitation Association Vision Is Our Dominant Sense. Consultado el 4 de Octubre de 2014. [18]http://www.monitoruniversitario.com.mx/investigaciones/mala-acustica-afecta-aprendizaje-en-salones-de-clases-egresados-del-ipn/#sthash.CPRrLRqq.dpuf (2014) [19]Mala acústica afecta aprendizaje en salones de clases. Consultado el 5 de Octubre de [20]http://infed.org/mobi/kurt-lewin-groups-experiential-learning-and-action-research/ (1995) [21]Kurt Lewin: groups, experiential learning and action research. Consultado el 2 de Octubre de 2014. 402 El impacto de ofrecer materias a distancia en tiempo real Martha Elena Núñez López Maestría en Diseño Industrial e Innovación de Productos, Maestría en Ingeniería y Administración de la Construcción. Tecnológico de Monterrey, Campus Puebla. Disciplina de Investigación: Ciencias y Artes para el Diseño. [email protected] Resumen Cursar una materia a distancia en tiempo real permite aprovechar el valioso recurso de la diversidad cultural mediante profesores extranjeros que son líderes en su área del conocimiento, a la vez que fomenta la práctica de diversas habilidades en el alumno, con la tecnología como herramienta de aprendizaje. El artículo comienza con los antecedentes de los cursos en línea y a distancia, así como con una revisión bibliográfica de expertos en los temas de aprendizaje vía remota y educación móvil. A continuación se presentan casos de éxito en la impartición de cursos a distancia en tiempo real en el área de Diseño Industrial. Se analiza la forma en que cursos impartidos por líderes académicos extranjeros y con experiencia internacional, apoyándose en tecnologías de comunicación, pueden ser un valioso complemento de las clases presenciales y de las clases en línea, al ofrecer a los alumnos una perspectiva global dentro de su formación. Se presentan además, los resultados de una segunda aplicación del instrumento, en una clase del segundo tercio del plan de estudios. Esta información puede brindar elementos valiosos a considerar con el fin de fomentar la impartición de clases en este esquema. Palabras Clave: Educación a distancia, diseño, comunicación, profesores extranjeros Introducción En la actualidad podemos vivir las nuevas tecnologías a nuestro alrededor casi en cualquier ámbito en que nos encontremos. Estamos inmersos en la era de las tecnologías y las telecomunicaciones. En nuestro país ya se han alcanzado 45,100,000 usuarios de internet, lo que representa un 40% de la población total del país. (COFETEL, 2012, con base en INEGI / Estudios AMIPCI 2005-2012). Los cursos que en este artículo se analizan, se impartieron a distancia en tiempo real, con el apoyo de tecnologías de comunicación. No se clasifican 403 exactamente como materias impartidas en línea, dado que en todo momento existe una interacción en tiempo real entre alumnos y profesor. Sin embargo como antecedente empezaremos hablando de los cursos en línea en el TEC y continuaremos con una revisión de expertos en tema. El Programa de Apoyo a los Campus del Tecnológico de Monterrey (PACSI) fue creado en 1989 con el fin de ofrecer a los alumnos de profesional una ventaja mediante el aprendizaje a distancia. Apoyados en recursos tecnológicos didácticos y de última generación se ofrecen materias que permiten desafiar las barreras de espacio y tiempo. La Universidad Tec Virtual tiene como visión “Impulsar el potencial de las personas a través de ambientes digitales de aprendizaje”. Entre sus objetivos se destaca para este artículo, el de “....proporcionar a todos los alumnos los medios para desarrollar las habilidades de aprendizaje en medios virtuales que los hagan más competitivos en el mundo actual.” Tec Virtual (Julio 14 de 2014). Extraído de: http://mysitec.wordpress.com/universidad-tec-virtual/. Cursar una materia en línea fomenta la práctica de diversas habilidades y compromete al alumno a ser responsable y autónomo de su propio aprendizaje. Además se accede al recurso de la diversidad cultural a través de profesores extranjeros reconocidos, que la mayoría de las veces no estaría disponible localmente para una clase presencial. Cabe señalar que con el nuevo modelo Tec 21, una de las competencias que se fomentarán es precisamente la visión internacional/multicultural. Y además ofrece la oportunidad de aprovechar la tecnología como herramienta de aprendizaje que lleva al alumno a experimentar nuevas formas de aprender. Cabe señalar que en los cursos en línea el tutor del curso funge como intermediario, canalizando a la instancia correspondiente la duda o situación. En el curso a distancia en tiempo real la comunicación es directa con el profesor, y apoyado en un asistente que se encuentra presencialmente en el aula. En estudios realizados para conocer las opiniones de profesores acerca de los ambientes de aprendizaje en línea, se han obtenido opiniones favorables principalmente porque los profesores desean estar actualizados sobre las herramientas de enseñanza más nuevas (Myers, 2004). Cada vez más profesores se suman este esfuerzo, buscando alinearse a los nuevos modelos educativos. A continuación se prosigue con una breve revisión bibliográfica de expertos en el tema, en torno a las nuevas tendencias en educación a distancia, educación móvil y tecnologías de aprendizaje. 404 George Siemens explora cómo han cambiado el contexto y las características del conocimiento. En su manual de las tecnologías emergentes para el aprendizaje, George resalta que no debemos enseñar aquello que los alumnos saben hacer por ellos mismos, debemos centrarnos en aspectos como la evaluación de la información, el razonamiento y la creatividad. (Siemens, 2009). En la carrera de Diseño Industrial, estos aspectos son muy relevantes porque es una carrera que busca formar profesionistas dedicados a la solución creativa e innovadora de productos. Según Francesc Pedró, a pesar de que los alumnos que hoy tenemos han nacido bajo la denominación de nativos digitales, siguen prefiriendo la interacción cara a cara. (Pedró, 2010). Pedró muestra también los resultados de encuestas acerca de las formas preferidas para aprender, un 32% contestó que usando computadoras, un 55% contestó que trabajando en grupos. Solo un 8% contestó que prefiere aprender copiando, lo cual contrasta con los resultados a la pregunta sobre cuales son las actividades típicas que hacen en el aula: 52% contestó que copiando del pizarrón o libro y solo un 16% contestó que mediante computadoras y 22% en grupos. Jordi Adell, enfatiza la importancia de innovar en la docencia para nativos e inmigrantes digitales evitando los maximalismos en cuanto a integración de las tecnologías de información. En su opinión, la tendencia es una educación más móvil, más social y más colaborativa. Él explica que el sentido aprender es sinónimo de crear y compartir formando parte de redes educativas. Enseñanza universitaria en la universidad digital. (Julio 19 de 2014) Extraído de: http://elbonia.cent.uji.es/jordi/2014/07/19/ensenanza-universitaria-en-la-universidad-digital/ Las materias a distancia en tiempo real entran dentro de esta tendencia de educación móvil y a la vez permiten una buena colaboración e interacción social, al ser en tiempo real. Para los directores de departamento como responsables de elegir profesor para cada materia, la medición del impacto de ofrecer materias a distancia en tiempo real a los alumnos, podría ser de gran utilidad. Los resultados y experiencias de otros colegas pueden dar elementos valiosos para crear condiciones y generar acciones para fomentarlas en sus departamentos. Como hemos visto, en estas nuevas generaciones los alumnos están más abiertos a tomar clases a distancia pero siguen valorando el acompañamiento y la atención personalizada que se logra más efectivamente si la clase es impartida en tiempo real, aunque sea a distancia. Dado lo anterior se establece como objetivo del presente trabajo exponer y compartir el impacto de ofrecer materias a distancia en tiempo real. 405 Estrategia Se inicia con una descripción general de los cursos de Biodiseño y Teorías Avanzadas del Diseño, las cuales se han impartido en la modalidad a distancia en tiempo real. En seguida se describen los instrumentos que permitieron establecer parámetros de comparación en la evolución de habilidades y competencias en los alumnos. Finalmente se compartirán los resultados y las conclusiones obtenidos. Los cursos El curso de Biodiseño impartido desde el 2007 en el noveno semestre del plan de estudios de la carrera de Diseño Industrial (LDI) tiene la finalidad de que los alumnos integren los conceptos biológicos en el desarrollo de productos, bajo una perspectiva ecológica y sostenible. Como resultado del aprendizaje, se espera que los alumnos comprendan el funcionamiento básico de la naturaleza mediante dinámicas y ejercicios de investigación y práctica. La técnica didáctica sugerida en el programa analítico de esta materia es el Método de Casos. En el Anexo A se encuentra información sobre el objetivo general de las materias estudiadas. Desde Agosto 2012, la materia se empezó a ofrecer en formato a distancia en tiempo real en Campus Puebla. El campus ofrece materias en línea pero esta modalidad de materia a distancia en tiempo real no se había ofrecido anteriormente. La profesora que imparte la materia es líder académica y destacó por sus excelentes ECOAS (la evaluación que realizan los alumnos a sus profesores al final del semestre). Desde hace siete años radica en su país de origen (Japón) y aceptó la invitación a impartir clases en este formato. Se buscó un horario adecuado tanto para ella como para los alumnos aquí en México. Cabe señalar, que la profesora fue homenajeada en el 70 aniversario del TEC por estar en el 5% de los profesores mejor evaluados en la historia de la institución. Es un excelente recurso humano al que nuestros alumnos difícilmente tendrían acceso de no haberse ofrecido la materia en este formato de clase a distancia en tiempo real. Después de cuatro semestres consecutivos, podemos decir que la impartición de esta materia en formato a distancia en tiempo real, es un caso de éxito pues ha mantenido excelentes evaluaciones y comentarios por parte de los alumnos, incluso posicionándose en el primer lugar del Departamento de Diseño Industrial, junto con la materia de Teorías Avanzadas del Diseño ofrecida dos periodos en este mismo formato. 406 Es importante señalar que la profesora ya contaba con experiencia previa impartiendo clases a distancia, aunque no en tiempo real. Dada la importancia que recae en los medios electrónicos, los profesores que imparten materias en este formato deben cuidar muy bien la logística del curso y tener competencias en el uso de las tecnologías. (Darabi, 2006). En un ambiente de enseñanza a distancia, el profesor debe tener no solamente muy buenas habilidades docentes sino también muy buenas habilidades en el manejo de la tecnología para mantener una buena logística de clase. El curso de Teorías Avanzadas del Diseño, es impartido desde 2007 y también pertenece al noveno semestre de la carrera de Diseño Industrial. Esta materia se ofreció durante dos periodos en formato de clase a distancia en tiempo real: Enero-Mayo 2014 y verano de 2014, debido principalmente a que la profesora que la impartía desde Enero 2012, salió fuera del país para trabajar en sus estudios de doctorado. Cabe señalar que la profesora es también extranjera (polaca) y contaba con excelentes evaluaciones y comentarios por parte de sus alumnos y con un reconocimiento por su labor docente por parte de los graduandos. Todo esto antes de impartir la clase en formato a distancia en tiempo real. En esta materia se analizan las teorías de diseño que le permitirán al alumno modificar su visión actual de la profesión y en consecuencia definir una postura a través del entendimiento de dichas teorías y del ejercicio del diseño. Es una clase principalmente teórica, a diferencia de la materia de Biodiseño, donde la teoría se combina con la práctica al desarrollar los alumnos un proyecto durante el semestre. Durante el verano 2014 se aprovechó que se estaba ofreciendo la materia de Teorías Avanzadas del Diseño en el formato a distancia en tiempo real para aplicar la encuesta piloto, la cual sirvió de base para la aplicación en el semestre Agosto-Diciembre a los alumnos de Biodiseño, así como a los exalumnos que tomaron la clase en esta modalidad los semestres anteriores. Descripción del instrumento para medir el impacto de las clases a distancia en tiempo real Para llevar a cabo un análisis comparativo del impacto en la formación de alumnos de diseño industrial que llevan una clase a distancia en tiempo real, el instrumento de medición fue la aplicación de encuestas. Se aplicaron a alumnos que cursaron la materia en el semestre Agosto – Diciembre 2014 y también a alumnos que cursaron materias a distancia en tiempo real en el periodo de verano 2014. En el Anexo B se puede revisar el formato seguido para la aplicación de la encuesta. 407 Los objetivos planteados fueron los siguientes: Revisar (medir) el efecto del aprendizaje a distancia en la formación profesional de alumnos de diseño industrial en comparación con el aprendizaje en línea y presencial. Identificar la percepción que tiene los LDI de las clases a distancia en tiempo real. Estos instrumentos se aplicaron a estudiantes que cursaron las materias de Biodiseño y Teorías Avanzadas del Diseño los últimos semestres. Resultados En el Anexo C se muestra un resumen de los datos estadísticos socio-demográficos de los alumnos del curso de Biodiseño en el semestre AgostoDiciembre 2014. Se aprecia que de un total de 11 alumnos inscritos en la clase, las edades varían entre 22 y 24 años de edad, el mayor porcentaje es de 23 años. En cuanto al lugar de nacimiento la mayor parte de la población está en el estado de Puebla y el resto en otros Estados de México, solo uno es extranjero (Estados Unidos). En cuanto al estado civil, la mayoría son solteros, solo hubo un casado. Relativo al género, se encontró que el 64% son mujeres y el 36% son hombres. El semestre que cursan los alumnos durante el estudio es en su mayoría noveno. En relación a si actualmente trabajan, 7 de ellos sí lo hace, y 4 se dedican de lleno al estudio. La gran mayoría ha llevado materias en línea alguna vez, y para un 27% de ellos esta es su segunda materia cursada a distancia en tiempo real. Como paso preliminar se aplicó una encuesta piloto durante el verano 2014, a los alumnos que cursaban a distancia en tiempo real la materia de Teorías Avanzadas del Diseño. Con esto se obtuvo retroalimentación valiosa para rediseñar la encuesta. Una vez editada, se aplicó en el mes de Septiembre 2014 a los alumnos cursando la materia de Biodiseño. En el Anexo B se encuentra el formato de la encuesta aplicada, la cual contenía 5 preguntas cerradas que arrojan los siguientes datos cuantitativos: El 100% considera que la profesora que les imparte la clase a distancia en tiempo real, es inspiradora. 91% habría elegido llevar esta materia a distancia en tiempo real aún si hubiera tenido la opción de cursarla de forma presencial o en línea. 82% recomendaría a otros compañeros llevar una materia a distancia en tiempo real. 82% considera que ha sido de mucha utilidad en su formación profesional estar llevando esa materia en este formato, a distancia en tiempo real. La encuesta también incluía una sección cualitativa, con espacio para comentarios. Acerca de los conocimientos y habilidades que están adquiriendo al cursar esta materia a distancia en tiempo real, un alumno comenta 408 que está aprendiendo a ser disciplinado y a organizar mejor su tiempo. Otro comenta que le ha dado la oportunidad de tener conocimiento teórico del tema aprendiendo mediante las tareas prácticas. Otro comenta que está aprendiendo otras plataformas para videoconferencias. Otro más menciona que es importante aprender de maneras diversas y que esta materia le ha permitido desarrollar competencias que le servirán en el trabajo. Sobre las razones para recomendar o no a otros alumnos cursar una clase a distancia en tiempo real, la mayoría coincide en que vale la pena esta modalidad de aprendizaje por tener al alcance a un profesor experto en el tema y amante del tema. De las 2 personas que respondieron que no recomendarían esta modalidad, una recalca que esta materia en particular sí lo recomienda, pero que con otro profesor de otra área tuvo una mala experiencia. En los comentarios adicionales se menciona: 1.- Que la profesora es excelente, 2.- Que a pesar de las limitantes de la distancia la clase está muy completa. 3.- Que es muy inspiradora como profesora. 4.- Que tanto los temas como la maestra son atractivos, pero que no le gusta que el contenido sea muy teórico. Con estos resultados podemos decir que las materias a distancia en tiempo real son un excelente complemento de las materias presenciales y en línea. Una de sus fortalezas es que permite acercar a los alumnos a un líder de talla internacional con un alto grado de interacción profesor-alumno, y ofreciendo una perspectiva global, una visión externa de su profesión. Por otra parte, no todos los alumnos tienen la posibilidad económica de estudiar de intercambio en otro país o de realizar una estancia en el extranjero, una gran ventaja que esta modalidad posee, es que ofrece al alumno una alternativa: formar parte de un grupo donde se vive esta experiencia multicultural. Además, en casos especiales (situación de salud, por ejemplo) el profesor puede autorizar que el alumno tome algunas clases desde otro lugar que no sea el aula de videoconferencias. Y por último, esta modalidad tiene como ventaja adicional que todas las clases quedan grabadas en blackboard, por lo que el alumno puede volver a escuchar cualquier sesión nuevamente, en cualquier lugar. Conclusiones El grupo de alumnos observados para medir el impacto de tomar clases a distancia en tiempo real cursan la materia de Biodiseño en el semestre Agosto-Diciembre de 2014 y estudian la carrera de Diseño Industrial. 409 La impartición de esta clase en formato a distancia en tiempo real ha sido hasta el momento un caso de éxito manteniendo excelentes evaluaciones y comentarios por parte de los alumnos. Parte del éxito es que la profesora ya contaba con excelentes evaluaciones antes de la impartición de la clase en este formato. Además la profesora ya contaba con experiencia impartiendo una clase a distancia (sin ser en tiempo real). Es importante considerar que el profesor que se invite a impartir una clase en este formato, debe tener no solamente muy buenas habilidades docentes sino también experiencia en el manejo de la tecnología para mantener una buena logística de clase. Las materias a distancia en tiempo real son un complemento de las presenciales y las materias en línea, pues fomentan el desarrollo de habilidades valiosas para el profesionista que se desempeñará en un ambiente global. Es importante reconocer que aunque en estas nuevas generaciones los alumnos están más abiertos a tomar clases a distancia, siguen valorando el acompañamiento y la atención personalizada, en este sentido se sigue teniendo como reto mejorar la tecnología en el aula para lograr una mejor interacción profesor-alumno. El trabajo a futuro implicará una búsqueda de líderes académicos extranjeros con excelentes credenciales y habilidades docentes que puedan impartir clases en este formato y así complementar la formación presencial y en línea de los alumnos. Se deben seleccionar cuidadosamente las materias, buscando que los alumnos no lleven más de una materia en este formato durante un mismo semestre, y no más de tres a lo largo de su carrera. Así mismo se deben tomar acciones que permitan seguir midiendo el impacto de cursar materias en este formato y retroalimentar continuamente los resultados mediante la aplicación de los mismos instrumentos de medición para identificar la eficiencia obtenida. Referencias [1] COFETEL, (2012), con base en INEGI / Estudios AMIPCI (2005-2012). [2] Myers, C. B., Bennett, D., Brown, G. & Henderson, T. (2004). Emerging Online Learning Environments and Student Learning: An Analysis of Faculty Perceptions. Educational Technology & Society [3] Siemens, (2009), Handbook of Emerging Technologies for Learning. [4] Darabi, A Aubteen; Sikorski, Eric G; Harvey, Robert. (2006) Validated Competencies for Distance Teaching. PRISMA (Publicaciones y Revistas Sociales y Humanísticas). [5] Pedró, Francesc, (Agosto 11 de 2014), The new millennium learners. Extraído de http:// issuu.com/ite_europa/docs/francesc_pedro_ue_presidency/1?e=0 410 [6] Universidad Tec Virtual, (Julio 25 de 2014), Introducción a las Tecnologías de Información. Extraído de: http://mysitec.wordpress.com/universidad-tec-virtual/ [7] Planes de estudio, sintético en español, (Julio 14 de 2014) Extraído de: https://serviciosva.itesm.mx/PlanesEstudio/Consultas/Materias/ConsultaMaterias.aspx?Form=Consultar_ Materias_Sintetico&ClaveMateria=DL3003&Idioma=ESP [8] SNC Portal Informativo (Julio 20 de 2014). Presentan el nuevo Modelo Educativo Tec 21. Extraído de: http://www.itesm.mx/wps/wcm/connect/snc/portal+informativo/por+tema/ educacion/ modelotec21_18abr13 [9] Adell, Jordi. Enseñanza universitaria en la universidad digital. (Julio 19 de 2014) Extraído de: http://elbonia.cent.uji.es/jordi/2014/07/19/ensenanza-universitaria-en-la-universidad-digital/ Anexo A: Objetivo General de las Materias Estudiadas 1.Biodiseño. El alumno será capaz de: Comprender y aplicar los principios básicos de la vida (biología) para integrarlos al desarrollo de productos. Comprender las metodologías de la biomímica, biomimética y biónica, casos de estudio de productos con perspectiva ecológica y sostenible. Reflexionar y asumir la responsabilidad moral y ética al proponer la creación de productos sostenibles. 2. Teorías Avanzadas del Diseño. El alumno será capaz de: Comprender las teorías avanzadas de diseño que le permitirán modificar su visión actual del diseño y en consecuencia definir una postura, a través del entendimiento de dichas teorías, el ejercicio del diseño de manera sostenible. Anexo B: Formato de Encuesta. 1.- ¿Cómo calificas la utilidad de estar llevando una materia a distancia en tiempo real en tu formación profesional? Poca 12345Mucha 2.- ¿Llevar esta clase te está permitiendo adquirir conocimientos y/o habilidades nuevas? Totalmente en desacuerdo 12345To t a l mente de acuerdo 411 3.-¿Cuáles? (conocimientos/habilidades) _________________________________________________________ _________________________________________________________ 5.- Las materias a distancia en tiempo real permiten que un líder de talla internacional imparta clase a pesar de la distancia. De haber tenido las siguientes 3 opciones en inscripciones, ¿Cuál habrías elegido? 1.-Llevar esta clase como la estoy llevando ahorita, a distancia y en tiempo real. 2.-Llevar esta clase en formato presencial, con un profesor local. 3.-Llevar esta clase en línea a través de blackboard, (sin interacción en tiempo real). ¿Porqué? _________________________________________________ 6.- ¿Recomendarías a otros alumnos cursar una clase a distancia en tiempo real? SI _________ NO _________ ¿Por qué?________________________________________________________ _______________ 7.- ¿Consideras que tu profesor está siendo inspirador? SI _________ NO _______ Anexo C: Estadísticas socio-demográficas observadas en el curso de Biodiseño(Agosto-Diciembre2014) Edad Entre 22 y 24 años 412 Lugar de Nacimiento Estado Civil Género Empleo La mayoría de Puebla y otros estados de México. Uno de Estados Unidos 10 Solteros 1 Casado 7 Mujeres 4 Hombres 7 sí trabajan 4 no trabajan Cuatro estaciones, Didáctica para el adulto mayor Jennyfer Alejandra Castellanos Navarrete Universidad de Nariño, Colombia [email protected] Resumen El Alzheimer es una enfermedad neurodegenerativa que se manifiesta con el deterioro cognitivo y trastornos de la conducta. Las principales manifestaciones son la pérdida progresiva de la memoria y la capacidad mental que dificultan el desempeño de las actividades cotidianas y por ende deterioran la calidad de vida del adulto mayor. La comunicación que se presenta es el resultado del proyecto de investigación denominado “Cuatro Estaciones, didáctica para el adulto mayor” cuyo objetivo es ser una herramienta que permite ejercitar las capacidades cognitivas del adulto mayor integrando a su familia y/o circulo de convivencia, mejorando su salud y calidad de vida. Mediante las herramientas estéticas y comunicacionales que brinda el diseño gráfico “Cuatro Estaciones” es un proyecto que mezcla varias disciplinas como las ciencias de la salud, el diseño industrial, el trabajo social entre otras, permitiendo de esta forma generar impacto en un amplio grupo humano. El resultado de este proyecto consiste en un artefacto didáctico compuesto por cuatro unidades básicas y una unidad multimedia que pueden ser empleados por el adulto mayor y su familia así como por profesionales de la salud aportando de esta manera en devolver la importancia del rol de los mayores en nuestra sociedad. Palabras clave: Inclusión, adulto mayor, familia, Alzheimer, didáctica, diseño. Abstract Alzheimer’s is a neurodegenerative disease that manifests with cognitive impairment and behavioral disorders. The main manifestations are progressive loss of memory and mental capacity that hinder the performance of daily activities and thus impair the quality of life of the elderly. The communication I present results from a research project called “Four Seasons, teaching for the elderly” which aims to be a tool to exercise the cognitive abilities of the elderly integrating your family and / or circle of coexistence improving their health and quality of life. 413 Through the aesthetic and communication tools that provides graphic design “Four Seasons” is a project that combines several disciplines such as health sciences, industrial design, social work, among others, thus allowing an impact on a broad group of people. The result of this project is a teaching device consists of four basic units and a multimedia unit that can be used by the elderly and their families as well as health professionals thus contributing to return the important role of older in our society. Keywords: Inclusion, elderly, family, Alzheimer, didactic. Introducción Cuando la mayor parte del paisaje era verde y el aire era más puro, para nuestros indígenas las personas mayores eran las más sabias, por lo tanto las más valoradas dentro de la comunidad. Hoy en día son pocos los círculos sociales en los cuales los adultos mayores siguen siendo importantes. Lamentablemente un porcentaje considerable de ellos son vulnerables a sufrir de Alzheimer una enfermedad que deteriora rápidamente su calidad de vida, afectando su salud física, emocional y el bienestar de sus familias. Cuatro Estaciones es un proyecto que nace de la necesidad de contribuir a una población que carece de atención y que sin lugar a dudas ha aportado desde su ser y conocimiento al crecimiento de la sociedad. El acompañamiento de la familia es imprescindible para la recuperación o estabilidad emocional de un enfermo de Alzheimer, sin embargo; las familias pueden quebrantarse ante la presencia de tantas responsabilidades y el sentimiento abrumador de no saber con certeza como el adulto mayor con Alzheimer puede evolucionar. Para esto es importante fortalecer las relaciones personales en la familia y el ambiente cálido que permita mayor comodidad al enfermo y por ende a sus familiares. (Fontanillo, 2007). Para poder generar un resultado consiente y funcional fue imprescindible entender la enfermedad del Alzheimer desde su concepto clínico, así como comprender el efecto que causa en las familias o cuidadores de este tipo de pacientes, los métodos de prevención o retraso de la enfermedad, el papel e impacto social de los adultos mayores y los posibles caminos mediante los cuales el diseño podría actuar. Para ello y de acuerdo al Desing Thinking, metodología de diseño que permite llegar a productos innovadores a través de la inspiración, ideación y desarrollo, se implemento la metodología denominada “Cuatro Estaciones” en donde de acuerdo a cada fase se generaron procesos de investigación y construcción de resultados. Durante la primera estación, verano (tiempo que invita al aire libre y la alegría) se realizo la búsqueda de necesidades: comprender y observar. Otoño (tiempo 414 de cosechas) fue la fase de definir, organizar y preparar todo para el invierno (tiempo de profundización), tercera estación en la cual se abordo el diseño inicial de las piezas graficas. Primavera (tiempo de nacer y florecer) se convirtió en el momento de aplicar el proyecto y los prototipos al grupo de estudio con el fin de analizar su funcionalidad. Estas metodologías permiten que durante el proceso exista flexibilidad; es decir, si las deducciones muestran que es necesario devolverse a una de las etapas, es permitido realizar ajustes hasta encontrar el camino ideal para generar resultados consientes, originales y responsables con los objetivos planteados. Con el propósito de emplear la metodología de manera funcional y adquirir los conocimientos necesarios para comprender cada fase, se contó con un equipo multidisciplinar que aporto desde su área de acción ideas y conceptos, tales como: médicos, sociólogos, psicólogos, terapeutas, entre otros profesionales. El aporte de este grupo permitió entender varios factores que conllevan al abandono y perdida de respeto hacia la vida de los adultos mayores. Gracias a situaciones como la pérdida de algunas de sus capacidades a causa de una enfermedad, se asocia su vida con dependencia e invalidez. En nuestra sociedad prima el papel del joven, de lo productivo y la capacidad de trabajo desaparece con la jubilación, sumando un nuevo aspecto negativo a la percepción social del adulto mayor, tal y como afirma Marín (2003: 32) Otro punto de discusión es el de considerar a los mayores como una carga insostenible para la economía del Estado, por la gran cantidad de gastos que ocasionan (prestaciones sanitarias, pensiones, etc.) Estas circunstancias suele llevar a las familias a mediadas extremas, como el abandono total, la mendicidad, la desnutrición, entre otras a las que son sometidos los adultos mayores, por el bajo ingreso per capital promedio de las familias en especial al sur de Colombia en San Juan de Pasto lugar donde se desarrolló el presente estudio. A partir de estos factores el proyecto se denomina “Cuatro Estaciones”, en primera instancia refleja las etapas de la vida de los seres humanos (niñez, adolescencia, adultez y vejez) que son quienes pueden interactuar con el material didáctico y se pueden representar con cada una de las estaciones del año (primavera, verano, otoño, invierno). Por otra parte el nombre hace alusión a las cuatro fases en las que está organizado el material didáctico de la maleta. 415 Figura 1. Logotipo Cuatro Estaciones. De acuerdo a la metodología de diseño y a la información recolectada se hizo necesaria la aplicación de talleres creativos para evaluar la pertinencia del material didáctico propuesto. Los talleres se aplicaron en diferentes grupos para determinar si las características o circunstancias sociales pueden inferir en el propósito del material. Para ello se vincularon instituciones y familias con adultos mayores que presentan diferentes etapas de Alzheimer y adultos mayores con olvidos producto de su edad. La Institución Amparo San José fue de gran apoyo para testear el material e interactuar con el grupo objetivo. Con abuelitos y abuelitas de diversos niveles sociales y características físicas y mentales se ejecutaron sesiones de actividades cognitivas con el material propuesto. De acuerdo a los resultados obtenidos y de la mano de la metodología de diseño, fue necesario regresar a etapas anteriores para ajustar las características gráficas y volver a sondear las nuevas propuestas. Figura 2. Taller “Unidad Otoño” Asilo de ancianos Amparo San José. 416 Figura 3. Taller “Unidad Primavera” Asilo de ancianos Amparo San José. Se denominaron talleres de creación porque al interactuar con esta población se lograron sumar sus opiniones y sus experiencias de vida a la inspiración de nuevas actividades que surgieron justamente de lo que ellos querían y necesitaban. Por otra parte los niños, adolescentes, familias y personal del área de la salud brindaron a este proyecto herramientas para que la solución fuera funcional desde sus componentes gráficos y comunicacionales. Los poderes curativos del juego son empleados de diversa formas, los terapeutas suelen emplearlos para mejorar la comunicación y liberar miedos, pensamiento y sentimiento se convierte según Landreth (2002) en una forma didáctica del lenguaje. La terapia lúdica también puede ser utilizada para promover el desarrollo cognitivo y ofrecer una visión y resolución de conflictos internos o pensamientos disfuncionales (O’Connor & Schaefer, 1983). Cuatro estaciones es un proyecto enfocado esencialmente a la memoria del adulto mayor; sin embargo, al ser un material que permite la integración grupal brinda la oportunidad a todas las personas que interactúen de ejercitar su memoria y prevenir un deterioro temprano de esta capacidad. Mediante una maleta didáctica compuesta por cuatro unidades se plantean actividades enfocadas a diversas funciones del cerebro. Cada estación cuenta con un tipo de fichas diferentes para realizar actividades cognitivas como la comunicación verbal, oral y escrita, la ubicación espacial, la denominación de objeto, el orden correcto de las palabras, secuencias, entre otras actividades de la vida cotidiana. 417 Figura 4. Material didáctico, maleta Cuatro Estaciones. La tendencia a favor de una vejez activa procura que el anciano conserve su independencia, su libertad de acción y su iniciativa, de manera que sea capaz de elegir el mayor número de opciones en su vida, tal y como afirma Zavala (2006: 55) En la medida que el adulto mayor sea más activo podrá sentir mayor vitalidad física y mental evitando contraer o empeorar las enfermedades mentales, sintiéndose más autónomo de su vida y menos dependiente. El factor fundamental de las actividades planteadas es permitir los procesos cognitivos sin un conjunto de reglas que limiten a los usuarios. Cada actividad está planteada de manera tal que los niveles de dificultad puedan variar y que los ejercicios no tengan un único fin o forma de desarrollarlos, esto con el propósito de permitir que tanto los niños, como los adultos y adultos mayores puedan interactuar. Estación primavera La estación primavera está compuesta por tres tipos de fichas: Domino Sensaciones, Juegos de Color y Juego de Pares. Jugar domino es un ejercicio de estimulación que requiere de concentración y astucia. Por medio de los colores y expresiones de los personajes se crean un sistema de fichas que brinda al adulto mayor un juego divertido en el que su capacidad de atención es imprescindible. 418 Figura 5. Estación primavera, maleta didáctica Cuatro Estaciones. Juegos de Color es una actividad que estimula la atención, percepción y lógica. Mediante la paleta cromática empleada se estimula visualmente al adulto mayor para que relaciones los colores con el patrón indicado. Figura 6. Fichas juegos de color. Estación primavera, maleta didáctica Cuatro Estaciones. El juego de pares es una actividad que fortalece no solo la atención visual, la memoria de trabajo y la ubicación espacial. Mediante las actividades de la vida cotidiana los individuos pueden recordar el orden lógico para realizarlas y compartir sus experiencias frente a este tipo de acciones en diferentes etapas de su vida. 419 Figura 7. Fichas juegos de pares. Estación primavera, maleta didáctica Cuatro Estaciones. Para jugar con el domino sensaciones se debe emplear la manera tradicional del juego teniendo en cuenta no imponer reglas a los adultos mayores. Los niveles de dificultad varían con la cantidad de fichas empleadas, es decir: para los primeros niveles se pueden utilizar desde tres colores y a medida que el adulto mayor presenta facilidad para ejecutar la actividad se incorporaran más fichas. Figura 8. Fichas domino sensaciones. Estación primavera, maleta didáctica Cuatro Estaciones. Las actividades de Juegos de color se pueden desarrollar de manera libre o por medio de los tableros guía. Los tableros se encuentran desarrollados de forma que dependiendo del grado de atención del adulto mayor se puedan emplear con tres o más colores. El objetivo de esta actividad es que los participantes ubiquen las fichas en color del tablero que corresponda. El juego de pares es un ejercicio que fomenta la memoria y requiere de concentración y ubicación espacial. Las fichas fueron diseñadas con acciones de la vida cotidiana que permiten generar conversación entre los participantes acerca de sus experiencias pasadas y del orden lógico para realizar determinada actividad. El objetivo de este juego es lograr que el (los) participante 420 (s) consigan recordar la ubicación de la mayor cantidad de pares. El grado de dificultad de esta actividad se puede determinar mediante la cantidad de fichas que se empleen para desarrollarla y la modalidad de juego. Estación verano La estación verano tiene como objeto la familiarización de las figuras básicas con el entorno. Las fichas de esta etapa están diseñadas con el propósito de generar un juego sensorial estimulando la vista y el tacto mediante texturas, formas y colores. Las fichas son figuras básicas que se pueden encontrar en el medio de desarrollo del adulto mayor y son empleadas en diferentes tonalidades que facilitan este tipo de procesos. Figura 9. Estación verano, maleta didáctica Cuatro Estaciones. Las fichas de esta estación trabajan la atención visual, ubicación espacial, percepción, lógica y por supuesto la memoria. Los juegos propuestos para esta estación son orientados mediante los tableros que emplean diversas cantidades de acuerdo al nivel de dificultad. Aunque los tableros guían las secuencias de juego, esta estación cuenta con la ventaja que los participantes pueden proponer sus propias secuencias de acuerdo a sus capacidades. La estación verano propone juegos como recordar la ubicación espacial de las fichas, secuencias de formas y color, grupos o familias de colores o de formas, juegos de memoria en donde los jugadores deben identificar cual es la ficha que hace falta entre otras actividades. 421 Estación otoño Las prendas de vestir y los animales conforman la unidad de Otoño. Esta estación brinda actividades de estimulación visual, táctil y auditiva. Mediante las fichas se proponen ejercicios que buscan ayudar a los adultos mayores a recordar el sonido de los animales, las formas y texturas, el orden lógico para emplear las prendas de vestir, las secuencias y tareas dirigidas a través de la orientación auditiva. Estos ejercicios permiten reforzar las funciones ejecutivas, la lógica, la percepción y la atención además de otras capacidades. Figura10. Estación otoño, maleta didáctica Cuatro Estaciones. Las fichas de los animales fueron diseñadas para realizar diferente ejercicios. Por una parte los jugadores deben unir dos lados de la ficha de manera que formen uno de los animalitos. El grado de dificultad dependerá de la cantidad de fichas empleada. Por otra parte y en conjunto del audio pueden identificar los sonidos de cada uno de ellos. Figura 11. Fichas de animales. Estación otoño, maleta didáctica Cuatro Estaciones. 422 Además de las anteriores actividades la estimulación auditiva busca generar ejercicios que se pueden llevar a cabo en conjunto con las otras fichas. Una de ellas consiste en llevar a cada animalito a su familia. El audio orientara al jugador en la cantidad y orden que debe hacerlo estimulando su grado de atención y receptividad. Figura 12. CD para la estimulación auditiva. Estación otoño, maleta didáctica Cuatro Estaciones. Por otra parte para reforzar la estimulación táctil, se encuentran las fichas de texturas. Los jugadores deben reconocer a que animal pertenece cada una y realizar ejercicios de secuencia mediante las historias narradas en el audio. Figura 13. Fichas de animales y texturas. Estación otoño, maleta didáctica Cuatro Estaciones. Con el tiempo y evolución de la enfermedad del Alzheimer los adultos mayores presentan olvidos sobre el orden correcto y funcionalidad de las prendas de vestir. Para ello la estación otoño contiene prendas elaboradas en materiales reales a escala. Además de ayudar a recordar a los jugadores estos aspectos las fichas permiten que ellos indaguen sobre la producción de las prendas de vestir, la fuente primaria de los materiales en que se elaboran y compartan sus experiencias frente al tema. 423 Figura 14. Fichas prendas de vestir. Estación otoño, maleta didáctica Cuatro Estaciones. Para jugar con estas fichas la estación contiene tableros con los personajes de “Cuatro Estaciones” los jugadores deben vestir a cada uno de ellos de acuerdo a los patrones guía del material. Esta actividad brinda la posibilidad de que cada participante proponga nuevas formas de combinar las prendas siempre y cuando justifiquen un orden. Estación invierno Con el propósito de reforzar los procesos cognitivos empleados en la lectoescritura y visoconstrucción la estación invierno contiene actividades enfocadas a esta área del conocimiento. En primera instancia se encuentran las fichas silábicas que ayudaran al adulto mayor mediante la lógica a formar palabras específicas. De la mano esta actividad está el palabrero con ejercicios que buscan que los jugadores propongan oraciones y textos al igual que desarrollen ejercicios de memoria de pares. Por otra parte y para generar una mayor integración entre el entorno y las personas que interactúan con el material se encuentran las fichas de significados. Figura 15. Estación invierno, maleta didáctica Cuatro Estaciones. Para los contenidos tipográficos de las fichas al igual que para las cajas de texto de las cartillas se seleccionó la tipografía Gandhi. Esta fuente es el resultado de un arduo trabajo de un equipo multidisciplinar conformado por: neurólogos, oftalmólogos, diseñadores, entre expertos que lograron hacer 424 que Gandhi se convirtiera en una herramienta para facilitar la lectura y procesos de conocimiento. Gracias al profesionalismo y compromiso del equipo de trabajo esta maravillosa fuente fue seleccionada como parte de la muestra principal de “Tipos Latinos 2012” en la Quinta Bienal de la Tipografía Latinoamericana en donde demostraron que esta fuente cumple con todos los requisitos estéticos para ser reconocida como la más acertada para la lectura y comprensión de textos. Para “Cuatro Estaciones” emplear esta tipografía es una selección con un valor bastante alto. La funcionalidad de Gandhi permite que personas con una baja visual reconozcan los contenidos y reciban la información de manera automática. De acuerdo al material proporcionado en las anteriores estaciones y para reforzar la maleta didáctica como una unidad, las palabras que se pueden formar con las silabas corresponden a los elementos empleados para algunos de los ejercicios de la estación primavera, verano y otoño. Figura 16. Fichas silabas, estación invierno, maleta didáctica Cuatro Estaciones. Figura 17 Fichas silabas, estación invierno, maleta didáctica Cuatro Estaciones. 425 Figura 18. Fichas silabas, estación invierno, maleta didáctica Cuatro Estaciones. El palabrero es un juego mediante el cual los participantes pueden proponer oraciones y textos ayudando así a mantener activa su capacidad de expresión. Con este tipo de fichas también se pueden realizar ejercicios de memoria mediante pares que consiente en memorizar una lista organizada en conjuntos de palabras. De esta manera a la hora de recordar se pueda asociar los conceptos y es más fácil retener la información. Figura 19. Palabrero, estación invierno, maleta didáctica Cuatro Estaciones. Las fichas de significados buscan mantener activa la capacidad de discernir información de los jugadores. Para jugar se deben tomar las fichas y los tableros de posibles respuestas. Al azar el jugador debe seleccionar una de las fichas, leer su contenido y tratar de determinar de la lista cual es la respuesta correcta. De acuerdo a la capacidad del individuo se pueden emplear varios niveles de dificultad y realizar las actividades sin ayuda de la tabla de respuestas. Los jugadores también pueden dibujar sus respuestas en el tablero de la maleta. 426 Figura 20. Fichas de significados, estación invierno, maleta didáctica Cuatro Estaciones. La estimulación auditiva se generara mediante historias narradas con el propósito que los participantes recuerden la mayor cantidad de detalles y puedan expresarse mediante nuevos textos o dibujos en el tablero. Figura 21. CD estimulación auditiva, estación invierno, maleta didáctica Cuatro Estaciones. Cartillas Para que el material didáctico sea empleado de manera funcional tanto por las familias y adultos mayores como por el personal del área de la salud “Cuatro Estaciones” cuenta con dos cartillas que facilitan el uso de la maleta. Figura 22. Portada de las cartillas y hojas de contenido, maleta didáctica Cuatro Estaciones. Cartilla de Actividades: Esta cartilla se encuentra dividida de acuerdo a cada una de las unidades. Los ejercicios son expuestos mediante un lenguaje 427 claro apoyado en representaciones gráficas del juego y de las fichas que se deben emplear. La cartilla contiene tips que ayudan a las familias a orientar a los adultos mayores en el desarrollo de las actividades y a estimular su desempeño. Cartilla de Orientación Profesional: Esta cartilla es dirigida en especial al personal del área de la salud. Al ser la maleta didáctica empleada para terapias cognitivas por parte de los profesionales era necesario contar con una guía que les explicara en un lenguaje más técnico los beneficios de cada uno de los ejercicios. Para facilitar el uso y préstamo del material en la cartilla se pueden encontrar los mecanismos de juego, elementos a emplear en cada actividad, al igual que algunas fichas para llevar seguimiento del impacto que genera en un paciente. Estructura de la maleta Uno de los objetivos de la maleta didáctica es propender por el bienestar y unión familiar. Este propósito fue determinante a la hora de seleccionar la apariencia y forma del contenedor. La maleta está conformada por cuatro unidades que en conjunto representan una casa haciendo alusión al hogar y la familia. Cada unidad cuenta con un manual que especifica la cantidad de elementos que contiene con el propósito de facilitar el préstamo en caso de ser empleadas por una institución y/o personal de la salud. El objetivo de esta estructura es permitir que sea transportada con facilidad y que en el caso del personal de la salud (terapeutas) puedan según su paciente llevar una sola de las unidades. Figura 23. Empaques y maleta didáctica Cuatro Estaciones. 428 Web y club de apoyo El Alzheimer es una enfermedad que afecta tanto a los adultos mayores como a sus familias y/o cuidadores, porque modifica sus estilos y calidad de vida. Si no existe orientación respecto al cuidado de este tipo de pacientes y del manejo de las relaciones familiares se puede desencadenar otro tipo de reacciones como estrés del cuidador, intolerancia y disfuncionalidad familiar. Cuatro Estaciones es un proyecto que no propende por el bienestar mental de los adultos mayores con Alzheimer. Cuatro Estaciones busca la armonía de los pacientes con esta enfermedad y sus familias. Las relaciones afectivas, la buena comunicación, entre otros valores son aquellos que permiten generar un ambiente cálido que facilita la estabilidad de todos los miembros de un grupo. Mediante una plataforma interactiva y haciendo uso de las herramientas comunicacionales que nos brinda la tecnología Cuatro Estaciones cuenta con un espacio que permite a las familias y personal de la salud compartir sus experiencias frente a la enfermedad creando un ambiente de retroalimentación que permitirá a quienes hace parte de este grupo obtener herramientas para hacerle frente al Alzheimer de manera acertada. Figura 24. Página web Cuatro Estaciones. Secciones de la página web TIENDA: Mediante este enlace los usuarios pueden conocer la maleta didáctica, los beneficios de emplearla y los mecanismos para adquirirla. También podrán encontrar otros artículos (objetos y juegos) para el adulto mayor y la familia. 429 GALERÍA: En esta sección serán publicadas las fotografías de los concursos y eventos que propendan por el bienestar de la familia, al igual que las imágenes que los usuarios deseen compartir a través de la página o enlaces a redes sociales. JUEGOS: A través de esta sección los usuarios podrán encontrar diversos juegos mentales que reforzaran las actividades de la maleta. NOTICIAS: Noticias, recomendaciones y toda la información que surja en el medio y que favorezca el bienestar de la familia se publicara a través de esta sección. DIRECTORIO: Mediante el directorio los usuarios podrán encontrar los contactos de profesionales en diversas áreas como enfermeros, terapeutas, médicos, centros de estimulación, entre otras. CLUB CUATRO ESTACIONES: El club es una herramienta para que las familias interactúen y cuenten sus experiencias frente a una enfermedad o situación que lo ha afectado. De esta manera pueden retroalimentarse y generar cambios positivos. REDES SOCIALES: Por medio de las redes sociales se pueden compartir enlaces de la página, concursos, juegos y experiencias. Este medio facilita la interacción con diferentes grupos. Cervera (2012) sustenta que el diseño de experiencias didácticas para el adulto mayor obedece a una necesidad de distracción y de salud de este sector de la sociedad. Al rededor 35 millones de personas en el mundo sufren esta enfermedad y la gran mayoría de ellos no se tratan de forma adecuada por la falta de recursos en el medio. Conclusiones y resultados Aunque existen estudios y exámenes profundos la herramienta principal que emplea la medicina para determinar el Alzheimer es un test con preguntas de la cotidianidad que mezclan sus recuerdos pasados con los más recientes. De acuerdo a la ubicación y facilidad que tenga el adulto mayor para responder se pude concluir si está perdiendo la memoria y que tan avanzada puede estar la enfermedad. Al ser el Alzhéimer una enfermedad neurodegenerativa que afecta a estas células incapaces de recuperarse y presentar un componente genético hace que quienes la padezcan no la puedan prevenir de manera directa. Sin em430 bargo; las actividades didácticas en donde se estimula la corteza cerebral pueden retrasar el avance de las etapas del Alzheimer y permitir una mejor calidad de vida al adulto mayor. El emplear las terapias didácticas como un método para tratar la enfermedad brinda múltiples beneficios: principalmente retrasa la degeneración de las neuronas que permite que los procesos cognitivos, las habilidades y procesos mentales del adulto mayor se preserven ayudándoles también a sentirse más útiles y a mejorar su autoestima. El acompañamiento de la familia o del cuidador de un paciente con Alzhéimer es fundamental para determinar si las terapias didácticas están brindándole beneficios. Mediante un seguimiento en el cual se determine al inicio de las terapias las habilidades con las que cuenta el adulto mayor y el grado de dificultad que tiene al desarrollarlas en este punto y unas semanas después de practicar los ejercicios se puede conocer la funcionalidad de las terapias. Las terapias didácticas no pueden remplazar del todo el uso de medicamentos para tratar la enfermedad. De acuerdo a los ejercicios que se realizan en la terapia, de la etapa en la que se encuentre el paciente y de sus habilidades se podría determinar si un tratamiento farmacológico es necesario. Todas las actividades que estimulan la corteza cerebral y retan a las neuronas a procesar y recibir más información ayudan a retrasar la evolución del Alzheimer. Los juegos mentales que implican concentración, observación e involucran los sentidos son necesarios en un tratamiento didáctico. Para el adulto mayor las acciones que realiza en su rutina diaria con el tiempo empiezan a requerir de más atención por lo cual el emplear ejercicios en los que se haga presente la secuencia de sus día a día y los elementos de uso habitual pueden generar avances positivos en su mantenimiento. No es conveniente emplear solo un tipo de ejercicios didácticos en un adulto mayor que presente Alzheimer. Las etapas de esta enfermedad se han clasificado de acuerdo al grado de olvido y dificultad en el desempeño de las actividades diarias del adulto mayor, sin embargo; los ejercicios didácticos no se pueden establecer de forma inmodificable según las etapas porque dependen de las características de vida y habilidades del individuo. Si es aconsejable que al empezar un tratamiento didáctico se emplee un grado de dificultad que debe ir aumentando acorde al avance que presente el paciente. 431 Lamentablemente la percepción que se tiene del adulto mayor en un gran porcentaje de la sociedad es negativa porque se vincula con conceptos como inutilidad, enfermedades, deficiencia entre otros aspectos que los ubican en situación de desventaja. Aunque no es inexistente si es bajo el número de proyectos que se realizan enfocados a esta población y muy probablemente esto se debe a la falta de conocimiento sobre sus cualidades. Asumir una posición crítica desde el diseño gráfico es una actividad que implica disciplina y más aún si se tratan aspectos que se salen de la zona de confort de un diseñador como la enfermedad del Alzheimer. La interdisciplinariedad en un proyecto es vital para obtener resultados funcionales, además permite fundamentar conscientemente cada uno de los aspectos o detalles que los conforman. La aplicación de las metodologías de diseño permite que los proyectos se desarrollen de manera creativa, pertinente, estructurada y dinámica. Generando resultados directos y confiables, en la medida en que se puede desarrollar la etapa de comprobación, validando así los aciertos y desaciertos en una premisa por desarrollar artefactos eficaces. De igual manera generar prototipos permite tener más claras las ideas y acercarse con pasos firmes a lo que se desea. Para la eficiencia de un proyecto es necesario trabajar de la mano de los componentes emocionales que se puedan presentar en el desarrollo. Referencias [1] Fontanillo, J. (2007) La enfermedad de Alzheimer y otras demencias, detección y cuidado en personas mayores. Madrid. [2] Landreth, G. L. (2002). Play therapy: The art of the relationship. New York, NY: BrunnerRuttledge. [3] Marín, J. (2003) Envejecimiento. Sociedad Española de geriatría y gerontología, 3 (1): 28-33 [4] O’Connor K. J., & Schaefer C. E. (1983). Handbook of play therapy. New York. [5] Zavala, M. (2006) Social Functioning of Elderly. Ciencia y Enfermería, 7 (2): 53-62. 432 Influencia del diseño editorial en la comprensión de un texto, análisis y criterios para facilitar la lectura Adriana Acero Gutiérrez [email protected] Resumen Los procesos de la escritura han ido evolucionando con el devenir del tiempo: de un trazo manual (como los manuscritos), a uno mecánico como la imprenta (con el tipo móvil), y posteriormente a los sistemas fotográfico y digital que hoy ofrecen una multitud de opciones para la elaboración de un documento. De alguna manera, cualquier individuo que cuente con un dispositivo electrónico (llámese computadora, tableta, teléfono u otro), puede componer un escrito. Sin embargo, muy pocos de estos textos son correctos, ya que están mal diseñados dado que su construcción no considera el diseño editorial. Desde sus orígenes el hombre ha tenido la necesidad de comunicarse, ya sea por medio de expresiones como gestos y sonidos, o a través de otros medios, como el dibujo y la escritura. Esta última, ha sido un recurso trascendental que traduce un lenguaje (el verbal) a otro (el escrito), conformado por un particular sistema de signos ordenados secuencialmente. Esta forma gráfica de expresar el lenguaje llamada escritura, sienta sus bases en la tipografía; la cual se puede entender como el arte y técnica del manejo y selección de tipos (originalmente de plomo) para crear trabajos de impresión. David Jury (2006:8), argumenta: “La tipografía y la escritura, por su naturaleza, siempre se han entrelazado, puesto que la tipografía es la disciplina y la práctica profesional que media entre el contenido de un mensaje y el lector que lo recibe”. El presente escrito pretende demostrar que la buena edición de un documento, ya sea impreso o digital, favorece su comprensión. Esto es posible si se consideran aspectos como: la elección correcta de las fuentes, la organización de los elementos (textos e imágenes), la determinación de las medidas (columnas, tamaños de letra, interlineados y márgenes, entre otros), la jerarquía, así como la secuencia y la relación de un elemento con otro, a partir de aspectos como la adecuación y la coherencia, además de tomar en cuenta el tipo de lector al que va dirigido y el contenido del material escrito. Por el contrario, podemos decir que un documento mal diseñado impide una buena lectura, y por tanto, puede repercutir en una falta de compren433 sión. Debido a que el proceso de lectura se torna cansado y lento, al no haber correspondencia entre los textos y las imágenes, el lector se distrae y desorienta llegando al fastidio e incluso a la desesperación. Palabras Clave: Tipografía, lenguaje, escritura, lectura, diseño editorial, comprensión. Introducción El propósito de este escrito es dar a conocer las cualidades que tanto la tipografía, como el diseño editorial pueden ofrecer para hacer más comprensible una lectura, partiendo de su funcionalidad. Para tal fin, se analizarán y describirán los elementos que facilitarán la leibilidad[1] de un texto, considerando que con estos recursos el lector conseguirá prestar una mayor atención y concentración en el escrito, contribuyendo a una mejor comprensión del mensaje. Sin duda, para el ser humano una de las necesidades primordiales es la de comunicarse, y esta acción permite considerarlo un ser social. El poder transmitir ideas y pensamientos de diferentes formas, ya sea a través de gestos y señales, o bien de un modo más estructurado –por medio del lenguaje oral y el lenguaje escrito- ha permitido que el hombre se desarrolle y evolucione conformando nuevas y mejores formas de convivir. Evolución de la escritura y sus aspectos formales A lo largo de la historia han surgido y evolucionado varios inventos, que por su importancia es conveniente tomarlos en cuenta, pues estos son parte imprescindible de nuestro presente. Uno de ellos fue la escritura,[2] y para poder comprender lo que hoy en día significa ésta – y específicamente la tipografía- es necesario revisar y estudiar su evolución. Podemos decir que la escritura parte del IV milenio a.C. con la de tipo cuneiforme,[3] y se extiende hasta nuestros días con los sistemas digitales que prevalecen como una parte vital de nuestro proceso de comunicación. 1. Leibilidad. El concepto de leibilidad va íntimamente relacionado con el concepto de legibilidad. Leibilidad se refiere a la capacidad de comprender una composición con el mínimo de cansancio. En otras palabras, permite captar el mensaje que lleva una composición sin mayor esfuerzo, siempre y cuando el texto esté bien diseñado. https://coerulea.wordpress.com/2007/09/23/legibilidad-y-leibilidad-dos-conceptos-aparentemente-olvidados-porlos-disenadores/ 2. Escritura. Del latín scriptüra, el concepto de escritura está vinculado a la acción y las consecuencias del verbo escribir, que consiste en plasmar pensamientos en un papel u otro soporte material a través de la utilización de signos. Estos signos, por lo general, son letras que forman palabras. http://definicion.de/escritura/ 3. Cuneiforme. (Del lat. cunêus, cuña, y -forme). adj. De forma de cuña. U. más referido a ciertos caracteres de forma de cuña o de clavo, que algunos pueblos de Asia usaron antiguamente en la escritura. Real Academia Española. 434 Los pictogramas[4] -como primeros signos- consistían en representaciones de objetos, a los cuales se les reconocía de una manera común, y gracias a ello, fue posible la transmisión de algún mensaje. Posteriormente, estos signos evolucionaron y se convirtieron en ideogramas los cuales ampliaban sus significados asociando no sólo un objeto, sino ideas más completas y a la vez abstractas. Figuras 1 y 2. Figura 1. Tablilla con escritura cuneiforme. Recuperado el 25 de enero de 2015. http:// www.eluniverso.org.es/2014/06/que-historias-3/. Figura 2. Escritura egipcia. Fotografía: Adriana Acero. Con el paso de los siglos, esos símbolos pictóricos comenzaron a significar el sonido del objeto descrito, convirtiéndose en escritura fonética, de esta manera podía transmitirse el lenguaje oral entre las personas. En un principio los signos eran demasiados en cuanto a su número, hasta 560 en el caso de los asirios.[5]2De relevante importancia es la escritura egipcia que aun siendo un sistema pictográfico (dado a través de los jeroglíficos), diversifica la escritura asignándole distintas funciones: la hierática (religiosa) y la demótica (del pueblo). A su vez, los fenicios recibieron de los egipcios la escritura cuneiforme, la cual transformaron para convertirla, posteriormente, en el alfabeto occidental. Figura 3. 4. Pictograma. (Del lat. pictus, pintado, y -grama).1. m. Signo de la escritura de figuras o símbolos. 5. Asirios. (Del lat. Assyrîus, éste del gr., y éste del acadio aššurû). 1. adj. Natural de Asiria. U. t. c. s. 2. adj. Perteneciente o relativo a este país de Asia antigua. 3. m. Lengua asiria. Real Academia Española. 435 Figura 3. Alfabeto fenicio. Recuperado el 19 de junio de 2015. https://images.search.yahoo. com/search/images Fueron los griegos quienes, entre el año 1000 y el 700 a.C., tomaron los caracteres fenicios y los convirtieron en formas artísticas de gran armonía y belleza, con trazos uniformes y formas geométricas variadas. Figura 4. Relación entre los alfabetos griego y romano. Recuperado el 3 de enero de 2015. http://www.easyvectors.com/browse/other/ben-greek-alphabet-clip-art. Más adelante, durante la Edad Media, los documentos se hacían por medio de manuscritos, en los cuales se utilizaban diversos estilos caligráficos como el romano, uncial y semi-uncial, fraktur o textura, que al ser hechos a mano requerían impresionante habilidad y lograban una gran belleza. El diseño de estos libros combina capitulares[6] ilustradas a color con el texto. Figura 5. 6. Capitulares. adj. Impr. Dicho de una letra: Que empieza el capítulo de un libro, o un párrafo, cuando es resaltada en tamaño o por algún adorno. Real Academia Española 436 Figura 5. Recreación de una página medieval. Recuperado el 5 de junio de 2015. http:// elhurgador.blogspot.mx/2013/05/el-libro-de-horas-de-sforza-manuscrito.html. Un suceso que impacta de manera singular al desarrollo de la escritura, es la invención de la imprenta a mediados del siglo XV, por Johannes Gutenberg, quien suplió los manuscritos por documentos impresos en serie. Con este invento, se produjo un crecimiento en la producción y difusión de libros, ampliando los conocimientos dentro de la sociedad. Su uso cada vez más extendido, entre los siglos XVII y XVIII, hace surgir un gran número de estilos y variantes tipográficas predominando los estilos romanos y góticos, también comienzan a darse los principios de estandarización en las medidas tipográficas. Fue con la revolución industrial a finales del siglo XVIII, cuando se establece un ciclo de producción y un aumento en la población urbana que aprendía a leer, lo que estimuló un poder de compra y mejoras tecnológicas haciendo posible la creación de numerosos caracteres más comerciales. En esa época predominaron los tipos pesados o bold, con efectos tridimensionales y texturas en las letras. Figura 6. Figura 6. Algunos estilos tipográficos que se usaron durante la Revolución Industrial. 437 La tipografía moderna sienta sus bases en el primer tercio del siglo XX, ahí se dieron los primeros pasos para romper con los modelos tipográficos tradicionales. En países como Italia, Suiza, Holanda o Rusia, surgieron movimientos de vanguardia que exploraron las posibilidades de la tipografía como vehículo de expresión y de comunicación. Los movimientos culturales como el Futurismo, Dada, Neoplasticismo y Constructivismo encontraron en la tipografía un lugar para la experimentación, alejándose de los medios artísticos tradicionales. Uno de los acontecimientos que contribuyó notablemente a la evolución de la tipografía y sus aplicaciones fue la fundación de la Bauhaus,[7]1escuela de artesanías, diseño, arte y arquitectura que en 1919 propugnó por un nuevo lenguaje tipográfico, destacándose por el uso de tipografías sans-serif,[8] y la creación de nuevos alfabetos y una serie de investigaciones relacionadas con la composición tipográfica. Figura 7. Figura 7. Diseño tipo constructivista de la corriente Bauhaus. Recuperado el 5 de junio de 2015. http://www.catalogodiseno.com/2013/11/02/clasicos-el-diseno-grafico-de-la-bauhaus/. En los años sesenta -del siglo pasado-, la informática revolucionó algunos procesos de producción tradicionales modificando varias esferas del diseño, dicho descubrimiento se ha convertido, hoy en día, en un elemento imprescindible para la comunicación humana. En la producción editorial y la tipografía los cambios han sido tan profundos que más bien, se han ido adaptando a las necesidades de uso que las exigencias del siglo XXI imponen. Ver figura 8. 7. Bauhaus. Escuela de Diseño alemana desarrollada en las ciudades de Weimar, Dessau y Berlín entre los años 1919 y1933. Recuperado el 5 de enero de 2105. http://www.portaldearte.cl/terminos/bauhaus.htm 8. Sans-serif. Aquellas tipografías que no disponen de remates. Recuperado el 6 de enero de 2105. http://es.wikipedia. org/wiki/Tipograf%C3%ADa 438 Figura 8. Caracteres digitales. Recuperado el 5 de enero de 2015. Tomado del libro “Manual de Producción Gráfica. Recetas”. Consideraciones acerca del texto Históricamente la escritura ha evolucionado de una manera integral, desde su construcción formal hasta su aplicación práctica, en el aspecto de composición y de diseño; considerando también, la influencia que para su concepción han tenido los aspectos ideológico y tecnológico. Dados esos principios, puede entenderse lo imprescindible que es para la comunicación humana el uso de la escritura y el texto como producto de la misma. El texto, se compone de letras que ordenadas secuencialmente forman palabras, éstas a su vez, forman frases y oraciones. En general los textos nos brindan información que se traduce en conocimientos. En un escrito, tan importante es el contenido como la forma, pues su combinación puede lograr una óptima comunicación; es decir, un texto también expresa su mensaje a través de formas visuales. Un texto para poder ser leído con claridad y fluidez debe poseer ciertas características, las cuales se analizarán más adelante. Por lo que respecta a su aspecto formal, cada signo del alfabeto, llamado caracter[9] 1-incluye letras, números, signos matemáticos, de puntuación y diacríticos-, se compone de trazos en forma de líneas: rectas, diagonales y curvas, inscritas en figuras como el círculo, el cuadrado y el triángulo, y poseen una estructura en cuanto a peso, inclinación y proporción; todos estos 9. Carácter. Un carácter es cada una de las figuras que forman una familia tipográfica, incluyendo letras, signos de puntuación, números, etc. Recuperado el 6 de enero de 2015. http://www.tiposconcaracter.es/vocabulariotipografico-ii/ 439 aspectos, aunados al estilo,[10]1presentan ciertas particularidades que le dan un valor propio a cada documento. De acuerdo a éstas el documento debe presentarse de una manera estética y funcional, si por el contrario, el uso de los elementos es inadecuado, puede resultar ineficiente y por tanto, sus efectos serán negativos. Cuando un documento es diseñado correctamente el lector percibe con claridad el mensaje que emite el escrito; en cambio, cuando está mal elaborado la sensación es de desagrado y confusión, de tal manera que puede afectar notablemente la comprensión del texto. Vale la pena mencionar que también existen diversos tipos de texto, y que cada uno de ellos presenta características muy particulares, a manera de ejemplo: no es lo mismo la lectura de un poema, que un texto literario; o un artículo de revista comparado contra un artículo de periódico, cada uno de ellos cuenta con su propia estructura y morfología. Ver figuras 9 y 10. Figuras 9 y 10. Ejemplos de páginas de revista y periódico, en donde se observan diferencias morfológicas. Diseño de página Revista Tecnología & diseño Núm. 2, Adriana Acero; y de periódico El País http://inhouseidiomas.blogspot.mx/2009/03/con-que-frecuencia-tu-leesel-periodico.html. La tipografía y el diseño editorial en relación con el mensaje Para que un diseño editorial[11]2pueda componerse de acuerdo a su contenido y significado, se debe partir de un análisis del mensaje, Baines y Haslam (2002:104) describen cuatro enfoques de contenido a partir de los cuáles se puede identificar un tipo de mensaje, una vez que sean conocidas sus características se puede resolver el diseño que mejor transmita dicho mensaje. 10. Estilo tipográfico. Las características que individualizan a cada alfabeto en su diseño. Recuperado el 6 de enero de 2015. http://www.taringa.net/posts/ciencia-educacion/12482562/Tipografia-Anatomia-Estructura-Clasificacion.html 11. Diseño editorial. Es la rama del diseño gráfico que se especializa en la maquetación y composición de distintas publicaciones como libros, revistas o periódicos. Recuperado el 6 de enero de 2015. http://fido.palermo.edu/ servicios_dyc/encuentro2007/02_auspicios_publicaciones/actas_diseno/articulos_pdf/CE-121.pdf 440 Estos son: “La documentación se ocupa de datos –el mensaje- y, por lo general, proporciona el punto de partida. La documentación registra y preserva, y adopta numerosas formas: una carta, una memoria, un listado, un billete, etcétera. El enfoque analítico es adecuado para la presentación de la información compleja y, generalmente, constituye la base para cuadros, diagramas, señalización, horarios, mapas, leyendas de símbolos, códigos, índices y similares. Esas actividades comparten raíces comunes en cuanto a racionalidad, examen y disección de datos, así como de comprensión del todo a través del análisis de las partes. El enfoque conceptual busca la idea genial que englobe el mensaje. Para algunos diseñadores éste, es su principal método de comunicación. El diseño conceptual se asocia particularmente con viñetas, publicidad, promoción y logotipos, aunque se utilice en todo el espectro del diseño gráfico…Mediante un enfoque reductor y a menudo simplista, el grafismo conceptual apela a la inteligencia y confía en establecer una complicidad entre diseñador y público que les permita compartir la sutileza del juego de palabras. El enfoque expresivo con él se pretende suscitar emociones en el observador. Como la música, que apela fundamentalmente al corazón: éste procura la “reposición” emocional del oyente a través del color, la identificación y el simbolismo. No siempre se aspira a la claridad absoluta: este planteamiento del diseño es impresionista, poético y lírico, invitando al espectador a reflexionar sobre el contenido.” Al momento de diseñar, es muy importante que se entienda, perfectamente, cuál de estos enfoques contiene el mensaje más adecuado para lo que se pretende, y así poder tomar decisiones acerca de los elementos y la organización que debe formar el diseño editorial, ya que, la gama de posibilidades es muy amplia y por tanto, el producto –llámese libro, revista o periódicodebe presentarse al lector de una manera mucho más práctica y eficiente. A su vez, debe existir coherencia entre el contenido del mensaje y el diseño, es decir, seleccionar y jerarquizar la información para organizarla y darle un sentido lógico. No menos importante es la adecuación, esta se refiere a la manera en la cual el mensaje gráfico debe adaptarse a las reglas formales y de composición que marcan los diferentes géneros editoriales. Respecto a la producción de un libro argumentan Baines y Haslam (2002:105): 441 En la impresión se ofrece al lector una información fija, tanto en el tiempo como en lo referente a su aspecto, tal y como viene dictada por los editores y diseñadores. Aunque suela darse por supuesto que la impresión es una experiencia lineal y progresiva por definición, la realidad es a menudo muy distinta. Por ejemplo, una vez producido un libro, no existe control alguno sobre cómo se accede a él ni sobre cómo se lee; esta cuestión se convierte en una relación particular entre el lector y el autor. Lo expuesto por Baines y Haslam indica la manera en que un diseño editorial debe concebirse, es decir, con toda propiedad debido a que una vez expuesto al lector, la figura del diseñador desaparece y entonces el documento adquiere un valor propio. Además de identificar el sentido del mensaje de un escrito, al diseñar una página deben tomarse en cuenta varios aspectos de carácter formal como son: la elección correcta de las fuentes tipográficas en su estilo y tamaño, la organización de los elementos (texto e imágenes), la determinación de las medidas de columnas, márgenes y medianiles,[12] el espaciado interletra e interlínea, así como el color, entre otros factores. Para conformar el diseño de un texto deben tomarse en cuenta las características esenciales de la o las tipografías que se usarán; cuando se trata de un manuscrito extenso, éste debe ser funcional, es decir, que debe tener la facultad de ser leído de una forma óptima, privilegiando la funcionalidad antes que la estética. Al respecto Adrián Frutiger (2007:16) refiere que una tipografía debe estar hecha de tal forma que nadie repare en ella. Lo que quiere decir que, en la medida que la tipografía no sea un distractor para el lector, ésta cumple eficientemente su función. Partiendo de la tipografía como elemento esencial de un texto, su elección debe hacerse con base en la legibilidad, en su composición dentro de la página y en su estructura formal. Respecto a legibilidad, ésta puede definirse como la capacidad que tiene un texto para ser leído con facilidad y rapidez. Según algunos estudios, los aspectos más importantes para que se pueda conseguir este objetivo son: • Seleccionar el estilo de las fuentes tipográficas[13]2correctas de acuerdo al tipo de mensaje. La tipografía, por su estilo, tiene una personalidad 12. Medianil. (De mediano e -il). m. Impr. Crucero más angosto de la forma o molde, que deja el espacio blanco de las márgenes interiores. Real Academia Española. 13. Fuente tipográfica. Es un conjunto de caracteres en un cuerpo y en un estilo. 442 que representa un momento histórico y un aspecto estético. • Tomar en cuenta su estructura formal, los trazos –ya sean delgados, gruesos o combinados, las proporciones que forman cada parte de un signo -letra, número, etc.- deben ser claras y equilibradas. Se recomienda emplear tipografía en minúsculas porque los rasgos entre cada carácter son más diferenciables entre sí; el cerebro puede reconocer de mejor manera cada una de las letras y así evitar confundirse. También es conveniente emplear fuentes de las llamadas tipo romano, que presentan trazos modulares –gruesos y delgados- como la letra Times, por ejemplo, pues por motivos similares a lo anterior, sus rasgos permiten diferenciarlas fácilmente, cosa que no ocurre en las de tipo palo seco cuyos trazos son uniformes y algunas de sus letras son parecidas entre sí. Figuras 11 y 12. Figuras 11 y 12. Fuentes de tipo romano y palo seco. Con relación a su proporción, los tamaños son muy importantes, la letra no debe ser demasiado estrecha o demasiado ancha, es mejor un trazo recto y regular; por otro lado, su parte central –o cuerpo de la letradebe ser amplio, y sus trazos ascendentes y descendentes no deben ser demasiado cortos. Véase figura 13. Figura 13. Anatomía y algunas partes de la tipografía. Recuperado el 5 de enero de 2015. http://www.desarrolloweb.com/articulos/images/diseno/7/partes_1.gif. • El tamaño o puntaje[14]1debe ser elegido de acuerdo a las medidas generales del documento como: cantidad de texto, tamaño de la hoja, anchos de columna, espaciado entre caracteres y color, entre otros. Para la mayoría de los textos de lectura, los tamaños no deben ser menores a 8 puntos ni mayores de 12; aunque pueden existir algunas excepcio14. Puntaje tipográfico. Medida de la letra, que se obtiene a partir de su altura. Se mide en unidades de puntos; un punto equivale a 0.376 mm. Recuperado el 6 de enero de 2015. http://www.delyrarte.com.ar/sitio/tipomedi2b.html 443 nes cuando se trata de lecturas para niños o de personas con debilidad visual. • Los espacios de interletra, interlínea e interpárrafo, también son muy importantes; estos deben proponerse acordes a las medidas del tipo, así como de la página, anchos de columna, etc. Con relación a este último, no se recomienda usar columnas muy delgas, ni muy anchas, pues en el primer caso la lectura se “corta” continuamente provocando un fastidio, y en el segundo, la lectura es tan larga que puede provocar fatiga, además se convierte en un problema cuando se trata de llevar una lectura entre renglón y renglón, pues es común que el lector se confunda de línea regresando dos veces a alguna de ellas, o por el contrario se salte algunas. Existe una fórmula matemática que ofrece una medida óptimo de lectura, ésta fórmula dice que de acuerdo al tamaño de la letra se puede escribir de manera continua el alfabeto –en minúsculas- de la a la z y lo que éste mida es el ancho correcto, entonces, el ancho de columna óptimo será una y media veces el largo de ese alfabeto; de otra manera también existe la recomendación de que en un ancho de columna se cuenten entre 7 y 11 palabras –en promedio- y así se asegura el mejor tamaño. Figura 14. Figura 14. Ejemplos de ancho de columna. De igual manera la importancia de la organización y disposición de los elementos se convierten en parte esencial de un buen diseño. El diseño editorial se establece a partir de la combinación de textos e imágenes que se disponen en una página. Por lo general, en un impreso existen dos tipos de lectura o visión de la información las cuales implican una atención del lector, Raffaele Simone (2001:32-33) las describe de la siguiente manera: • Visión alfabética: Denominó así a la modalidad de la visión que permite adquirir informaciones y conocimientos a partir de una serie lineal de 444 símbolos visuales, organizados uno tras otro, de la misma manera que los signos alfabéticos en una línea de texto. • Visión no alfabética: Esta visión no ser lineal, pues no está obligada a seguir una sucesión ordenada en su movimiento. Es decir, son una serie de estímulos visuales que se presentan todos a la vez y entre los cuales es difícil establecer un orden, creando diversas posibilidades de lectura y de apreciación. Figuras 15 y 16. Figura 15. Ejemplo de página con una visión alfabética o secuencial Revista Tecnología & diseño Núm. 3. Figura 16. Página en donde se muestra una visión no alfabética o simultánea. Enciclopedia Educación para primaria. 445 La clave para un buen diseño editorial radica en organizar los elementos de una manera lógica, cuando se trata de un documento meramente textual, es más sencillo resolverlo pues la direccionalidad y secuencia de la información es sucesiva –lineal-; sin embargo, cuando se trata de un documento simultáneo, la complicación es mayor, pues suele suceder que el lector, entre tantos elementos dispuestos a la vez, se confunda y no los relacione de forma correcta. Para organizar la información existe el recurso de la “retícula” o “grid”, que es una serie de líneas horizontales y verticales determinadas por el diseñador para colocar los elementos visuales, esta retícula no es visible para el lector, pero de una manera inconsciente le permite percibir un orden que le conduce a apreciar una lectura más fluida. Derivado de lo anterior, y de igual importancia, es considerar la jerarquía de la información; ésta debe indicar claramente cuál es el orden de la lectura; lo que puede conseguirse diferenciando la información para crear distintos niveles. Así el lector podrá realizar un recorrido visual adecuado y sin contratiempos. Algunos ejemplos de estos niveles son: Destacar el título y presentar los subtítulos como subordinados,[15] diferenciar el cuerpo de texto[16] del resto de la información, apoyar las imágenes con pies de imagen, dar forma y ubicación a las notas a pie de página –y a cada uno de los elementos-, etc. En lo textual, esto se logra a partir de las variantes tipográficas, es decir, el tamaño, la inclinación, el peso y el color que son características formales que hacen las veces de “señales” interpretadas por el lector. Figura 17. 15. Subordinado. (Del part. de subordinar). adj. Gram. Dicho de una oración: Que depende de otra. U. t. c. s. Real Academia Española. 16. Cuerpo de texto. Texto principal de cualquier documento; el cuerpo del documento. También se refiere a cualquier texto utilizado para simular cuerpo de texto, por ejemplo en la preparación de maquetas de presentación. Recuperado el 7 de enero de 2015. http://www.adgcolombia.org/category/archivo/diccionario-de-disenografico?snap=C 446 Figura 17. Diferenciación en la información y orden de lectura que muestra esta página de la revista Tecnología & diseño Núm. 2. Además de todo esto, el diseño se encuentra regido por varias normas editoriales que se refieren a una serie de lineamientos establecidos para poder ser interpretados por el lector. Argudín y Luna (2001:152) en su libro Aprender a pensar leyendo bien, emplean como estrategia para la comprensión de un texto, lo siguiente: Frecuentemente los autores ofrecen signos para resaltar los puntos principales: los subrayados, las negritas, las cursivas y las preguntas retóricas (preguntas que hace el autor, aunque conoce sus respuestas). También pueden resaltar la información principal apoyándola con listados. Existen muchas otras “marcas” reconocibles por el lector como: emplear itálicas[17] para anglicismos, indentar[18] un texto cuando se trata de una cita, iniciar sin sangría[19] el primer párrafo del capítulo de un libro, etc. Todos ellos son registros visuales establecidos a partir de códigos que permiten al lector interactuar con el escrito ofreciéndole la posibilidad de comprender su contenido. 17. Itálica. La letra cursiva o itálica es un estilo de escritura cuyas características más comunes son la inclinación de sus letras. Recuperado 6 de enero de 2015. http://es.wikipedia.org/wiki/Cursiva 18. Indentar. Indentación es un anglicismo (de la palabra inglesa indentation) de uso común en informática,1 que significa mover un bloque de texto hacia la derecha insertando espacios o tabuladores, para así separarlo del margen izquierdo y mejor distinguirlo del texto adyacente. Recuperado el 6 de enero de 2105. http://es.wikipedia. org/wiki/Indentación. 19. Sangría. Impr. Acción y efecto de sangrar (empezar un renglón más adentro que los otros). Real Academia Española. 447 Conclusiones Como podemos observar, muchos son los factores que intervienen en un diseño editorial; y si bien, un documento –sea de la naturaleza que fueretiene sus propias características, el diseño se vale de varios recursos para hacer más fácil una lectura, haciendo posible que el lector se concentre en el escrito, para favorecer su comprensión. La labor que el diseñador gráfico, y específicamente el diseñador editorial tiene, es compleja y delicada, porque tras la elección que realice de los elementos y de su organización, obtiene un producto de diseño que debe ser un medio para ofrecer al lector la posibilidad de comprender, en un sentido visual y de contenido el mensaje de un escrito. La tipografía como componente esencial de un texto, y el diseño editorial como el resultado de la combinación de varios elementos en un medio, son piezas muy significativas para la comunicación. A través de su evolución y desarrollo histórico ha sido posible entablar conexiones interpersonales de gran trascendencia, a tal grado que hoy en día el medio no sólo es físico, sino virtual –a partir de la tecnología digital- y la difusión e inmediatez de la información han superado, en algún sentido, al documento impreso; sin embargo, actualmente la relevancia que la tipografía y el diseño siguen teniendo tanto en un impreso, como en un medio digital, es de igual manera importante, pues en ambos casos el principal objetivo es resolver de manera eficiente la transmisión de conocimientos. Referencias [1] Acero, A. (2004). Exploración editorial en textos argumentativos. Tesis para obtener el grado en Diseño Editorial. México: Universidad Anáhuac. [2] Argudín, Y. Luna, M. (2001). Aprender a pensar leyendo bien. Colombia: Universidad Iberoamericana. [3] Baines, P. Haslam A. (2002). Tipografía: función, forma y diseño. España: Gustavo Gili. [4] Blackwell, L. (1998). Tipografía del siglo XX. España: Gustavo Gili. [5] Frutiger, A. (2007). El libro de la tipografía. España: Gustavo Gili. [6] García Fernández, D. (1996). Manual de técnicas de lectura y análisis de textos. México: Universidad Anáhuac. [7] Gracida Juárez, Y. Galindo Hernández, A. B. (coordinadoras) (1998). Comprensión y producción de textos. México: Edere [8] Fawcett-Tang, R. (2004). Diseño de libros contemporáneo. España: Gustavo Gili. [9] Johansson, K. Lundberg, P. Ryberg, R. (2004). Manual de producción gráfica: recetas. España: Gustavo Gili. [10]Martínez Leal, L. (1990). Treinta siglos de tipos y letras. México: Tilde. [11]Revista Tecnología & diseño, Núm. 3. México: Universidad Autónoma MetropolitanaAzcapotzalco 448 El impacto de la educación básica en México en el desarrollo creativo del estudiante Elvia Palacios Barrera Universidad Autónoma Metropolitana - Azcapotzalco, Departamento de Procesos y Técnicas de Realización [email protected] Resumen El Tronco General de Asignaturas (TGA) de las carreras de Diseño en la Universidad Autónoma Metropolitana Azcapotzalco, (UAM) se enfrenta a la realidad de que los alumnos que ingresan a la Universidad, en un porcentaje alto no han tenido una formación creativa previa. Esto es comprensible, pues al analizar la historia de la educación en México se revela que existe una falta o nula capacidad para cumplir con los objetivos básicos de su razón de ser, establecida en el segundo párrafo del artículo 3º de la Constitución Política de los Estados Mexicanos, que establecen: “......La educación que imparta el Estado tenderá a desarrollar armónicamente, todas las facultades del ser humano y fomentará en él, a la vez, el amor a la patria, el respeto a los derechos humanos y la conciencia de la solidaridad internacional, en la independencia y en la justicia.....”. (Reformado mediante decreto publicado en el diario oficial de la federación el 10 de junio de 2011). La falta de compromiso con lo establecido en el artículo 3º, particularmente cuando se establece que la educación deber “desarrollar armónicamente, todas las facultades del ser humano”, ha impactado de manera directa en la formación de los alumnos, con métodos didácticos muy tradicionales que privilegian el desarrollo cognitivos, se ha prestado poca o nula atención a los procesos creativos. El presente artículo muestra algunos antecedentes histórico y sociales que enmarcan la realidad nacional y que ha permeado a la educación en México durante años. Así como el resultado de lo que esto representa en el desarrollo de las habilidades creativas en los estudiantes. Con el ingreso a la globalización y el uso de las nuevas tecnologías, se enfrenta un mundo sin fronteras culturales y hoy por hoy a un nuevo tipo de alumnos, con acceso a mucha información, pero con poca capacidad para discriminar, analizar y criticar. Poco reflexivos, y evidentemente poco pro449 positivos, creativos e innovadores. Poniendo en evidencia que para nuestro país, en nuestro contexto, los efectos globales pueden no ser muy alentadores. “Sin lugar a dudas, la globalización –dada la complejidad de sus procesos internos, el hecho de ser un fenómeno inacabado y las consecuencias todavía impredecibles, especialmente en el campo social– impone una serie de retos y desafíos a los sistemas educativos de la región. Pero también plantea una serie de exigencias éticas que, en el caso latinoamericano, se han convertido en auténticos déficits estructurales que es necesario revertir, con responsabilidad social, amistad cívica y compromiso activo de todos los actores involucrados.” (Cornejo, 2012: 35) Esta pues, representa una reflexión en donde se analiza el contexto bajo el cual, la mayoría de los alumnos que ingresan a la educación superior, específicamente a las Carreras de Diseño, se ven impactados. Alumnos con deseos de aprender, innovar y crear pero con pocos aprendizajes adquiridos previamente que les auxilien a desarrollar dichos aprendizajes, representando un reto para los docentes, quienes se ven en la necesidad de replantear sus métodos didácticos aplicados en su labor docente, y hacer conciencia que la educación puede ser un disparador o un ancla en el desarrollo creativo del ser humano. Palabras Clave: Educación tradicional, educación artística, globalización, nuevas tecnologías, creatividad. Antecedentes históricos El Tronco General de Asignatura (TGA) comúnmente llamado Tronco Común (TC) de las carreras de diseño en la UAM Azcapotzalco, se enfrenta a la realidad de que los alumnos que ingresan a la Universidad, en un porcentaje alto ha recibido una formación creativa previa muy pobre, es decir, en su formación básica y media superior, no tuvieron como una prioridad la enseñanza de las diferentes manifestaciones artísticas, plásticas o creativas, debido a que generalmente la enseñanza en esos niveles se enfoca en el desarrollo de las habilidades cognitivas dirigidas a la lógica, las matemáticas, la memorización y repetición. Esto se puede comprender si se analiza de manera sencilla la historia de nuestra nación. La educación en México ha tenido un papel desafortunado, desde sus inicios. La Constitución Mexicana de 1857significó un parteaguas en el siglo 450 XIX; sostenía el principio básico del liberalismo político: igualdad ante la ley, con lo cual acabó con los fueros y los privilegios del ejército y la iglesia. En dichas circunstancias, los individuos (en realidad la sociedad) tuvieron la ocasión de cambiar radicalmente el monopolio que la Iglesia había ejercido durante siglos en la educación, se comenzó a vislumbrar la construcción de una Republica de libertad bajo los derechos del hombre. Sin embargo faltó conocimiento, como menciona Ignacio Altamirano (1997).[1] “Triunfamos y fundamos republicas, pero la carencia de instrucción se haría sentir enseguida (…) las constituciones no podrían arraigarse, la federación no era entendida (…) y el pueblo se dejaba arrebatar derechos que no entendía”(p.366) Tuvo que pasar casi un siglo (1934) para que el Artículo 3º se viera como una versión aceptable del derecho a la educación Aboites (2012) comenta que alrededor de 1968 el crecimiento y el apoyo a la educación se ve menguado por el autoritarismo y burocratismo de Díaz Ordaz, este momento en el que la educación básica sufre una ruptura que ya se venía dando, pues comienzan a aparecer intereses económicos y de poder, más que de un proyecto educativo nacional. Mas adelante se comienzan a introducir políticas y acuerdos internacionales, es en 1983 con el mandato de Miguel de la Madrid, cuando se aceptan las recomendaciones del Fondo Monetario Internacional, generándose cambios y ajustes provocando una reducción significativa en la matricula de educación básica. Para 1992 con el ex presidente Carlos Salinas de Gortari se firma el tratado de Libre Comercio de América del Norte (TLCAN) en el que se ve favorecida la participación de inversionistas y empresas en la educación, con lo que se desdibuja el papel y las responsabilidades del Estado frente a la educación y se fortalece el concepto de educación privada.[2] Para 1993 Se tramita el ingreso a la OCDE (Organización para la Cooperación y el Desarrollo Económicos) y esto obliga a la nación a realizar los cambios que se requieren para pertenecer a esta.[3] 1. Aboites, Hugo (2012) “El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del siglo XXI” en Revista Mexicana de Investigación Educativa, no.53 Abril. Junio, pp.366 2 Aboites, Hugo (2012) “El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del siglo XXI” en Revista Mexicana de Investigación Educativa, no.53 Abril. Junio,. 372 3. Aboites, Hugo (2012) “El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del siglo XXI” en Revista Mexicana de Investigación Educativa, no.53 Abril. Junio,, 372 451 Sin embargo el ser parte de esta organización no ha garantizado nada en aspectos de educación según los resultados de las evaluaciones PISA[4] publicados por ADN[5] político de CNN.[6] Figura 1. Resultados de Examen evaluación PISA 2012. Apoyando lo anterior Cornejo comenta: Respecto de estos últimos aspectos un indicador elocuente son los bajos resultados obtenidos por los estudiantes de todos los países latinoamericanos en las pruebas estandarizadas como PISA (por sus siglas en inglés, Programme for International Student Assessment) y TIMSS (Trends in International Mathematics and Science Study) si se los compara con Europa y países del sudeste asiático. (Cornejo, 2012: 23) Panorama actual Las últimas décadas se caracterizan por una serie de cambios profundos en todos los ámbitos humanos, y evidentemente la educación no queda fuera, se comienza a escuchar el concepto de globalización. Cornejo (2012) menciona como algunas consecuencias de la globalización, a una sociedad regulada por el mercado, surgimiento de las sociedades del conocimiento, transformación de la naturaleza del trabajo, uso intensivo de nuevas tecnologías, mundialización del estilo de vida, expansión de las comunicaciones.[7] 4. por sus siglas en inglés, Programme for International Student Assessment 5. aDn político, Sección de CNN.com 6. Cable News Network (en español: Cadena de Noticias por Cable), más conocido por sus siglas (CNN) 7. Cornejo Espejo Juan (2012) “Retos impuestos por la Globalización a los sistemas Educativos Latinoamericanos” en Revista Mexicana de Investigación Educativa, no.52 Enero - Marzo, pp.17,18 452 Así a través del tiempo la educación en México, principalmente el nivel básico, ha sufrido el embate del autoritarismo, de los acuerdos internacionales y por último las exigencias y competencias de la globalización. (Cornejo, 2012:17,18) Bajo este contexto educativo, es difícil observar siquiera una concepción de educación integral, que considere aspectos de desarrollo artístico, deportivo y cultural. Tenemos como país, una estructura todavía muy tradicional y anticuada en los procesos de educación y de enseñanza aprendizaje, estos no permiten en cierto sentido, que se desarrollen otros aspectos que los seres humanos necesitamos habilitar, específicamente el aspecto de la creatividad. La educación tradicional[8] deja poco espacio para lo improvisado e imaginativo, inclusive cuando un niño se atreve a romper las reglas del salón, haciendo cosas que evidentemente se desarrollan de manera creativa, se le etiqueta o en el peor de los casos, se llega a discriminar, porque simplemente se sale de las “reglas establecidas” dentro del salón. Dr. Mauro Rodríguez Estrada fundador de AMECREA (Asociación Mexicana de la Creatividad) comenta, “Es común decir, que a lo largo de los últimos siglos la educación escolar, no solamente en las escuelas sino como sistema, ha sido parcial o miope… Se ha preocupado tanto de los aspectos racionales y lógicos, que ha descuidado aspectos emotivos y creativos” (Rodríguez, 1997: 6) Es imperativo que en los intentos de reconstrucción nacional se incluya la educación, pero no sólo en cuestiones de número de ingreso, sino que se ofrezca una educación abierta a la creatividad e inteligencia, para poder tener una participación ciudadana y democrática. (Aboites 2012:85)[9] La clave entonces, es tener una educación en la que converjan ambos aspectos lo creativo e intelectual. El ser humano es un ser integral y en la actualidad la cuestión artística se ha menospreciado. 8. El modelo educativo tradicional se centra en la elaboración de un programa de estudios, sin demasiados elementos adicionales ya que no se tienen en cuenta de forma explícita las necesidades sociales ni la intervención de especialistas, entre otros factores. Toda la información en: Definición de modelo educativo - Qué es, Significado y Concepto http://definicion.de/modelo-educativo/#ixzz3bOYwhSIm 9. Aboites, H. (2012) “El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del siglo XXI” en Revista Mexicana de Investigación Educativa, no.53 Abril. Junio, pp.85 453 Un aspecto importante que no se puede dejar pasar, es el fenómeno de la globalización, con sus consecuencias y bondades sin embargo, para nuestro país, es mucho más fácil que esto nos golpee de manera negativa, debido a que se necesita también voluntad política para hacer cambios significativos de fondo. Si el mercado laboral es el que está marcando los lineamientos a futuro,[10] este buscará implementar y apoyar los conocimientos que le permitan continuar con este proceso de control económico, y definitivamente el aspecto creativo o artístico, no está (al menos para nuestro país) dentro de esta planeación respaldando esta idea, Waisburd, G. y Sefchovich G. (1997) comentan: “Uno de los objetivos de la educación es el desarrollo de las habilidades, potencialidades y los valores tanto personales como universales. La expresión plástica, concebida dentro de un marco filosófico y metodológico para el desarrollo personal, debería ocupar un lugar tan importante en el currículo como las matemáticas, porque cumple con el objetivo de desarrollar las habilidades, las potencialidades y los valores personales. El potencial creativo es innato y está en espera de las condiciones para desarrollarse.”(p.12,13)[11]2 Como docentes podemos darnos cuenta que este potencial está ahí, sin embargo, vale la pena reconocer lo que están haciendo los medios de comunicación (en un mundo globalizado) con la niñez y juventud de nuestro país, es probable que la capacidad creativa se estanque o se quede sepultada, pues como se alcanza a percibir, solamente se están generando seres pasivos, observadores más que transformadores. En un mundo sin fronteras culturales, se están formando criaturas violentas, consumistas, obesas, sin capacidad de analizar, criticar, reflexionar, y mucho menos de ser creativos o propositivos. Una educación en la que el interesa es sólo privilegiar la repetición, la memorización, la violencia etc. Y no la formación integral de los individuos, las nuevas generaciones se están convirtiendo en personas solitarias y sin herramientas para expresarse no sólo de manera verbal sino a través de otras formas o maneras como pueden ser las bellas artes.(Galeano,1995)[12], apoyando esta idea Waisburd, G. & Sefchovich G.(1997) dicen: “Hemos observado que los niños de nuestra época son más proclives a percibir pasivamente con sus cinco sentidos en lugar de expresar de forma constructiva sus ideas, sentimientos, impulsos y fantasías. Los 10. Cornejo Espejo Juan (2012) “Retos impuestos por la Globalización a los sistemas Educativos Latinoamericanos” en Revista Mexicana de Investigación Educativa, no.52 Enero - Marzo, pp.17,18 11. Waisburd, G. y Sefchovich G. (1997) Expresión plástica y Creatividad. Guía didáctica para maestros. (2ª. Edición). México: Ed. Trillas. P. 12, 13 454 niños viven prácticamente “conectados” a la televisión, a la radio y a la computadora como si fueran sólo receptores de estímulos, puesto que la mayor parte del tiempo no expresan ni desarrollan su potencial creativo.” La presencia abrumadora de las nuevas tecnologías en lo cotidiano, en esencia representa ventajas en muchos aspectos de nuestra vida, sin embargo, es preocupante que puede provocar efectos comentados anteriormente. Anzaldúa, (2012).[13] sostiene que: “Cada persona tiene habilidades diferentes y eso las hace formular sus ideas de manera singular en cuestión del dibujo, la habilidad para sintetizar y a su vez simplificar, nuestros aprendizajes interfieren en la manera en como vemos, es decir vamos guardando imágenes y conceptos básicos que se estructuran, en los primeros años de edad estos se asocian quizás a valores morales, como por ejemplo pelota – juego, llorar – tristeza. Así también trazos largos o cortos que pueden representar brazos o pies, estas imágenes que tenemos almacenadas interfieren en nuestra manera de observar y por lo tanto en el dibujo.” En estas condiciones de los inminentes efectos en la educación algunas preguntas que deben hacerse los involucrados (docentes, alumnos y padres de familia) acerca de los procesos educativos son: ¿Qué es lo que se está observando? ¿Qué es lo que se está almacenando en la cabeza de los niños si sólo están conectados a medios electrónicos? Se está perdiendo esa capacidad de sintetizar y simplificar como asegura Anzaldúa (2012) Es lamentable ver como se está desperdiciando los mejores años de la vida de los niños, para poder potencializar su capacidad creativa e innovadora a través de la expresión plástica, se están alimentando la violencia, el desamor a la vida, falta de valores a través de las caricaturas, videojuegos y programas televisivos. Al menoscabar lo creativo o artístico, se deja de lado que las artes o la expresión plástica son una buena forma de ayudar al desarrollo integral de las personas. Las habilidades artísticas y creativas suscitan el desarrollo psicomotor, visual, estético, coadyuvando al mismo tiempo la capacidad de síntesis y análisis e interpretación de la realidad. Las Tecnologías de la Información y la Comunicación no solamente están aislando a las personas de una interacción sana y una socialización adecuada, sino que también están haciendo creer que es la única herramienta con 13. Anzaldúa Uribe Enrique (2012). “Aprender a ver a través del dibujo” Boletín Espacio Diseño 203, Marzo 2012. Pp. 26-31 455 la que se puede crear o plasmar una imagen, olvidando que la creatividad es un potencial que todos poseemos pero que simplemente el uso y abuso de las TICS han ayudado a que este dormida o a punto de expirar. La educación bajo el contexto global, está focalizada en las tecnologías de y para la producción, desafortunadamente poniendo más atención en los aspectos que proveen mayor rentabilidad y ganancia económica, (de acuerdo con las leyes de mercado) y se están formando redes e interacciones de aprendizaje, mediante las cuales se fortalecen la capacidad científicotecnológica, para incrementar la productividad y competitividad de las industrias.[14] Como se observa pese a todos los cambios que han acontecido históricamente y en los últimos años por la globalización, la educación en México en los diferentes niveles sigue siendo tradicional y mediocre lo que provoca estancamiento en el crecimiento del país, en la evaluación, la vinculación, la investigación, y en los aspectos que potencian el desarrollo de la creatividad, queda menos claro cómo la enseñanza del arte y la creatividad está dentro de los “planes de educación” en México y si se apostará a ella como una manera de integrar la formación en los niños y adolescentes mexicanos. Con base a las aportaciones de Esteve, Cox y Vázquez, Miranda (2010[15] concluye en el capítulo que denominado, La reforma curricular de la educación básica que: “Durante los últimos 20 años se han hecho diversos esfuerzos curriculares y de política para enfrentar lo que puede denominarse los grandes retos del siglo XXI (Esteve, 2004). Se trata de problemas heredados por casi un siglo de expansión de la escolarización de masas que el país experimentó en el siglo pasado, cuya orientación educativa siempre estuvo a merced de las necesidades de legitimación y, muy poco, en la órbita de la calidad de los resultados educativos (INEE 2004)[16] Problemas derivados del predominio de esquemas verticales y centralizadores, y soportados por un fuerte dispositivo burocrático que tuvo repercusiones de largo plazo en los estilos de enseñanza, procesos de aprendizaje y resultados educativos. Los esfuerzos de transformación curricular en el siglo XXI han buscado sin lograrlo, resolver el modelo predominantemente verbalista, la memorización mecánica del conocimiento, las lógicas autoritarias de 14. Vega Jurado, Jaider et al (2011) “Las relaciones universidad – empresa: tendencias y desafíos en el marco del espacio iberoamericano del conocimiento” en Revista Iberoamericana de Educativa, no.57 Septiembre – Diciembre 15. Miranda L.F (2010) “Los grandes problemas de México” VII EDUCACIÓN, pp.52 Vázquez, R., 2005. La escuela a examen. Las reformas educativas, más de cuatro décadas de fracasos, Observatorio Ciudadano de la Educación V (1), en <http:// www.observatorio.org/colaboraciones/vazquez.html>. 16. El Instituto Nacional para la Evaluación de la Educación (INEE) 456 la pedagogía escolar, la desvinculación de la realidad social y de la situación de los educandos, el carácter poco significativo de los contenidos educativos para los estudiantes, el carácter enciclopédico, la sobresaturación de contenidos y la desvinculación que tienen entre sí, la desarticulación entre los contenidos de los diferentes grados y los ciclos escolares, y la desvinculación de los contenidos educativos respecto a las diferentes regiones del país. (Cox, 2001, Vázquez, 2005)” Uno de los grandes desafíos que enfrenta México es la educación, una educación que no puede despegar, que sigue atada a costumbres y tradiciones retrogradas, con grupos de interés marcados que han aparecido en el debate curricular y pedagógico. Bajo esta perspectiva Miranda L. F (2010) comenta: “Al respecto, conviene subrayar como un elemento característico de las Reforma Educativas de los últimos 20 años en México la construcción de acuerdos o pactos políticos de segundo orden y que aluden a espacios de negociación acotados en específico a los objetivos y estrategias fundamentales de la reforma educativa.[17] Estos acuerdos solamente muestran un botón de lo que realmente pasa en nuestro país no existe un plan claro de hacia dónde se quiere llevar la educación. La educación en México ha tenido un papel desafortunado, desde sus inicios, se han realizados una serie de reformas siempre con intención de lograr una educación de calidad, con mejor desempeño por parte de maestros y alumnos, sin embargo la realidad es muy diferente, como lo demuestran la prueba PISA (2012) así como los informes de la Organización para la Cooperación y el Desarrollo Económico (OCDE) “México se ubica entre las cinco naciones con el mayor porcentaje de alumnos con baja calificación, pues 52 por ciento no han logrado concluir su formación media superior”.[18] De frente a un mundo global, la educación en México, se percibe con aires de incertidumbre y desaliento, pues, somos un país inserto en la globalización, solo de nombre pero sin características intrínsecas de peso. Mientras no se analice la educación bajo el contexto socio - económico de nuestro país, sin buscar modelos que no tienen nada que ver con nuestra cultura, los intentos por tener una educación de calidad e integral serán sólo eso, intentos. Miranda (2010) comenta: “....Por último, será fundamental avanzar en la construcción de dispositivos institucionales que permitan un nuevo esquema de revisión, 457 actualización y mejora continua de las propuestas curriculares para evitar la politización extrema del debate sobre las reformas gubernamentales en cada sexenio. Ello deberá abonar a la constitución de una línea curricular sólida en las políticas de Estado para dar continuidad a las acciones en el tiempo, fortalecer gradualmente los avances y mejorar sustancialmente los resultados educativos en las próximas generaciones.” Además, si la educación formal tiene tantas carencias y atrasos, es evidente que en cuestiones de desarrollo creativo estamos muy por debajo de lo que en países de primer mundo como Estados Unidos, Suecia, Canadá, Dinamarca entre otros se está trabajando al respecto desde hace años. Fe de esto es el estudio realizado por la Agencia Ejecutiva en el Ámbito Educación, Audiovisual y Cultural realizo en diferentes países con respecto a la educación artística y cultural en el contexto escolar europeo: “.....El lugar que ocupan las materias artísticas en los currículos nacionales refleja la prioridad que se otorga a la educación artística en los niveles de primaria y secundaria inferior. Muchas voces afirman que la educación artística puede contribuir a lograr un entorno creativo de aprendizaje en los centros educativos, especialmente si las materias artísticas se integran en el currículo y si se dedica un número de horas suficiente a la educación artística (KEA European Affairs, 2009). Sin embargo, también se alega que una educación artística de mala calidad puede obstaculizar el desarrollo de la creatividad.....” (Bamford, 2006, 144)[19] Llama la atención el hecho de que se considere un obstáculo en el desarrollo creativo la mala educación artística, en ese sentido en nuestro país nos encontramos bajo circunstancias difíciles, pues los docentes se enfocan a cumplir únicamente con los programas establecidos en el plan de estudio, lo que provoca que difícilmente puedan abordar temas o cuestiones artísticas, y, si de manera fortuita lo llegan a hacer, será de mala calidad y sin un sustento teórico practico adecuado. Algunos de los proyectos enfocados en la educación artística que se tienen en los países Europeos son: En Reino Unido (Inglaterra), el Departamento de Infancia, Centros Educativos y Familias publicó un “Plan para la Infancia” (DCSF 2007) que establece el derecho de niños y jóvenes de todos los entornos socioculturales a participar en actividades de alta calidad, tanto escolares como extraescolares. 458 Este plan prevé la introducción de cinco horas de cultura a la semana, que se organizarán de acuerdo con el currículo nacional y las actividades de las Creative Partnerships (Colaboraciones Creativas). Esta oferta cultural se describe con detalle en el documento que presenta la nueva estrategia del gobierno para promover la creatividad (DCMS 2008) y que enumera las oportunidades que dicha oferta debe proporcionar a todos los jóvenes ingleses: asistir a representaciones de alta calidad; visitar exposiciones, galerías y museos; realizar visitas a lugares del patrimonio; utilizar los servicios de archivos y bibliotecas; aprender a tocar un instrumento musical; practicar la música o el canto; asistir a representaciones teatrales y de danza; participar en actividades de creación literaria y encuentros con autores; familiarizarse con las técnicas cinematográficas, las herramientas digitales y los nuevos medios de comunicación y utilizarlos; producir una obra de arte visual o una pieza de artesanía. Además, se establecerá un fondo para la cultura de los jóvenes (Youth Culture Trust) con el que gestionar proyectos piloto destinados a desarrollar esta nueva oferta en diez regiones del país durante los próximos tres años. Debe darse prioridad a los jóvenes dotados y con talento y a los alumnos con necesidades educativas especiales.[20] Es importante hacer una pausa y reflexionar acerca del papel de la educación artística y su desempeño en la creación de competencias para la vida en los niños y jóvenes de nuestro país, sobre todo de frente al siglo XXI. Cuando la UNESCO (1999)[21] una de las organizaciones más interesada en ello pide a todas las partes interesadas del ámbito de la educación artística y cultural que hicieran lo necesario para garantizar que la enseñanza artística ocupara un lugar especial en la educación de todos los niños y niñas, desde la guardería hasta el último año de la enseñanza secundaria, muestra un interés genuino por el desarrollo integral de los niños debido a que se entienden y se conciben los beneficios positivos de estas medidas, sin embargo, cabe mencionar la importancia de que exista voluntad política, respeto y responsabilidad por parte de las autoridades correspondientes para entender y visualizar los frutos de generaciones que desarrollen sus capacidades y habilidades creativas, llegando a ser un detonante del talento que sin lugar a dudas existe en nuestros niños y jóvenes mexicanos y que definitivamente impactaría directamente en el desarrollo de nuestro país. Conclusion Lamentablemente el desarrollo creativo no es algo que este dentro de las prioridades educativas, en nuestro país se está olvidando algo que Viktor Lowenfeld (1973)[22] menciona: 21. UNESCO, Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. 22. Lowenfeld V. (1973) El niño y su arte (8 impresión).Argetina; Ed.Kapelusz p.8 459 “¿Porque es tan importante que los niños consigan crear algo? La razón es que ellos tienen el derecho a ser felices… deben desarrollar sus pensamientos y sentimientos respecto de si mismos y de todo lo que les rodea… deben desarrollarse equilibradamente, sabiendo utilizar de igual modo su capacidad de pensar, de sentir, de percibir.....” Para nuestros niños el arte puede ser la válvula reguladora entre el intelecto y sus emociones. ” Bajo este contexto, en el que la enseñanza del arte, la creatividad, así como las disciplinas que se derivan de ellas no representan una prioridad para el currículo de la educación básica y media superior es que la Universidad (UAM-A) recibe a la mayoría de los alumnos que ingresan a las carreras de Diseño, con muchos deseos de aprender, de innovar y crear, pero sin las herramientas de formación básicas necesarias en las áreas de arte , cultura, percepción, observación, dibujo lo que coloca a los maestros de la UAM-A con un doble trabajo y un enorme reto como docentes, pues no solamente se deben dar los fundamentos teóricos del Diseño, sino a la par habilitar o desarrollar esa capacidad creativa, buscando innovaciones no solo en la pedagogía sino en los métodos didácticos empleados hasta hoy. Buscando a través del trabajo colaborativo,[23]1la reflexión, el análisis y la crítica constructiva, llevar a los alumnos a un aprendizaje significativo.[24] Referencias [1] Aboites, Hugo (2012) El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del siglo XXI Revista Mexicana de Investigación Educativa, no.53 Abril. Junio [2] Anzaldúa Uribe Enrique (2012). Aprender a ver a través del dibujo Boletín Espacio Diseño 203, Marzo 2012. [3] Cornejo Espejo Juan (2012) Retos impuestos por la Globalización a los sistemas Educativos Latinoamericanos. Revista Mexicana de Investigación Educativa, no.52 Enero - Marzo, [4] Galeano, E. (1995) Comunicación desigual Revista Académica del Departamento de Política y Cultura, Mitos y Realidades en América Latina hoy. No. 8, Primavera 1997, [5] Lowenfeld V. (1973) El niño y su arte (8 impresión).Argetina; Ed.Kapelusz p.8 [6] Miranda L.F (2010) Los grandes problemas de México VII EDUCACIÓN, [7] Vázquez, R., 2005. La escuela a examen. Las reformas educativas, más de cuatro décadas de fracasos, Observatorio Ciudadano de la Educación V (1), en <http:// www. observatorio.org/colaboraciones/vazquez.html>. 23. En su sentido básico, aprendizaje colaborativo (AC) se refiere a la actividad de pequeños grupos desarrollada en el salón de clase. 460 [8] Vega Jurado, Jaider et al (2011) Las relaciones universidad – empresa: tendencias y desafíos en el marco del espacio iberoamericano del conocimiento Revista Iberoamericana de Educativa, no.57 Septiembre – Diciembre [9] Waisburd, G. y Sefchovich G. (1997) Expresión plástica y Creatividad. Guía didáctica para maestros. (2ª. Edición). México: Ed. Trillas. http://eacea.ec.europa.eu/education/ eurydice.../documents/thematic_reports/113ES.pdf [10] Educación tradicional | La Guía de Educación http://educacion.laguia2000.com/tiposde-educacion/educacion-tradicional#ixzz3bCUyrDDf 461 “La Ruta de la Amistad” de la XIX Olimpiada de la Ciudad de México; cambios y transformaciones hasta el presente Segismundo Engelking Keeling, Carolina Engelking de Vicenzo Departamento de Ciencias y Artes para el Diseño, CyAD, UAM-Azcapotzalco Planeación y Conservación de Jardines y Paisajes. Resumen Esta presentación trata en forma general de los cambios que han sufrido los Monumentos de la “Ruta de la Amistad” y sus entornos paisajísticos, como producto de la construcción del puente elevado del tramo suroeste del anillo periférico de la Ciudad de México, que se han observado hasta finales del año de 2014, bajo la consideración de que el proceso no ha llegado a su término y que aún las modificaciones y cambios continuarán, como parte del futuro desarrollo de las obras de construcción de los tramos faltantes del puente elevado de de la sección oriente del tramo sur del Anillo Periférico de la Ciudad de México. Abstract The intention of this presentation is to give a general account of the changes that the Monuments that comprise the Olympic “Route of Friendship” and their scenic surroundings, have suffered until the end of the year 2014, as a result of the construction of the southwestern section of the elevated motor beltway of Mexico City, considering that the process has not ended and that further changes are expected as part of the future development of the yet not built southeastern portion of the elevated beltway. Introducción Hablar de la Ruta de la Amistad es hablar de las Olimpiadas de la Ciudad de México de 1968, de una gesta que ciertamente dejó su huella en la historia del México contemporáneo por ser las primeras y únicas que se han realizado en América Latina, a la fecha, pero también porque se llevaron a cabo en el mismo tiempo en el que se observaba un movimiento estudiantil de proporciones internacionales que afectaba a universidades y ciudades a ambos lados de la cortina de hierro, culminando en muchos lugares en sangrientas represiones, entre las que resalta la matanza del 2 de octubre en Tlatelolco. Pero se debe ver a las Olimpiadas también como un catalizador que dio un nuevo impulso al quehacer arquitectónico y artístico en México, que a unos quince años de la terminación de Ciudad Universitaria, ya comenzaba a dar muestras de un desgaste que se evidenciaba en una creciente repetición de formulas dadas. De este impulso y bajo la dirección del Arq. Pedro Ramírez 462 Vázquez, Presidente del Comité Organizador de los Juegos Olímpicos de México, se construyeron entre 1965 y 1968 las instalaciones olímpicas, incluyendo conjuntos tan novedosos como la Alberca Olímpica, el Palacio de los Deportes, la Pista de Canotaje de Cuemanco y la Villa Olímpica. Al mismo tiempo se realizaron como evento paralelo las Olimpiadas Culturales, que a su vez constituyeron una novedad en el Movimiento Olímpico mismo, y ofrecieron al pueblo mexicano una enorme variedad de manifestaciones culturales de los más apartados rincones del planeta, incluyendo muestras de pintura, de danza, teatro, gráfica, música y otras, incluyendo naturalmente de escultura. La actividad escultórica más importante que se realizó durante las Olimpiadas de 1968 tuvo su culminación en el encuentro internacional de escultores que se realizó en junio de 1968, y quedó plasmada físicamente en la “Ruta de la Amistad”, ambas fueron concebidas, organizadas y llevadas a feliz término bajo la dirección del escultor Mathias Göerítz, quien en la sesión inaugural del encuentro puntualizó proféticamente: “Los alrededores vitales del hombre moderno son cada vez más caóticos. El aumento de la población, la socialización de la vida y el avance acelerado de una época tecnológica han creado un ambiente de confusión general. La fealdad de muchos elementos utilitarios indispensables y de los anuncios comerciales aplasta los núcleos urbanos, especialmente en los suburbios y en las carreteras. Éstas últimas, en el siglo de la velocidad del automóvil, han adquirido un significado que nunca tuvieron. Urge por lo tanto una planificación artística al urbanismo contemporáneo y a las vías de comunicación.” Este pronunciamiento engloba los ideales y los criterios que llevaron a la materialización del proyecto de la Ruta de la Amistad. En 1966, Göeritz propuso al Comité Organizador de los Juegos construir en el tramo sur del Anillo Periférico, en ese momento de muy reciente tendido, una serie de esculturas, cuyas dimensiones permitieran su observación desde el automóvil y colocadas a separaciones de un kilómetro y medio, más o menos, entre sí. Estas esculturas serian diseñadas por escultores de renombre de diferentes países, pero serían construidas por trabajadores y con el apoyo de arquitectos e ingenieros mexicanos, utilizando tecnología del concreto armado por razones de economía. El proyecto de la Ruta de la Amistad sufrió, bajo la dirección de la Arquitecta Ruth Rivera, muchas modificaciones y ajustes, tanto de ubicación como de dimensionamiento y conformación de las esculturas mismas. En algunas instancias se construyó sobre predios privados y en otras hubo cambios de posición. Pero en todos los casos los escultores estuvieron presentes durante la 463 construcción de sus proyectos y todos vieron las formas terminadas, aunque la selección final de color debió recaer en Mathias Göeritz (probablemente con ayuda del pintor Chucho Reyes), ya que la mayoría de los escultores regresaron a sus países antes del inicio de los Juegos. El impacto del ejercicio de la “Ruta de la Amistad” fue ambivalente. Por una parte fue elogiada y pasó a considerarse como una de las más importantes manifestaciones culturales físicas de la Olimpiada y por otra acremente criticada, como en el caso del escultor Mohamed Melehi, quien en rueda de prensa denunció que Göeritz había reducido contra su voluntad las dimensiones de su pieza. Pero sea como fuere, la Ruta de la Amistad fue entregada a tiempo para los Juegos y todo mundo pudo gozarla trasladándose de una estación a otra, y las esculturas han perdurado, con mayor o menor éxito, hasta nuestros días. Para entender mejor su situación actual, conviene conocer las condiciones bajo las cuales se desarrolló el proyecto. 1.- Una de las principales del tendido del tramo sur del Anillo Periférico fue en previsión de la aceptación de la Ciudad de México como sede de los juegos de 1968, considerando que debía existir un acceso franco y fácil de las principales instalaciones deportivas, que para el efecto se ubicarían en la vecindad de éste tramo, incluyendo Ciudad Universitaria, el Estadio Azteca, la Villa Olímpica y la Pista de Canotaje de Cuemanco, donde el tramo del Periférico quedó interrumpido (en 1980 apenas comenzaba a construirse el tramo que comunicaría con Pantitlán y el Aeropuerto Central), de manera que la mayoría de las actividades tuvieron efecto en torno a ésta columna vertebral, con notables excepciones como las ocurridas en el Palacio de los Deportes y en la Alberca Olímpica (entre otros que se encuentran más alejados). La extensión de este tramo del Anillo Periférico es precisamente la de la Ruta de la Amistad. 2.- Este tramo del periférico se trazó por 1964, en un momento en el que aún, prácticamente no existía construcción en la zona, a no ser por la existencia de algunos pequeños núcleos de población cercanos como Tepepan, Huipulco, Tlalpan, San Jerónimo Lídice y la Fábrica de Papel de Loreto y Peña Pobre, colindante con las ruinas preclásicas de Cuicuilco, que se encuentra en el cuadrante sureste del cruce de la nueva vialidad con la Avenida de los Insurgentes, por lo que el paisaje que se apreciaba era de campo abierto, el cual se dividía en dos tramos con características totalmente diferentes: A), de la Glorieta de San Jerónimo a la Calzada de Tlalpan, yendo de poniente a oriente, se tenía un paisaje de pedregal de lava basáltica proveniente de la erupción del Volcán Xitle (de hace unos dos mil años) y con una vegetación endémica muy variada, incluyendo de cactáceas y gramíneas, hasta tupidos encinares, todo más o menos intacto, y B), de Calzada de Tlalpan hasta Cueman464 co, con campos de labor por irrigación, con aguas provenientes de las vecinas chinampas de Xochimilco. Por lo anterior, el tendido del Anillo Periférico conformó un paisaje abierto y sin accidentes geográficos importantes y ni siquiera masas arbóreas que impidieran la apreciación de las esculturas que se colocarían a lo largo de la Ruta, pero que sí cambiaba drásticamente en cuanto a textura de tramo a tramo. Así, trece de las veintidós esculturas realizadas se construyeron sobre el Pedregal, seis sobre campo que fue agrícola y las tres restantes en otros puntos de la Ciudad. 3.- Las esculturas, como ya se mencionó, fueron construidas en concreto armado bajo la dirección de cada artista, pero con asesoría estructural y constructiva proporcionada por ingenieros del Comité Olímpico, quienes fueron los responsables de la adopción de los sistemas constructivos específicos, teniendo en cuenta tres criterios: solución del problema estructural específico generado por la forma propuesta; consideraciones de economía, refiriendo siempre a lo que se podía y no se podía hacer con mano de obra tradicional; y consideraciones de tiempo para cumplir con los límites de tiempo a que obligaba la entrega de las instalaciones previo a los Juegos. Esto llevó a la adopción de tres sistemas constructivos básicos: colado de elementos monolíticos con refuerzo de acero estructural y cimbra de madera; concreto lazado sobre malla de tela de gallinero ó similar, fijada a malla electrosoldada con barras de 3/16” de diámetro, con soportes de soleras y viguetas “I” de diversas dimensiones; y combinaciones de los anteriores. La única estructura que escapa de éste esquema es la de Alexander Calder, frente al Estadio Azteca, que es de planchas de acero. De tiempos de la hechura de las estructuras de la Ruta de la Amistad, las condiciones han cambiado drásticamente, por una parte porque la Ruta de la Amistad adquirió una segunda función, al principio no considerada, como detonador para la urbanización de toda la zona por la que pasaba. En esto fue tan eficiente, puesto que prácticamente no existe ya rastro del paisaje original, mismo que fue sustituido por construcciones bajas en su mayoría, aunque crecientemente con edificios altos, entre los que reina una mediocridad pasmosa, en directo contraste con las esculturas de la Ruta. A lo anterior hay que agregar que se dio el crecimiento de una masa arbórea importante en los camellones y banquetas de la Ruta, compuesta principalmente por fresnos, eucaliptos y pirules, así como la proliferación de anuncios espectaculares e incluso de edificaciones realizadas por las mismas autoridades del Distrito Federal, como estaciones de bombeo de agua, puentes peatonales, etc., todo puesto sin consideración alguna por la escala, las visuales convenientes para la apreciación de las esculturas, o por su misma existencia. Pero el colmo de ésta patética situación fue la construcción del circuito 465 elevado de la sección sur del Anillo Periférico de la Ciudad de México, que actualmente tiende de la glorieta de San Jerónimo, hasta el entronque del Periférico con Calzada de Tlalpan, pero que eventualmente se extenderá más allá de la zona lacustre que aún subsiste de Cuemanco. Este circuito fue proyectado y construido sin la menor consideración por la existencia de las estructuras de la Ruta de la Amistad, por lo que un buen número quedó en eminente peligro de demolición, mismo que se pudo evitar por la pronta acción de la Fundación MÉXICO 68 A.C., bajo la dirección del M. Arq. Luis Javier de la Torre y el patrocinio del mismo Arq. Pedro Ramírez Vázquez, mediante el desarrollo de un plan maestro de reubicación de muchas de las esculturas a posiciones más seguras, lo cual significó su separación de los cimientos originales y su traslado, a veces completas, a veces en partes, e incluso una totalmente demolida, para luego ser levantada sobre cimientos de nueva fabricación en nuevas ubicaciones, en ocasiones poco favorables. El resultado es que la percepción del espacio de la época de las Olimpiadas ya no existe y con ello la razón de ser de las esculturas cayó por largo tiempo en un vacio de desinterés y olvido. Actualmente el Patronato de la Ruta de la Amistad, con apoyo del Instituto de Bellas Artes y Literatura y el Gobierno del Distrito Federal, tiene el objetivo de rescatar las esculturas, dándoles mantenimiento y buscando para cada una un patrocinador que se haga cargo de su conservación a futuro. Este esquema promete buenos resultados, pero también genera observaciones importantes; a continuación se hará un breve análisis de cada escultura, de lo que se haya logrado en cada caso y los problemas que se observan, que a veces adquieren proporciones de tragedia. La ubicación de las esculturas obedece al criterio de que debían poder ser vistas al lado derecho de un automóvil que se moviera con dirección al centro del conjunto olímpico, que se encuentra en la Villa Olímpica, la cual se construyó en el cuadrante sur poniente de la Ruta con la Av. de los Insurgentes, frente a la Fábrica de Papel de Loreto y Peña Pobre, de manera que las esculturas (también conocidas como estaciones) que se ubicaran al poniente de la Villa Olímpica quedarían en el costado sur y poniente de la Ruta, mientras las que quedaran al oriente de la misma se ubicarían en el costado norte de la misma de la Ruta, lo cual generalmente se respetó. En esta presentación, por consideraciones de extensión del texto, se analizarán las condiciones en que se encontraban entre 2011 y la actualidad, antes y durante el proceso de obra del Puente Elevado, y sólo las esculturas que estaban ubicadas al poniente de la Villa Olímpica, sumando nueve; de las remanentes diez ubicadas al oriente de la Villa se presentarán las imágenes con observaciones más breves. No se incluyen, ya que no son estrictamente 466 parte de la Ruta propiamente dicha, las tres que se ubican fuera de la Ruta: la de Alexander Calder, conocida como “El Sol Rojo”, en el Estadio Azteca; la de Germán Cueto, conocida como “El Corredor”, en Ciudad Universitaria, frente al Estadio Olímpico; y la del propio Mathías Göeritz, conocida como “La Osa Mayor”, en el conjunto del Palacio de los Deportes, así como las Torres de Satélite, que habiendo sido construidas en 1957 (Göeritz y Barragán), se consideraron como parte del Corpus Escultórico de la Olimpiada. A.- SECTOR PONIENTE DE LA RUTA DE LA AMISTAD. Ver croquis adjunto A, en que se ubican las nueve esculturas que que lo integran. a. ESTACIÓN N° 1; MÉXICO (Ver imagen 1) • Escultor: Ángela Gurría. • Ubicación: camellón inmediatamente al sur de la glorieta de San Jerónimo, San Ángel, Delegación Magdalena Contreras. • Dimensiones aproximadas: 7.00 x 10,50 x 18.00 m (h). • Patrocinador de conservación: Familia Moisés Cosío (?). Forma de construcción: paredes rectas y curvas de concreto lanzado con malla de acero electrosoldada; acabado: aplanado fino de mortero de cemento; capa pictórica: pintura vinílica para exteriores, en blanco ostión y negro mate (Figura 1). 467 Figura 1. Escultura estación México. Condición actual. (Ver Figura 2) Esta escultura fue retirada de su posición original por quedar en el área de estructuración del puente elevado y tras trabajos de consolidación e impermeabilización en su interior, fue erigida nuevamente en el cuadrante surponiente del trébol de Perisur (Periférico e Insurgentes). En el proceso se perdió la cimentación original, que fue abandonada en su ubicación original, de manera que la escultura se eleva sobre una cimentación nueva. En cuanto a la conformación del paisaje de entorno, aún no se ha retirado el relleno que cubre las formaciones de lava que se tiene la intención de recuperar (ver la Estación N° 7 de Italia), por lo que el conjunto se debe considerar aún como no terminado. Figura 2. Escultura estación México actual. 468 ESTACIÓN N° 2; SUIZA. • Escultor: Willi Gutmann. • Ubicación: camellón frente al N° oficial 3335 del Anillo Periférico, San Jerónimo, Delegación Álvaro Obregón. • Dimensiones aproximadas: 2.00 x 10.50 x8.00 (h). • Patrocinador para su conservación: Cia. Roche Bobois, S.A. Forma de construcción. (Ver Figura 3) Paredes rectas y curvas de concreto armado con malla de acero elecrosoldada. De acabado: aplanado fino de mortero de cemento; capa pictórica: capa gruesa de poliuretano, color azul ultramar. Figura 3 Estación Suiza. Condición actual (Ver Figura 4). Esta pieza, al igual que la anterior fue retirada y colocada nuevamente en el extremo norponiente del trébol de Perisur. No se rescató la cimentación, por lo que se debió hacer una nueva, generando una plataforma nueva con grava suelta de tezontle. Figura 4. Estación Suiza actual. 469 ESTACIÓN N° 3: CHECOSLOVAQUIA • Escultor: Miloslav Chlupac. • Ubicación: camellón en Anillo Periférico esq. con Calle Loma Bonita, San Jerónimo Aculco, Delegación Álvaro Obregón. • Dimensiones aproximadas: 4.oo x 8.00 x 9.00m (h). más 3.00 a nivel de carriles de circulación rápida. • Patrocinador de conservación: no determinado, probablemente Procter & Gamble, S.A. de C.V. Forma de construcción (Figura 5). Base de paredes de concreto armado; pilares de concreto armado con malla electrosoldada; acabado de aplanado fino de mortero de cemento; capa pictórica: poliuretano o similar semi-mate en colores morado y rosa mexicano (dos colores). Figura 5. Estación Checoslovaquia. Condición actual (Ver Figura 6) Los tres elementos de esta escultura fueron retirados de su cimentación mediante el corte de las bases, dejando intacta la cimentación, que aún es visible desde la vía rápida del periférico, se reubicó en el cuadrante norponinete del trébol de Perisur, en la bifurcación entre Insurgentes y la lateral de salida a Periférico, en una solución no muy afortunada. 470 Figura 6. Estación Checoslovaquia actual. ESTACIÓN N° 4; JAPÓN • Escultor: Kiyoshi Takahashi. • Ubicación: camellón en Anillo Periférico, frente al N° oficial 4125, Col. Rincón del Pedregal, Delegación Álvaro Obregón. • Dimensiones aproximadas: 7.50 x15.00 x 7.50 (h). • Patrocinador de conservación: inmobiliaria SARE. Forma de construcción. (Figura 7) Paredes rectas y curvas en concreto armado con acero con acero de refuerzo y probablemente malla electrosoldada. Aplanado: acabado fino en mortero de cemento. Capa pictórica: esmalte para exterior brillante, color blanco marfil. Figura 7. Estación Japón. 471 Condición actual (Figura 8) Este conjunto escultórico, también en el área de tendido del puente elevado, fue retirado y reubicado en el extremo poniente del cuadrante suroriente del trébol de Perisur, para lo que se debió hacer, como en el caso de la de Suiza, una plataforma con una cimentación especial, ya que la cimentación original no se recuperó. Figura 8. Estación Japón actual. ESTACIÓN N° 5; HUNGRÍA-FRANCIA • Escultor: Pierre Szekely. • Ubicación: cuadrante sureste de paso a desnivel de Periférico y Camino al Ajusco, Col. Daniel Cosío Villegas, Delegación Tlalpan. • Dimensiones: 15.00 (plataforma) x 17.00 (plataforma) x 11.50 m (h). • Patrocinador de conservación: Cia. TV Azteca. Forma de construcción. (Figura 9) Concreto armado con acero de refuerzo en bases y malla electrosoldada en cuerpos volados. Acabado: aplanado fino de cemento. Capa pictórica: poliuretano, colores amarillo canario en cuerpo principal. Figura 9. Estación Hungría- Francia. 472 Condición actual (Figura 10) Dado que esta escultura se encuentra fuera del área de tendido del puente elevado, no ha sido tocada, pudiendo considerarse que ésta y su conjunto son los más intactos de toda La Ruta de la Amistad. Figura 10. Estación Hungría- Francia actual. ESTACIÓN N° 6; URUGUAY • Escultor: Gonzalo Fonseca. • Ubicación: cuadrante sureste de paso a desnivel de Periférico y Av. Zacatepetl, Col. Parque del Pedregal, Delegación Tlalpan. • Dimensiones aproximadas: 9.00 x 15.00 x 10.00 (h), (plataforma: 22.00 x 29.00m) • Patrocinador de conservación: no identificado. Forma de construcción(Figura 11). Muros en forma tronco-cónica, de concreto armado, con figuras en concreto lanzado sobre malla de alambre. Acabado: lechada de cemento y aparente en paredes de concreto. Capa pictórica: poliuretano o similar, en color gris cemento. Figura 11. Estación Uruguay. 473 Condición actual (Figura 12) Este conjunto, quedando también fuera de la ruta del puente elevado, también se encuentra prácticamente intacto, y aún se tienen algunos eventos culturales en su interior. Se debe mencionar que tiene varias capas de pintura gris cemento, ya que ha sido frecuente víctima de los temibles grafiteros. Figura 12. Estación Uruguay actual. ESTACIÓN N° 7 ITALIA • Escultor: Constantino Nívola. • Ubicación: paso lateral surponinte del paso a desnivel de Periférico y Av. De los Insurgentes, predio del estacionamiento “Torres del Pedregal”, Col. Parque del Pedregal, Delegación Tlalpan. • Dimensiones aproximadas: 3.00 x 6.00 x 9.00 m (h). • Patrocinador de conservación: no identificado. Forma de construcción (Figura 13) Concreto armado y uso de malla electrosoldada. Acabado: fino con mortero de cemento. Capa pictórica: vinílica para exteriores en colores blanco, verde y colorado. Figura 13. Estación Italia. 474 Condición actual (Ver imagen 14) Esta escultura es la que quizá más ha sufrido de todas las de la Ruta, ya que originalmente fue construida dentro de los límites de una propiedad particular, por lo que se construyó en ésta un estacionamiento sin el menor cuidado por la escultura, que fue finalmente demolida y construida nuevamente en el cuadrante surponiente del trébol de Perisur. En compensación se limpió su entorno inmediato, de manera que se pueden observar las estupendas formaciones de lava. Figura 14. Estación Italia Actual. ESTACIÓN N° 8; BELGICA • Escultor: Jaques Moeschal. • Ubicación: zona arqueológica “B” de Cuicuilco, costado poniente de la Av. De los Insurgentes, entre Anillo Periférico y Villa Olímpica, Delegación Tlalpan. • Dimensiones aproximadas: 16.00 x 2.50 x 18.00 m (h). • Patrocinador de conservación: no identificado. Forma de construcción (Figura 15). Estructuración hueca de concreto armado con malla electrosoldada. Acabado: aplanado fino de mortero de cemento. Capa pictórica: probablemente vinílica para exteriores con colores verde pistache claro y olivo oscuro en capa última. Figura 15. Estación Bélgica. 475 Condición actual (Ver Imagen 16) La escultura se aprecia bien pintada y sin fisuras u otros desperfectos, indicativo de recientes trabajos de consolidación. De la misma manera se han realizado trabajos de ordenamiento del entorno arqueológico en que se encuentra ubicada la escultura, proporcionando un conjunto agradable a la vista y protegido de vándalos Figura 18. Estación Bélgica actual. ESTACIÓN N° 9; ESTADOS UNIDOS DE AMÉRICA • Escultor: Todd Williams. • Ubicación: campus de la Villa Olímpica, Delegación Tlalpan. • Dimensiones aproximadas: 11.00 x 10.00 x 6.00 m (h). • Patrocinador de conservación: no identificado. Forma de construcción (Figura17) Estructuración hueca de concreto armado con malle electrosoldada. Acabado: aplanado fino de mortero de cemento. Capa pictórica. Pintura vinílica para exteriores o similar. 476 Figura 17. Estación Estados Unidos. Condición actual (Figura 18) Este conjunto escultórico es quizá el que mejor ha sobrevivido, tanto por sí, como por la conservación aceptable en que se encuentra el conjunto del Centro Deportivo Olímpico, aunque por su ubicación es con toda seguridad el más escondido y desconocido por el público en general. Figura 18. Estación Estados Unidos actual. B.- SECTOR ORIENTE DE LA RUTA DE LA AMISTAD. Ver croquis adjunto. 477 De las diez esculturas que lo componen, siete se encuentran a lo largo del tramo del Periférico en el que aún no se ha construido el puente elevado, por lo que, aún cuando se removerán eventualmente, por el presente se pueden apreciar en sus ubicaciones originales y con entornos algo cercanos a los originales, con excepción de la escultura de Israel, que sí se debió mover por razones de índole constructiva. Las restantes dos fueron, como la N° 7 de Italia ya mencionada, construidas en propiedad privada, por lo que también han sido ya reubicadas, con en adelante se mencionará. ESTACIÓN N° 10. POLONIA • ESCULTOR: Grzegorz Kowalski. • UBICACIÓN: Cuadrante norponiente del trébol de Perisur. (Figura19). Figura 19. Estación Polonia. Condición actual (Figura20) El conjunto está bien presentado y no tiene problemas para su continuada existencia, ya que se encuentra fuera del paso del puente elevado. Su entorno inmediato presenta una completa recuperación de los relieves de las formas de lava y se tiene la intención de recuperar la vegetación endémica. Figura 20. Estación Polonia actual. 478 ESTACIÓN N° 11. AUSTRALIA • ESCULTOR: Clement Meadmore. • UBICACIÓN ORIGINAL: Anillo Periférico N° 5180 (Colegio Olinca), Col. Pedregal del Sur (Figura 21). Figura 21. Estación Australia. Condición actual (Figura 22) Por encontrarse en propiedad privada la escultura debió retirarse, quedando reubicada en el cuadrante nororiente del trébol del conjunto comercial Perisur, una ubicación que no le favorece mayormente; su entorno no ha sido aún acondicionado. Figura 22. Estación Australia actual. ESTACIÓN N° 12. ESTADOS UNIDOS DE AMERICA. (Ver imagen 23) • ESCULTOR Herbert Bayer • UBICACIÓN ORIGINAL: Anillo Periférico, esquina con Cerrada de Xiximes, Col. Caracol (Figura 23) 479 Figura 23 Estación Estados Unidos de América. Condición actual (Figura 24) Por encontrarse también en propiedad privada, además de ofrecer un pésimo aspecto por su confinamiento, se debió retirar y reubicar en el cuadrante sur oriente del trébol de Perisur, en un lugar que sí hace honor a sus dimensiones. En cuanto a su entorno, es aceptablemente concordante, aún cuando se deberá trabajar un poco más. Figura 24. Estación Estados Unidos de América actual. 480 ESTACIÓN N° 13. HOLANDA • ESCULTOR: Joop Beljon. • UBICACIÓN: área jardinada del cuadrante norponiente del trébol de Anillo Periférico y Viaducto Tlalpan (Figura 25). Figura 25. Estación Holanda. Condición actual (Figura26) Por encontrarse fuera de la ruta del puente elevado no ha sido tocada y se encuentra aparentemente en buenas condiciones, aunque su pintura fue recientemente escarapelada (no muy bien), dejando aparentes algunos fisuramientos en el concreto. Su entorno es inmejorable. Figura 26. Estación Holanda actual. ESTACIÓN N° 14. ISRAEL. (Figura 27) • ESCULTOR: Itzhak Danziger. • UBICACIÓN ORIGINAL: camellón norte del Anillo Periférico, casi esq. con Calle Kobe, Col. Guadalupe (Figura 27). 481 Figura 27. Estación Israel. Condición actual (Figura 28) Esta escultura fue construida con secciones metálicas y malla electrosoldada, con placas de poliuretano para reducir la carga del concreto, formando una estructuración precaria que finalmente debió ser desmantelada. Fue reconstruida totalmente en el cuadrante norponiente del trébol de Anillo Periférico con Viaducto de Tlalpan, desde el cual es muy visible cuando uno viaja con dirección norte a sur, pero poco apreciable desde otros puntos. Su entorno, como en el caso anterior, es abierto y agradable. Figura 28. Estación Israel actual. ESTACIÓN N° 15. FRANCIA • ESCULTOR: Olivier Seguin. • UBICACIÓN: camellón norte del Anillo Perifperico, entre calles Belisario Domínguez y Vicente Guerrero, Col. San Bartolo Chico. 482 Condición actual: (Figura 29) Esta escultura se encuentra olvidada y muy dañada por la intemperización y muestra la estructuración necesaria para su retiro, que deberá ser pronto, aunque no queda claro dónde será reubicada. Figura 29. Estación Francia. ESTACIÓN N° 16. MARRUECOS • ESCULTOR: Mohamed Melehi. • UBICACIÓN: camellón norte del Anillo Periférico, esq. con Av. Acoxpa, Col. Rinconada de Coapa (Figura 30) Figura 30. Estación Marruecos. 483 Condición actual (Figura 31) Se encuentra en buenas condiciones materiales, pero ya se encuentra confinada por una estructura portante, indicativo de su próxima reubicación, aún no determinada. Figura 31. Estación Marruecos actual. ESTACIÓN N° 17. MÉXICO • ESCULTOR: Helen Escobedo. • UBICACIÓN: camellón central del Anillo Periférico, a la altura del acceso vehicular a la pista de canotaje de Cuemanco. Condición actual: (Figura 32) Aún cuando se deberá necesariamente retirar o demoler (dado su gran tamaño) cuando se realicen las obras del puente elevado de Anillo Periférico, actualmente se yergue con gran dignidad en su ubicación original. El entorno es apropiado, si no se fija uno en la estación de peseros vecina, que es un desastre. 484 Figura 32. Estación México. ESTACIÓN N° 18. MÉXICO • ESCULTOR: Jorge Dubón. • UBICACIÓN: plazuela de acceso a la Pista Olímpica de Canotaje de Cuemanco, Xochimilco. Condición actual (Figura 33) Esta escultura se encuentra apartada de la Ruta de la Amistad propiamente, pero formalmente se debe considerar como parte de la misma, ya que marca el acceso a la pista de canotaje de Cuemanco, puesto que aún ocupa con dignidad, aún cuando solitaria, triste y olvidada. Convendría revitalizar su entorno inmediato. Figura 33. Estación México actual. 485 ESTACIÓN N° 19. ESPAÑA (Figura 34) • ESCULTOR: José María Subirachs. • UBICACIÓN: Cuadrante nororiente del trébol de Perisur, muy cercana a la vialidad lateral norte del Anillo Periférico. Condición actual: Esta escultura fue la última en inscribirse en el corpus de La Ruta de la Amistad, por lo que debió construirse a toda prisa, constatable en los colados que dejaron puntas de armado casi en superficie, con la consecuente oxidación de éstas y el estallamiento del concreto de protección, sin embargo, actualmente se observa en magníficas condiciones su entorno inmediato ha sido modificado por la desviación del retorno del trébol dejando un espacio que no sirve más que para caminar por lo que se deberán realizar obras de acondicionamiento más extensas. Figura 34. Estación España. Conclusiones generales Habiendo analizado cada escultura individualmente, trataremos de llegar a conclusiones generales para el conjunto como fenómeno sumatorio. 1. Participación en el ejercicio. Cada artista vino a realizar su escultura en México tanto como individuo como en representación de su país, y el Comité Organizador de los Juegos siguió como criterio para invitar a los distintos escultores el que a su vez cada continente quedara representado. 2. Ubicación y cambios en el entorno. El Comité Organizador de los Juegos dedicó mucho tiempo y esfuerzo para localizar los puntos más apropiados para la construcción de las esculturas y este cuidado ha alcanzado con el tiempo buenos resultados en general, aunque han algunos casos la ubicación ha sido desastrosa. 486 Por otra parte, si la ubicación general de la esculturas fue cuidadosa buscando siempre una integración existente, no se puede decir lo mismo del mantenimiento posterior de estas condiciones, el crecimiento imparable de la mancha urbana en torno del Anillo periférico en la zona sur de la Ciudad ha llevado a condiciones indeseables. 3. Formas de construcción. Un factor determinante en el proceso de deterioro de las esculturas es el método usado en su construcción. Se pudieron distinguir tres forma básicas de fabricación, las cuales fueron seleccionadas en base a la complejidad formal de cada pieza y a la dificultad que ésta representaba para cada estructuración. A. Construcciones de concreto armado monolítico, con alma hueca. Estas edificaciones no tienen problema alguno, a no ser por oxidación de armados, como se pudo apreciar un poco en las Estaciones 12 y 19 y un poco en la 18 por acreciones vegetales. (Ver imagen 35) B. Construcciones de concreto lanzado sobre una armazón d emetal desplegado y malla electrosoldada ¼” de diámetro, reforzado por secciones “I” y canales estructurales de 4” a 6”. Este sistema fue seguramente adoptado por su relativa ligereza, facilidad de construcción, y por su baratura, pero tiene el gran defecto de que en las esculturas en que se usó este procedimiento, el concreto lanzado recubre perfectamente los elementos metálicos por fuera pero los deja expuestos hasta en un 70% en el interior. (Ver imágenes 36, 37, 38) C. Construcciones metálicas, que se reducen a dos: “El Corredor” (N° 20) de Germán Cueto, que es de bronce, “El Sol Rojo” (N° 21) de Alexander Calder, que es de placa y secciones de acero, con uniones de remache y soldadura. Hay que recordar, sin embargo, que éstas estructuras quedan fuera de La Ruta de la Amistad. D. Por cuanto a las formas de cimentación, es interesante mencionar que las de las esculturas que han sido removidas no han sido retiradas ni demolidas, permaneciendo aún en sus posiciones originales, constituyendo para efectos prácticos verdaderos sitios arqueológicos, susceptibles de ser investigados a futuro. (Ver imágenes 39, 40, 41) 487 Observaciónes finales Habiendo estudiado las estructuras que componen ese interesante proyecto, ideado por Mathías Göeritz y realizado como parte de las actividades culturales relacionadas con los XIX Juegos Olímpicos de México, bajo el nombre de “La Ruta de la Amistad”, se llega a la conclusión de que el conjunto reviste una importancia de primer orden en el ámbito mundial, pero que a la vez si se hace una revisión más o menos exhaustiva de la literatura relativa a escultura, se cae en cuenta de que éste casi nunca se menciona, y esto bien debía deberse a la falta de cuidado y de interés de que ha sido objeto por parte de las autoridades de la Ciudad de México hasta recientemente, pero también es cierto que las circunstancias han cambiado de 1968 a nuestros días y un buen ejemplo de esto es el tremendo esfuerzo que ha significado el salvamento de “La Ruta de la Amistad”. Esperemos que ésta mentalidad siga floreciendo. Figura35. Escultura de Uruguay, confrontada por el nuevo Puente Elevado. Figura 36. Detalle tipo de refuerzo de acero. 488 Figura 37. Proceso de reconstrucción. Escultura de Israel. Figura 38. Proceso de reconstrucción. Escultura de Japón. Figura 39. “El Corredor” de Germán Cueto. 489 Figura 40.- Detalle de preparación para transporte. Escultura de Marruecos. Figura 41.- Detalle de reconstrucción. Escultura de Israel. Referencias [1] Noelle L. y C. Tejada, 2002. “Guía: Arquitectura contemporánea, Ciudad de México.” CONACULTA-INBA. México. [2] Duby, Georges y Jean-Luc Daval, 1991; “Sculpture; From Antiquity to the Present Day.” Taschen, Köln. [3] Buendía Júlbez, Jose M., et al. 1996; “Luis Barragan: 1902 – 1988”. Reverte Ediciones, S.A de C.V., México 1996. 490 Diseño de un Artefacto de software para la Visualización Científica de indicadores bioquímicos y clínicos y sus relaciones Jovita Hernández Arista Universidad Autónoma Metropolitana Unidad Azcapotzalco [email protected] Resumen El propósito en esta investigación es diseñar y configurar inteligentemente un conjunto de herramientas de software para observar las relaciones entre diferentes indicadores bioquímicos y clínicos (estos últimos medidos con instrumentos clinimétricos) facilitando la visualización de la información y su análisis desde las perspectivas disciplinares involucradas. Los indicadores y la metodología se determinaron con base en el campo de conocimiento de: Diseño, Psicooncología, Neurociencias y Psiconeuroinmunología (PNI). Es posible diseñar un Artefacto de software para la Visualización Científica con el propósito de organizar y relacionar la información recopilada (cuantitativa, cualitativa) configurando un contexto sistémico de datos para la toma de decisiones disciplinares ampliando las posibilidades de su asimilación en el ámbito experimental propuesto y en otros ámbitos. El Diseño propone la funcionalidad que define la estructura informática; considera los datos de entrada para procesar; combina estrategias y técnicas estadísticas; configura los datos de salida como imágenes para exploración científica. Palabras clave: Diseño, Visualización Científica, Información, Software. Abstract The objective is to design and configure intelligently a set of software tools to observe the relations between different biochemical and clinical indicators (clinical indicators measured by clinimetric instruments) making possible the visualization of information and analysis from the disciplinary perspectives involved. Indicators and methodology was determined based on the knowledge field of: Design, Psycho-Oncology, Neurosciences and Psychoneuroimmunology (PNI). 491 It is possible to design an artefact for Scientific Visualization in order to organize and relate the information gathered (quantitative and qualitative) shaping a systemic setting data context make disciplinary decisions expanding the possibilities of their assimilation into other areas. Design proposes functionality in order to define the information structure; considers the input data for processing; combines strategies and statistical techniques; and configures the output as images for scientific exploration. Key words: Design, Scientific Visualization, Information, Software. Introducción La propuesta de diseñar un Artefacto de software para la Visualización Científica (ArtVIC) busca resolver un problema de investigación específico en un centro hospitalario integral especializado en niños con cáncer en México. A continuación se describe brevemente el problema de investigación. Para comenzar es necesario mencionar el origen de esta investigación que se ha desarrollado en el transcurso de varios años. En un primer momento de la investigación se diseñó un objeto-sistema (Hernández, 2013) como producto digital interactivo para facilitar el cambio de estado emocional en niños de 5 a 7 años de edad, con Leucemia Aguda Linfoblástica (LAL), en tratamiento quimioterapéutico y en larga estancia hospitalaria. Se estableció la metodología científica determinando: el sistema hipotético, la definición operativa de las variables, los indicadores bioquímicos y clínicos a medir, el muestreo, la población, el tipo de estudio y el procedimiento para recopilar los resultados, es decir, se diseñó el experimento que en adelante será denominado DOSDI (Diseño del Objeto-Sistema Digital Interactivo). DOSDI es un entrenamiento emocional y tiene como prioridad coadyuvar al niño en tratamiento quimioterapéutico a cambiar significativamente los estados emocionales de tristeza, ansiedad y miedo por estados emocionales de alegría, tranquilidad y seguridad. Contribuyendo con ello a su bienestar. Ahora en este nivel de desarrollo de la investigación se amplía el horizonte original de la misma al proponer, como se mencionó antes, el Diseño de ArtVIC (Artefacto de software para la Visualización Científica, este artefacto, deberá contar como mínimo con opciones de registro, opciones de interacción de variables, sección de selección de gráficos, opción de impresión, así como de exportación de video) con el objetivo de organizar y relacionar la información recopilada de distintos indicadores bioquímicos (neurotransmisores y cotransmisores) y clínicos (autoinforme, signos vitales) y sus relaciones. Los valores cualitativos (autoinforme) y cuantitativos (neuro492 transmisores, cotransmisores y signos vitales) de los indicadores resultantes del experimento DOSDI serán los datos de entrada con que se alimentará ArtVIC. Desarrollo Esta investigación propone el desarrollo de un producto de Diseño ArtVIC, a partir del desarrollo del experimento denominado DOSDI, posibilitando con su desempeño un vínculo desde el ámbito del Diseño con otros campos disciplinares como la Psicooncología, las Neurociencias y Psiconeuroinmunogía (PNI) en un objetivo de investigación común (observación y análisis de las relaciones entre indicadores bioquímicos y clínicos). Una de las posibilidades de este vínculo es el acercamiento experimental multidisciplinar en el que se vislumbra la posibilidad de establecer flujos de información entre diferentes dominios (Dominio A - Oncología Pediátrica y Dominio B - Pacientes Pediátricos Oncológicos), así como, un lenguaje básico o vehículo que facilite el trabajo entre disciplinas. En la Figura 1 se representa la función de los dos productos de Diseño (experimento DOSDI y ArtVIC), los cuales, buscan coadyuvar al cambio del estado emocional y al afrontamiento de los pacientes pediátricos con LAL en el ámbito oncológico pediátrico hospitalario. Figura 1. Esquema de la representación del Dominio A - Oncología Pediátrica y del Dominio B - Pacientes Pediátricos Oncológicos relacionados a través de dos productos de Diseño en una propuesta para estructurar los flujos (componentes) en una organización que amplía el espectro de información recopilada en DOSDI Fuente: Elaboración de Sánchez de Antuñano, J.M.A. y Hernández, J. 493 Por una parte está el Dominio A - Oncología Pediátrica incluyendo a la Psicooncología como consustancial integrando una parte fundamental del equipo sanitario, ambas disciplinas prescriben o aplican los tratamientos clínicos y psicológicos a los pacientes considerando tres variables: 1. Propias de la Enfermedad, 2. Personales y 3. Ambientales, atendiendo cada caso desde dos dimensiones: Psicobiológica y Psicosocial. La PNI y algunas otras disciplinas pertenecientes al ámbito de las Neurociencias enriquecen el conocimiento del ámbito de la Psicooncología. Las Neurociencias han estimulado a los psicooncólogos pediátricos a integrar métodos de investigación utilizados también en PNI para examinar la influencia de intervenciones psicológicas en la enfermedad pediátrica. Ahora con la intervención del Diseño se busca mejorar en este entorno, conjuntamente con los científicos pertenecientes a las disciplinas anteriormente mencionadas (oncólogos, psicooncólogos, neurocientíficos, inmunólogos-matemáticos) la comprensión sobre el soporte emocional y técnicas de afrontamiento. Por otra parte está el Dominio B - Pacientes Pediátricos Oncológicos en etapa de tratamiento quimioterapéutico suministrado ante un diagnóstico precoz; tomando en cuenta las variables ya mencionadas: 1. Propias de la Enfermedad, 2. Personales y 3. Ambientales. Esta población es susceptible en un 80% de ser curada, además, de acuerdo al Dr. Rivera (Hernández, 2013), en el contexto del cáncer infantil es de suma importancia asistir a los pacientes durante cada fase de la enfermedad en el aspecto psicológico procurando que sus estados emocionales apunten el mayor tiempo posible hacia una actitud de tranquilidad y alegría, pues ello favorece la adherencia a la terapéutica y la adaptación a la convivencia intrahospitalaria, coadyuvando al proceso de recuperación. ArtVIC habilita una relación operativa (RELEO), con realimentación de información para ambos dominios circunscritos en un entorno clínico-terapéutico. En el aspecto operativo de RELEO la información recopilada en la experimentación científica DOSDI de los comportamientos fenoménicos será la base de datos para llevarlos a un segundo nivel de interrelación (Meta-relación) y descubrir otros datos precisos que apoyen la toma de decisiones y las acciones de médicos y psicooncólogos abriendo otras posibilidades para la atención personalizada de cada paciente. 494 El Diseño adquiere aquí un papel relevante cuando se propone dar forma sustancial a los flujos de información como acción, es decir, propone la estructura y la organización que brinde dirección y sentido a los datos para tomar decisiones y resolver un problema específico en un lugar específico, con la potencialidad de hallar datos nuevos, emergentes o datos no evidentes; al estudiar las diferentes relaciones cuando se efectúen los análisis de los datos duros y su visualización en el devenir de los diferentes algoritmos. Otra posibilidad es mostrar distintas estrategias de Meta-relación con los distintos valores cuantitativos y cualitativos en un tipo de estudio que tendría ahora la posibilidad de ser transversal o longitudinal. El Diseño en este entorno clínico-terapéutico (circunscribiendo a los dominios A y B) observa a médicos y pacientes como seres humanos; se enfoca, en este momento, en desarrollar una metodología para producir a ArtVIC. Consecuentemente, dicho artefacto puede aportar también en el aspecto epistémico de su RELEO, ya que posibilita la información organizada desde distintas perspectivas, acorde a las necesidades de cada disciplina participante en los dominios de esta investigación, y con ello, transformar las acciones y las decisiones de los médicos y pacientes para contribuir en el bienestar emocional, a través, del conocimiento. “El diseño de información es una rama del Diseño que se centra justamente en este tema” (San Martín, 2011, p. 7), tiene como objetivo informar datos de manera simple y clara, brindando distintos modelos de estructura para observarlos optimizando recursos (humanos y técnicos) y realizar análisis distintos, es decir, proporcionando distintas opciones de interpretación de los datos dando distintos sentidos en la comprensión de los mismos. 495 Figura 2. se representa una maquetación básica para emprender el modelado inicial en el desarrollo de ArtVIC. *Preflight término aplicado originalmente en el ámbito de la aviación. Anglicismo adoptado para denominar el proceso de revisión y pre-verificación (pre-evaluación) de los archivos para pre-prensa digital (DTP), es decir, comprueba que el archivo sea adecuado para su uso. Para este contexto el autor lo empleó como Preflight del Prototipo. El Diseño plantea una perspectiva heurística para alcanzar los objetivos de investigación en DOSDI y ArtVIC realizando productos de carácter holístico, evaluables previo a su producción. La información visualizada permitirá observar si hay cambios significativos o patrones en el análisis de las relaciones entre indicadores y se podrán formular algunas conclusiones, es decir, descubrir aportes para cada una de las disciplinas participantes (Psicoooncología, Neurociencias y PNI) y en el Diseño pueden ser develados algunos lineamientos para proponer productos similares y poder trabajar en otras investigaciones de manera profusa en la predictibilidad y persistencia sobre temáticas similares. 496 Conclusiones Al estudiar el problema de investigación se ha observado que en los dominios A y B, mencionados en la Figura 1, antes de la inclusión del Diseño ya existía una gran cantidad de datos y de procesos de comunicación, los cuales, establecen sobre todo relaciones biunívocas. Fenómeno poco favorecedor, sobre todo, si tomamos en cuenta que las acciones desprendidas de estos procesos de comunicación afectarán seres humanos en condiciones de alta vulnerabilidad. Con ArtVIC (Artefacto de software para la Visualización Científica que deberá contar como mínimo con opciones de registro, opciones de interacción de variables, sección de selección de gráficos, opción de impresión, así como de exportación de video) planteado como visión holística propuesto por el Diseño podríamos observar las relaciones fundamentales establecidas en DOSDI y posteriormente hallar otras relaciones consecuentes en un siguiente nivel de análisis, pudiendo ser estas generales o particulares y evitando que se conviertan en relaciones biunívocas nuevamente. El reto es diseñar la estructura, la organización del sistema y aterrizarlo en una interfaz clara, versátil y con carácter científico. Este trabajo propone el diseño de productos (DOSDI y ArtVIC) que proporcionen elementos para el discernimiento en la relación clínico-terapéutica (dominios A y B), depuren la información de la meta-relación de manera meta-analizada al mundo científico para abrir perspectivas potenciales a otros investigadores interesados por el bienestar del ser humano. Facilitando con ello las acciones de los seres humanos pertenecientes a este universo de estudio. Retomando las ideas anteriormente expuestas y de manera concluyente, para esta investigación, el Diseño como concepto operativo, más que “modificar2”, transforma32(implica cuatro conceptos: discernir4,3dirección5 2. De acuerdo a la RAE (2014) modificar. Transformar o cambiar algo mudando alguno de sus accidentes; dar un nuevo modo de existir a la sustancia material; limitar, determinar o restringir algo a cierto estado en que se singularice y distinga de otras cosas. 3. De acuerdo a la RAE (2014) transformar. Hacer cambiar de forma a alguien o algo; transmutar algo en otra cosa; hacer mudar de porte o de costumbres a alguien. 4. De acuerdo a la RAE (2014) discernir. Distinguir algo de otra cosa, señalando la diferencia que hay entre ellas. 497 , sentido6,2intención7)3el entorno8 activando un proceso evolutivo, a través, de la metodología de la proyectación en la búsqueda de la solución a un problema específico en un lugar específico. Pero no quedándose en la idea generatriz sino que propone teóricamente, metodológicamente y tecnológicamente la solución de diseño (y esto puede aplicar a otros ámbitos del Diseño tales como: Arquitectónico, Industrial, Gráfico, Textil, Interactivo, Informático, entre otros). Es decir, realiza el producto material o inmaterial 5. De acuerdo a la RAE (2014) dirección. Acción y efecto de dirigir (Enderezar, llevar rectamente algo hacia un término o lugar señalado; guiar, mostrando o dando las señas de un camino; encaminar la intención y las operaciones a determinado fin.) Tendencia de algo inmaterial hacia determinados fines; camino o rumbo que un cuerpo sigue en su movimiento; consejo, enseñanza y preceptos con que se encamina a alguien. 6. De acuerdo a la RAE (2014) sentido. Entendimiento o razón, en cuanto discierne las cosas; modo particular de entender algo, o juicio que se hace de ello; inteligencia o conocimiento con que se ejecutan algunas cosas; razón de ser, finalidad. 7. De acuerdo a la RAE (2014) intención. Determinación de la voluntad en orden a un fin. 8. Entorno es lo que se alcanza a ver de acuerdo con el Dr. Jorge M.A. Sánchez de Antuñano (en entrevista inédita 2014, 26 noviembre). 498 ideado y hecho con inteligencia para ser usado con inteligencia. Por último una reflexión del autor: ”La mente es como un paracaídas, sólo funciona si se abre”. Albert Einstein “El Diseño es como un paracaídas para las diferentes ciencias, las lleva al feliz aterrizaje en la realidad” Agradecimiento Un reconocimiento especial al apoyo y asesoría de mi Co-Director de Tesis Dr. Rodrigo Ramírez Ramírez por su valiosa guía, por compartir su experiencia y conocimiento en este camino de investigación. Referencias [1] Barragán, H. (octubre, 2011). ¿Qué es wiring? (pp 171-174). Trabajo presentado en el MX Design Conference 2011 Diseño sin Fronteras Cuarto Congreso Internacional de Diseño, Universidad Iberoamericana Ciudad de México. Recuperado de www.dis.uia. mx/. Conference/2011 [2] Beck, A.T. (1991). Cognitive therapy. A 30-years retrospective. “American Psychologist”, 46, 4, 368-375. doi: 10.1037/0003-066X.46.4.368 [3] Folkman, S. (2002) Positive psychological states and coping with severe stress. “Soc Sci Med” 1997, 45, 1207-21. En Holland, J.C., Editor (Ed.), History of psycho-oncology: overcoming attitudinal and conceptual barriers. Psychosom Med, 64, 206-21. [4] Flusser, V. (2011). Hacia el universo de las imágenes técnicas. México: Escuela Nacional de Artes Plásticas. [5] Lake, P. y Crowther, P. (2013). Concise guide to databases: a practical introduction. London: Springer. [6] Hagen, H., Müller, H. y Nielson, G. (Eds.). (1993). Focus on Scientific Visualization. Hong Kong: Springer-Verlag Berlin Heidelberg. [7] Hernández, J. (2013). Desarrollo de un multimedia interactivo para facilitar el cambio de estado emocional en niños con Leucemia Aguda Linfoblástica (LAL) (Tesis de maestría). Universidad Autónoma Metropolitana Unidad Azcapotzalco, México, D.F. [8] Houdé, O. (2006). La psicología del niño / Piaget [Revisado. Original en francés: La psycho logie del’enfant. France: Presses Universitaires de France]. Madrid: Colección Urgencias. Popular. [9] Maturana, H. y Varela, F. (1998). De máquinas y seres vivos – Autopoiesis: la organización de lo vivo (5a ed.). Chile: Editorial Universitaria. [10]O’Callaghan, V. (Ed.). (junio de 2010). Talking to Kids About Cancer: A guide for people with cancer, their families and friends [Revisión de la publicación (junio de 2005) When 499 a parent has cancer: how to talk to your kids, agosto 2007]. Woolloomooloo, Australia: Cancer. Council NSW. [11]Papalia, D. E., Olds, S.W. y Feldman, R. D. (2001). Psicología del desarrollo. Colombia: McGraw Hill. [12]Piaget, J. y Inhelder, B. (1984). Psicología del niño (Colección Psicología). trad. Luis Hernández Alfonso. Spain: Ediciones Morata. [13] Real Academia Española (2014). Recuperado el 15 de mayo de 2015, de http://www.rae. es/. En Diccionario de la Lengua Española (23ª edición).. http://lema.rae.es/drae/ [14]Rivera, R. (2007). El niño con cáncer – Los padecimientos más comunes para el médico especialista. México: Editores de textos mexicanos. [15]San Martín, M. (2011). Diagraphics: el mejor diseño de mapas, gráficos, esquemas y diagramas. Barcelona, España: MaoMao Publications. [16]Ware, C. (2004). Information Visualization – Perception for Design (2nd ed.). China: Elseiver. [17]Wolfgang, M. y Kowatsch, T. (2012). Semantic technologies in content management systems: trends, applications and evaluations. Berlin: Springer Verlag. 500 Políticas públicas de vivienda en México y su impacto en el desempeño de las empresas desarrolladoras Aurora Mina Poó Rubio Universidad Autónoma Metropolitana, Azcapotzalco [email protected]; [email protected] Resumen Las empresas constructoras desarrolladoras de vivienda en sus diferentes niveles, de interés social, medio, residencial o turístico sistemáticamente se ven afectadas por las políticas públicas que norman la vivienda. Por un lado, el gobierno busca resolver la demanda de vivienda, principalmente la de interés social, y emite regulaciones en cuanto al uso del suelo, densidades habitacionales, reglamentos de construcción, entre otros y en paralelo crea, transforma y modifica las estructuras de financiamiento y las correspondientes instituciones financieras. Las empresas desarrolladoras de vivienda buscan oportunidades de trabajo y de inversión y se tienen que adaptar a las políticas establecidas. Cuando estas se modifican, frecuentemente con los cambios de las administraciones gubernamentales, los impactos pueden ser muy severos. El objetivo de este estudio es analizar los cambios de las políticas de vivienda en los últimos años, cómo fueron afectadas las empresas y la respuesta que tuvieron en su planeación estratégica. Abstract Housing construction enterprises in all levels, social housing, medium, high income and touristic, are systematically affected by public policies that rule the housing market. On one side, the government wants to solve the housing demand, mostly social, and approve regulations about land use, housing densities, construction legislation, among others. At the same time, creates, transforms and modifies the financial structures and the correspondent financial institutions (INFONAVIT, FOVISSTE, and so on). Housing developers who look for opportunities in construction and investment, have to adapt their work to changing policies. When this are modified, frequently when governmental administrations change, the impacts can be severe. The objective of this paper is to analyze the changes in public housing policies during the last few years and how they affect the performance of housing companies and how they change their strategic planning in order adapt and survive in the constant changes of the business environment 501 El sector de la vivienda En México, el concepto de vivienda tiene profundas raíces sociales e históricas. Ya desde 1917, en la Constitución de ese año, en el artículo 123, se reconoció la necesidad de vivienda en la población y se estableció la obligación de los patrones de proporcionar a sus trabajadores viviendas confortables e higiénicas. Posteriormente, se crearon los organismos públicos de Seguridad Social para atender las diversas necesidades de la población. En 1943 se fundó el Instituto Mexicano del Seguro Social (IMSS), que, en sus inicios, también proporcionó vivienda a sus derechohabientes. A mediados del siglo pasado, en la etapa de urbanización y de desarrollo industrial se crearon los principales organismos nacionales de vivienda. En 1963, el Gobierno Federal constituyó en el Banco de México, el Fondo de Operación y Financiamiento Bancario a la Vivienda (FOVI), para promover la construcción y mejora de la vivienda de interés social, y para otorgar créditos a través de la banca privada. En 1972, se estableció el Fondo Nacional de la Vivienda, con aportaciones de los patrones, para financiar y otorgar crédito barato para que los trabajadores adquiriesen su vivienda. Con esta reforma se creó el Instituto del Fondo Nacional de la Vivienda para los Trabajadores (INFONAVIT). También en ese año, se instituyó el Fondo de la Vivienda del Instituto de Seguridad y Servicios Sociales para los Trabajadores del Estado (FOVISSSTE), para otorgar créditos hipotecarios a los empleados del Estado. Para1983, el derecho a la vivienda se elevó a rango constitucional y se estableció como una garantía individual. Hasta la década de los ochenta, la política de vivienda había sido la intervención directa del Estado en la planeación, construcción y financiamiento de vivienda y aplicación de subsidios indirectos, por medio de créditos con tasas de interés menores a las del mercado. En la primera mitad de la década de los noventa, se llevaron a cabo cambios en los organismos nacionales de vivienda y se transformaron en entes eminentemente financieros. En el sexenio de 1994-2000, en el aspecto de la vivienda se continuó con el objetivo de que la población disfrutara del derecho a la vivienda como uno de los ejes principales de la política social. Para fortalecer la oferta de vivienda y atender especialmente a la demanda de interés social, el Programa Nacional de Vivienda 1995-2000 establecía las siguientes líneas estratégicas: 502 • Institutos de vivienda. Reforma de los organismos de vivienda, con sentido social, ampliando su cobertura de atención y propiciando una mayor coordinación entre ellos. • Servicios de financiamiento: Con un mayor financiamiento a largo plazo, mejores costos y diversificación de esquemas de financiamiento de acuerdo con el nivel de ingreso de la población. • Desregulación y desgravación: Marco normativo con menores costos indirectos asociados con la producción y titulación de vivienda. • Suelo para vivienda: promover la oferta de suelo para uso habitacional a precios accesibles, incorporando reservas territoriales y predios infraurbanos con servicios y equipamiento. • Autoconstrucción y mejoramiento de vivienda rural y urbana: con apoyo la autoconstrucción y mejoramiento de la vivienda, así como la comercialización de materiales e insumos en las zonas rurales y urbanas. • Fomento tecnológico: fomentar la investigación, desarrollo y aplicación de tecnologías alternativas regionales para la construcción de vivienda. • A raíz de las modificaciones legislativas, principalmente a la Ley del INFONAVIT en 1997 hubo un fuerte impulso a la vivienda de interés social que originó la consolidación de varias empresas desarrolladoras como Grupo ARA, GEO, HOMEX, entre otras más. Si bien existen en México pocas empresas de alcance nacional, también hubo campo propicio para las desarrolladoras locales. En los años subsiguientes, la oferta de vivienda creció de manera exponencial al grado que a los sexenios 2000-2006 y 2006-2012 de los expresidentes Vicente Fox y Felipe Calderón respectivamente, fueron llamados los sexenios de la vivienda. Rezago habitacional hasta el año 2000. De acuerdo con datos del Instituto Nacional de Estadística Geografía e Informática (INEGI), en 1995 los activos del país en este rubro ascendió a 19.4 millones de viviendas, mientras que la demanda mínima de vivienda para ese mismo año fue de 22.2 millones, lo que significó un déficit de 2.8 millones de viviendas. Además, 47 por ciento de las familias residía en viviendas con dos o menos habitaciones y 4.6 millones de viviendas presentaban condiciones inadecuadas de habitabilidad. En 1999 el déficit acumulado de vivienda alcanzó los 6 millones. En este sentido, era imperante construir un promedio anual más de 700 mil viviendas para abatir el rezago y estar en condiciones de satisfacer la nueva demanda. 503 Ante el problema de bajos ingresos que adolece una proporción importante de las familias mexicanas, se requiere impulsar mecanismos de ahorro previo con enfocados a la adquisición de vivienda, que posibiliten el acceso a sistemas con rendimientos reales en los depósitos, de manera que se pueda cubrir el pago inicial para un crédito hipotecario con la participación de la banca y las SOFOLES. El financiamiento de la vivienda y los organismos financieros. La transformación de los institutos de fomento a la vivienda en entidades básicamente financieras coadyuvó de sobremanera al desarrollo del sector que depende sustancialmente de la disponibilidad de créditos, los principales son: Instituto del fondo nacional de la vivienda para los trabajadores (INFONAVIT) En la década de los 90, el INFONAVIT tuvo una reconversión integral, que tuvo como resultado un importante aumento en el número de créditos y en una mayor cobertura de atención, basada en las políticas de fortalecimiento financiero para garantizar la viabilidad institucional en el tiempo; estímulo a la oferta de vivienda y mayor certidumbre a los desarrolladores sobre el número, ubicación y monto de los créditos; mejor atención a los trabajadores; convenios con algunos gobiernos estatales para la construcción de viviendas progresivas, implementación de esquemas de cofinanciamiento con la banca privada; adecuación de la normatividad crediticia, con montos de acuerdo con la capacidad de pago del acreditado. Fondo de vivienda del instituto de seguridad y servicios sociales de los trabajadores del estado (FOVISSTE) Estableció un nuevo sistema de puntaje para la calificación y autorización del crédito; reducción y simplificación de los trámites para su obtención; definición de nuevos montos de crédito con base en la capacidad de pago del trabajador; aprobación de tasas de interés diferenciadas en función del ingreso de los acreditados; optimización del proceso de control de las aportaciones patronales a la subcuenta de vivienda (5%); reducción viviendas irregulares y gestiones ante colegios de notarios y gobiernos estatales y municipales para bajar los costos de escrituración. Fondo nacional de habitaciones populares (FONHAPO) FONHAPO racionalizó su estructura orgánica y descentralizó su operación hacia los organismos estatales, que actualmente son quienes cumplen la función de promoción y supervisión de estos créditos. 504 Fondo de operación y financiamiento bancario a la vivienda (FOVI)[1] En 1963, el Gobierno Federal a través de la Secretaría de Hacienda y Crédito Público y el Banco de México, constituyeron el Fondo de Operación y Descuento Bancario a la Vivienda (FOVI), que tenía, entre otros, los siguientes fines: • Otorgar apoyos financieros a las instituciones de crédito con cargo al patrimonio del Fondo, mediante aperturas de crédito destinadas al financiamiento de la construcción, adquisición y mejora de vivienda. • Evaluar el desarrollo del mercado financiero de vivienda, así como evaluar, planear, coordinar y supervisar otros programas de promoción de vivienda. • Emitir dictámenes y aprobaciones técnicas a proyectos habitacionales. A fines del Siglo XX, FOVI participó en el proceso de reestructuración del mercado de la vivienda al incursionar con acciones en el desarrollo del mercado secundario de hipotecas. En agosto de 1999, FOVI lanzó un producto hipotecario que establecía los valores de la vivienda en Unidades de Inversión (UDIS), con tasa de interés real, con un seguro que respaldaría a los inversionistas contra cualquier quebranto o eventualidad y con un cobro de comisión por parte de los intermediarios financieros como son bancos y SOFOLES. Sociedad hipotecaria federal (SHF) En febrero de 2002, Sociedad Hipotecaria Federal, S.N.C.[2],1institución de banca de desarrollo, sustituyó al Banco de México como fiduciaria en el Fondo de Operación y Financiamiento Bancario a la Vivienda (FOVI). Tiene por objeto impulsar los mercados primario y secundario de crédito a la vivienda, mediante el otorgamiento de garantías destinadas: a la construcción, adquisición y mejora de la vivienda, preferentemente de interés social; así como al incremento de la capacidad productiva y el desarrollo tecnológico, relacionados con la vivienda. A partir de entonces, Sociedad Hipotecaria Federal, S.N.C. ha puesto en marcha diversos programas y esquemas que tienen por objeto hacer que cada vez más personas puedan tener su casa propia, aquellas que tradicionalmente no han podido acceder al crédito hipotecario por distintos factores como problemas para la comprobación de ingresos o dificultad para reunir el enganche necesario. 2. Sociedad Nacional de Crédito (S.N.C.) 505 Políticas gubernamentales de vivienda y la banca privada[3] A finales de los años ochenta, el Gobierno rediseñó sus políticas para el sector, buscaba promover la inversión por parte del sector privado, reducir los costos de desarrollo y propiciar un incremento en la producción habitacional. Esta política originó la participación de bancos comerciales en el financiamiento hipotecario mediante el establecimiento de garantías y pagos directos. El Gobierno también incrementó el papel del sector privado en el desarrollo de vivienda al restringir la participación de los fondos de vivienda gubernamentales (principalmente INFONAVIT y FOVISSSTE) únicamente al otorgamiento de créditos hipotecarios. Además el Congreso de la Unión modificó la Constitución en enero de 1992 y la Ley Agraria en febrero del mismo año para permitir la transferencia de propiedades agrarias (ejidos), a fin de ampliar la disponibilidad de tierra para desarrollos de vivienda. El Gobierno autorizó en 1993 la creación de Sociedades Financieras de Objeto Limitado (SOFOLES) restringidas a trabajar en un sector determinado de la economía y sin poder recibir depósitos del público. Desde su creación, la mayor parte de las SOFOLES se habían incorporado como hipotecarias y algunas de ellas estaban autorizadas para promover y operar créditos hipotecarios fondeados por FOVI. Aunque a principios de la década del 2000 el número total de hipotecas que estos intermediarios financieros ofrecían era bajo, se esperaba que como instituciones especializadas complementaran el servicio que daban los bancos al mercado hipotecario Para el sexenio 2000-2006, el Presidente Vicente Fox planteó como objetivo construir 750,000 casas al año hasta cumplir con 4 millones 500 mil unidades al terminar el sexenio, de las cuales, el 50% serían por conducto del INFONAVIT, o sea la cantidad de 370,000 anuales en promedio. El total de viviendas significaba un gran reto, si se consideraba que hasta el año 2000 se construyeron 350,000 casas. Para lograr eliminar el déficit habitacional al fín del sexenio y reducir la existencia de viviendas en estado de deterioro que era de 3.5 millones, el Gobierno implementó diversas medidas de apoyo: Mejorar el marco regulatorio, desarrollar nuevos mecanismos de financiamiento más flexibles y con suficientes recursos para apoyar el desarrollo inmobiliario, promover instrumentos financieros que propiciaran la bursatilización de la cartera hipotecaria, ampliar la capacidad de crédito bancario y promover la cultura del ahorro a través de la banca social para generar un ahorro previo que sirviera para el enganche de las viviendas. 506 Resultados de las políticas de vivienda Con las políticas vigentes en ese momento, si bien se logró un gran impulso en el número de unidades construidas en los sexenios mencionados, pero eso provocó algunos problemas. Desde el punto de vista de los municipios, la mancha urbana de las ciudades del país se extendió rápidamente hacia la periferia, con bajas densidades habitacionales y escasos servicios urbanos, y generó altos costos tanto para los habitantes como para el país. La dotación de servicios básicos que proporciona el gobierno para conectar desarrollos alejados de las ciudades se vuelve más gravosa, problema al que se suman las bajas recaudaciones municipales, lo que impacta en la calidad y oportunidad de los servicios proporcionados. Se estima que el costo de introducción de servicios públicos, una vez que se han consolidado los asentamientos humanos que no fueron planeados, es 2.7 veces mayor. De igual manera, el abandono de los centros de las ciudades propicia el deterioro de inmuebles, es incosteable su mantenimiento, provoca subutilización del equipamiento e infraestructura, inseguridad e impacta en los precios del suelo de los lugares abandonados y genera incentivos para la especulación del suelo en la periferia. Por otra parte, desde el punto de vista de los usuarios de las viviendas, la distancia que millones de mexicanos deben recorrer diariamente para acceder a sus trabajos, ocasiona gastos importantes en dinero y tiempo. El 15% de los hogares en zonas urbanas reporta que gasta entre $51 y $200 pesos diarios para trasladarse de su casa al trabajo. En el Valle de México, el porcentaje de hogares que paga dicha cantidad aumenta a 16% y en las ciudades de más de un millón de habitantes a 21%. En cuanto al tiempo de traslado que emplea la población, 62% de los hogares encuestados reportan que a la persona que más aporta al gasto familiar le toma entre 23 y 38 minutos llegar a su centro de trabajo en el mejor de los casos, pero puede llegar a ser de 2 horas el trayecto, o sea 4 horas diarias empleadas en esta tarea. La inseguridad afecta profundamente a los habitantes de estos desarrollos quienes consideran prioritario el fortalecimiento de un entorno urbano seguro y agradable, muchos hogares consideran que la obra más urgente en su colonia es la vigilancia, seguridad y policía. Este problema es mayor en el Valle de México, en algunas ciudades fronterizas y varios estados de la República. La inseguridad y la ruptura del tejido comunitario y familiar han 507 generado problemas de violencia y deterioro del sentido de pertenencia en las ciudades. Un factor importante es la inexistencia de espacios públicos adecuados y accesibles ya que es evidente que las áreas verdes y los lugares para hacer deporte son insuficientes y que las condiciones de los existentes son malas. Adicionalmente no hay lugares cercanos destinados a actividades culturales y recreativas, como cines, teatros y museos. Esto provoca falta de vida comunitaria a nivel nacional. La suma de dificultades provocó el abandono de muchas de las viviendas construidas en la periferia de las ciudades. Esto ha causado problemas en los municipios en los que se construyeron conjuntos que a la fecha tienen gran cantidad de unidades deshabitadas que han sido vandalizadas y en las cuales se han refugiado malvivientes que han aumentado la inseguridad como por ejemplo en Ciudad Juárez y otras ciudades fronterizas; para las desarrolladoras y a los institutos de vivienda, ha aumentado la cartera vencida y créditos incobrables. Y desde la óptica de los usuarios, tiene créditos asignados que no pagan, viviendas que no usan y compromisos que no cumplen[4],1lo que ha repercutido en pérdidas económicas también para ellos. Hasta la publicación del Plan Nacional de Desarrollo 2013-2018[5],2era inexistente la política de movilidad urbana integral, en los tres órdenes de gobierno federal, estatal y municipal, lo que se refleja en la desarticulación de acciones de los gobiernos con políticas locales de desarrollo urbano. Las distancias que millones de ciudadanos deben recorrer día a día son percibidas como barreras para los flujos de personas y bienes, muestra de ello es que al menos el 30% de la población urbana encuentra que su casa se encuentra lejos o muy lejos de su trabajo. De manera paralela se ha descuidado la provisión de infraestructura peatonal y ciclista; así como la oferta de transporte público de calidad, seguro y vinculado a criterios de densidad y de desarrollo urbano 4. Hay casi 5 millones de viviendas abandonadas en todo el país. Periódico La Jornada. 9 abril de 2013. 5. Plan Nacional de Desarrollo 2913-2018. Presidencia de la República. 508 Figura 1. Problemas de movilidad en la urbe.[6]1 Situacion actual Entorno económico y sector vivienda En 2014 la economía en México creció de 2.1%, cifra inferior a la que se esperaba. Sin embargo existe la perspectiva un mejor panorama en los próximos años. Aunque el crecimiento de la economía nacional no fue el deseado, el sector vivienda logró revertir la tendencia negativa que presentaba desde finales de 2012. La industria de la construcción prosperó impulsada por el subsector de edificación[7]2de 10.1%, con lo que una vez más fue importante factor por su impulso del crecimiento económico, desarrollo social y generación de empleo. Al respecto, Consorcio ARA, presentó un crecimiento de 8.2% en ingresos con lo que superó el comportamiento de la economía. Según INEGI, la industria de la construcción creció 6.8%, mientras que el subsector de edificación se expandió a un ritmo de 10.1%, impulsado principalmente por la construcción de vivienda, cuyo desempeño la ubicó como el segundo ramo con mayor crecimiento, luego de la industria automotriz. La inversión total en el sector vivienda durante 2014, incluyendo el financiamiento a la construcción, fue de $350 mil millones. El programa de subsidios fue factor fundamental en el repunte del sector en 2014, pues se logró colocar un total de $11,495 millones (47.1% más que en 2013), de los cuales 69% fue para vivienda nueva. La política de vivienda actual promueve el desarrollo ordenado y sustentable de nuestro sector. 6. Fotografía de acceso libre en Internet. 7. El subsector de Edificación comprende las actividades de edificación residencial (viviendas), y la edificación no residencial como naves industriales, inmuebles comerciales, institucionales y de servicios. 509 En este sentido, SEDATU, CONAVI, INFONAVIT, FOVISSSTE y SHF trabajaron para la recuperación del sector. Entre las acciones que se impulsaron están algunas adecuaciones y/o mejoras a los esquemas de crédito para impulsar la demanda: En cuanto a los subsidios: • Ampliación de la base de personas susceptibles de recibir subsidio al incrementar el rango salarial de 2.6 a 5 veces el salario mínimo para que un trabajador pueda acceder al mismo. • Promoción de los subsidios mediante jornadas estatales “México, la Casa de Todos”. Ampliación del monto máximo de crédito INFONAVIT, de $483 mil a $850 mil[8],1un incremento de 76%. Reducción de cinco a dos años de cotización consecutiva y de un año a seis meses la espera para solicitar un segundo crédito Vivienda nueva Vivienda usada Mejoramiento Autoproducción, Otros Subsidios. Liberación de la subcuenta de vivienda como garantía para créditos de mejoramiento y ampliación. Por otra parte, algunas medidas se anunciaron en 2014 y se espera que se consoliden durante 2015 y en adelante: • Crédito INFONAVIT denominado en pesos, a tasa fija y un plazo de hasta treinta años, así como la eliminación de gastos de titulación para acreditados con ingresos menores a 2.6 salarios mínimos. • FOVISSSTE crédito en pesos, para que el trabajador pueda obtener un monto mayor de crédito al sumar al sueldo base las compensaciones garantizadas, con un plazo de hasta 25 años y tasa fija, en cofinanciamiento con SHF o instituciones bancarias • Estado de México segmento: Interés social. Financiamiento hipotecario para fuerzas armadas y empleados de gobiernos estatales y municipales, con demanda se estimada en 2.5 millones de créditos. En cuanto a la distribución de créditos en 2014, INFONAVIT colocó 389,627 hipotecas (66.2% de las cuales fueron para vivienda nueva) con una inversión de $110 mil millones. A su vez, FOVISSSTE otorgó 63,693 créditos (66.4% para vivienda nueva) con una inversión total de $38.5 mil millones. Para 2015 se estima una inversión de $370 mil millones para 500 mil viviendas. La meta de INFONAVIT es de 350 mil créditos para la adquisición de vivienda con una inversión de $116 mil millones, mientras que la de FOVISSSTE es de 70 mil créditos mediante una inversión de $38.2 mil millones. 8. Cantidades a 2014. 510 La perspectiva del sector vivienda para 2015 puede ser favorable. Si bien el entorno económico es desafiante, se considera que existen condiciones para que la vivienda siga siendo impulsor de la actividad económica, pues la estructura del sector es sólida, el bono demográfico del país sigue siendo atractivo y hay disponibilidad de créditos hipotecarios. Recientemente el INEGI dio a conocer la Cuenta Satélite de Vivienda 2008-2012. Entre los principales resultados destaca la importancia económica de la vivienda, en la que participan 78 clases de actividades económicas (ocho principales y setenta conexas). Así, los resultados indican que la vivienda aportó 5.9% del PIB en 2012 y, si se incluye el alquiler imputado de la vivienda por sus propietarios, esta cifra sube a 14.1 por ciento. 78 clases de actividades económicas participan en el sector vivienda Algunas desarrolladoras de vivienda y su desempeño Consorcio ARA[9]1 Esta empresa es la única de las grandes desarrolladoras que pudo sortear la crisis de la vivienda de 2013. Para ello contaba con una adecuada reserva territorial tanto en cuanto a extensión como en ubicación. Al término del 2014, la reserva territorial comprendía 38.4 millones de m2 en diecinueve estados del país, área suficiente para construir casi 160,000 viviendas. De esta superficie, 2.8 millones de m2 están destinados para proyectos inmobiliarios como desarrollos comerciales, centros turísticos y zonas industriales. El valor al cierre del año fue de $4,747.8 millones. La reserva territorial, además de estar ubicada en estados y zonas del país con crecimiento económico y demográfico, está conforme con la actual política de vivienda, ventaja competitiva de la empresa durante la crisis que enfrentó el sector en 2013. Parte importante del enfoque a mediano y largo plazo es la selectividad en la compra de tierra; para proyectos más compactos y con una densificación más eficiente. Figura 2. Gráfica de evolución del precio de la acción de CONSORCIO ARA 2004-2014. 9. Consorcio Ara. Informe anual 2014. Bolsa Mexicana de Valores. 511 La Figura 2 muestra el incremento del precio de la acción hasta 2008, época de auge de la construcción de vivienda. En 2008 impacta la crisis hipotecaria de Estados Unidos. hay recuperación en 2009 Y 2010 y, aunque hay caída de valor de la acción al cambiar las políticas de vivienda en 2013, la empresa mantiene su precio porque puede sortear la crisis. HOMEX[10]1 Desarrolladora Homex, S.A.B. de C.V. Es una empresa desarrolladora de vivienda verticalmente integrada que se dedica al desarrollo, construcción y venta de vivienda de interés social y vivienda media en México. Inicia operaciones en Culiacán, Sinaloa en 1989 a través de la construcción de espacios comerciales y dos años después extiende sus operaciones al segmento de vivienda de interés social. Posteriormente, Homex se expande al desarrollo de vivienda media y comienza la expansión hacia otros estados. En 2005 se convierte en empresa pública y sus acciones cotizan en la Bolsa Mexicana de Valores. En 2009 lleva 5 años como Compañía Pública y 20 años de operaciones continuas, y entrega las primeras casas en Brasil. Genera una nueva división de Gobierno-Infraestructura y completa la adquisición de Casas Beta con lo que asevera ser la desarrolladora más grande de México, en términos de utilidad de operación y utilidad neta, de acuerdo con su informe anual. En el año 2012 se comenzaron a sentir los efectos de la crisis de la vivienda en México y Homex inicia un proceso de adaptación a las nuevas condiciones. Durante 2013 y 2014 una serie de eventos principalmente relacionados al cambio en la política pública de vivienda combinado con condiciones de financiamiento más restrictivas impactaron de manera aguda a la empresa y llevaron a Homex a la solicitud de un proceso de Concurso Mercantil[11].2La 10. Consorcio Ara. Informe anual 2014. Bolsa Mexicana de Valores. 11. www.ifecom.cjf.gob.mx/faq2.asp. Accesada el 25 de mayo de 2015. Según el Instituto de Especialistas en Concursos Mercantiles, (IFECOM) a) El concurso mercantil es un procedimiento jurisdiccional en el cual, una autoridad jurisdiccional (Juez de Distrito) desplegará todos los actos tendientes a resolver la controversia o situación que se le plantea, de determinar si el comerciante se encuentra en los supuestos del concurso mercantil que prevé la ley, de aprobar el convenio que en su caso se celebre con los acreedores reconocidos, o bien, de declarar la quiebra para proceder al remate de los bienes sujetos al concurso y efectuar el pago correspondiente a dichos acreedores. b) Al que se somete un comerciante. Las personas que pueden ser declaradas en concurso mercantil son los comerciantes. Lo anterior se debe a que si bien todas las personas, comerciantes o no comerciantes, son susceptibles de incurrir en el incumplimiento del pago de sus obligaciones, sólo a los comerciantes se les puede declarar en concurso mercantil. Comerciante es toda aquella persona física que tiene capacidad legal para realizar, de manera habitual y profesional, 512 empresa adujo incumplimiento del gobierno federal para otorgar subsidios, retraso en el cobro de viviendas vendidas y la imposibilidad de acceder al financiamiento bancario como causas que impactaron en su desplome. Asimismo, Homex contaba con importantes reservas territoriales impulsadas por un incentivo fiscal vigente hasta 2010, localizadas en zonas periféricas de los centros urbanos, que ya no son aptas para desarrollos conforme a las nuevas políticas de vivienda, lo que implica una fuerte reducción de su valor comercial. En 2015, Desarrolladora Homex, (junto con algunas de sus subsidiarias), informó que el Juzgado Primero de Distrito en Culiacán, Sinaloa, emitió la sentencia aprobando los Convenios Concursales (planes de reorganización) de la Compañía. Con lo que Homex salvaguardó su posición para continuar con la reactivación de sus operaciones. En mayo de 2015 la empresa publicó el Plan de Negocios de la Compañía que incluía: • La conversión de créditos no garantizados en el capital reorganizado de la Compañía; • Opciones de acciones para acreedores no garantizados, • Propuesta de aportación de nuevo capital comprometido por $1,500 millones de pesos, sujeto a algunas condiciones, en la forma de un bono convertible, y • Un plan de incentivos para el equipo directivo de la Compañía basado en medidas de desempeño, para alinear los objetivos del equipo direcactos de comercio con el fin de obtener un lucro, es decir, de conseguir una ganancia. También son comerciantes las sociedades constituidas con arreglo a las leyes mercantiles. Además, la ley equipara a la figura de comerciante a fideicomisos con actividades empresariales c) Obligaciones. Por obligación debemos entender el deber que tiene una persona llamada deudor (que en este caso es el comerciante), de conceder a otra llamada acreedor, una prestación, que puede consistir en un dar, un hacer o un no hacer. Derivado de su actividad, un comerciante debe cumplir, de manera habitual, diversas obligaciones contraídas con personas —llamadas acreedores—, que le proporcionan bienes o servicios. d) Pago. Es el cumplimiento de una obligación mediante un dar, un hacer o no hacer. Es decir, el comerciante cumple con la obligación de pagar a sus acreedores cuando entrega una cosa (dinero, mercancía u otros objetos), presta algún servicio o se abstiene de realizar algún acto, como podría ser el dejar de efectuar actos de comercio en determinada zona, reservada a otros comerciantes. e) Incumple generalizadamente. Esta hipótesis se actualiza cuando el comerciante no cumple en sus obligaciones de pago a dos o más acreedores distintos y se presentan las siguientes condiciones: f) Objeto. Se ha considerado de interés público el que se conserven las empresas y se evite que el incumplimiento generalizado de las obligaciones de pago ponga en riesgo la viabilidad de ellas y de las demás con las que mantengan una relación de negocios. De ahí que el procedimiento de concurso mercantil conste de dos etapas, a saber: la conciliación y la quiebra. La primera de ellas tiene como finalidad la conservación de las empresas o negociaciones mediante el convenio de pago que éstos celebren con sus acreedores; mientras que la segunda, que inicia cuando no se llega a un convenio, tiene por objeto la venta de la empresa o negociación del comerciante, de los bienes y derecho que la integran, de forma que con su producto, se haga el pago a los acreedores respectivos. 513 tivo hacia los intereses de los nuevos accionistas de Homex. La propuesta de inversión de nuevo capital por $1,500 millones, junto con las líneas de crédito por $1,850 millones se esperaba que le diesen a la Compañía el capital necesario para reactivar operaciones. El 17 de Junio de 2015 la firma anunció que había hecho revisiones a su Plan de Negocios, del 6 de Mayo de 2015; el Plan actualizado reflejaba los términos de varios acuerdos realizados con acreedores así como oportunidades de ahorro adicionales[12].1 Figura 3. Gráfica de evolución del precio de la acción de HOMEX 2004-2014. La Figura 3 muestra el incremento del precio de la acción hasta 2008, período de auge de la construcción de vivienda. En 2008 impacta la crisis hipotecaria de Estados Unidos. La recuperación en 2009 no se sostiene y empieza la pérdida de valor de la empresa con los cambios en las políticas públicas de vivienda. CORPORACIÓN GEO[13]2 La empresa fue fundada en 1973 en la Ciudad de México y desde 1994 cotiza en la Bolsa Mexicana de Valores (BMV) y forma parte del grupo de emisoras que estructuran el Índice de Precios y Cotizaciones (IPyC) de la Bolsa Mexicana de Valores. Asimismo, desde 2005 cotiza en el Mercado de Valores Latinoamericanos en Euros (Latibex). Corporación GEO se precia de ser la desarrolladora de vivienda más grande de México enfocada en los segmentos de bajos ingresos. A través de sus subsidiarias trabaja en las principales ciudades del país y está involucrada en los aspectos de adquisición de tierra, diseño, desarrollo, construcción, mercadotecnia, comercialización y entrega de viviendas de interés social principalmente, así como de manera lateral en el segmento medio y residencial. GEO es una empresas de vivienda diversificada y opera en 22 estados de la República. En más de 40 años, GEO ha producido y comercializado 12. http://www.homex.com.mx/ri/index.php. Accesada el 25 de mayo de 2015. 13. Corporación Geo. Informe Anual 2014. Bolsa Mexicana de Valores. 514 más de 655,000 casas en las que habitan más de 2’400,000 de mexicanos. El modelo de negocios de GEO se enfoca principalmente en el segmento de interés social y económico, los cuales son apoyados por las políticas gubernamentales y organismos de vivienda como INFONAVIT y FOVISSSTE. Las 15 subsidiarias de la Corporación son: Geo Monterrey, Geo Edificaciones, Geo D.F., Geo Noreste, Geo Puebla, Geo Tamaulipas, Geo Morelos, Geo Casas del Bajío, Promotora Turística Playa Vela, Geo Veracruz, Inmobiliaria Anso, Geo Jalisco, Geo Guerrero, Geo Baja California y Geo Hogares Ideales. En mayo de 2015 los accionistas aprobaron un plan para que los acreedores capitalicen la mayor parte de su deuda a cambio de una participación del 91% en la compañía14.1 “Las empresas instrumentarán junto con sus acreedores las acciones necesarias para cumplir con los términos acordados en el convenio concursal aprobado y lograr una capitalización por hasta 3,500 millones de pesos, de acuerdo con la propuesta presentada en su momento por el conciliador Thomas S. Heather”, informó Geo. El plan, que ya fue aprobado también por la mayoría de los prestamistas, contempla que éstos reciban acciones de Geo a cambio de una deuda de 28,500 millones de pesos (unos 1,861 millones de dólares). También se aprobó un aumento de capital para la emisión de nuevas acciones que serán entregadas a los acreedores. Desde el 15 de junio el juez ha ido aprobando los convenios de la matriz y las subsidiarias[15].2La resolución es obligatoria para todos los acreedores que firmaron el convenio concursal, así como extensiva para aquellos acreedores reconocidos que no participaron en las negociaciones y a quienes se otorgó el beneficio de acogerse a los mismos términos y condiciones pactados por Geo y los acreedores involucrados. Figura 4. Gráfica de evolución del precio de la acción de CORPORACIÓN GEO 2004-2014. 14. www.cnn.expansion.com/economia2015 15. www.cnn.expansion.com/negocios2015 515 La Figura 4 muestra el incremento del precio de la acción hasta 2008, época de auge de la construcción de vivienda. En 2008 impacta la crisis hipotecaria de Estados Unidos. El valor de la acción muestra buena recuperación en 2009 y 2010, pero no se sostiene y empieza la pérdida de valor de la empresa con los cambios en las políticas públicas de vivienda. Conclusiones El aspecto que mayor influencia tuvo en el proceso de expansión de la mancha urbana de las ciudades fue la política de vivienda. En años recientes, el modelo de atención a las necesidades habitacionales privilegió el otorgamiento masivo de financiamiento para vivienda nueva sin considerar su impacto territorial, urbano y ambiental al tiempo que la industria desarrolladora encontró una oportunidad de negocio en la producción de vivienda de interés social en lugares donde el suelo era más barato, lugares cada vez más alejados de los centros urbanos consolidados. Un efecto adicional de esta política de vivienda, fue el reforzamiento del patrón de urbanización periférica de baja densidad con usos predominantemente habitacionales, modelo que hasta el día de hoy tiene importantes efectos negativos en la cohesión social, la economía y la conectividad de las ciudades. Las políticas de vivienda implementadas con anterioridad, especialmente en los dos sexenios anteriores al actual, propiciaron la expansión de la mancha urbana de manera desordenada y se provocaron daños sociales, económicos y ambientales. Lo anterior provocó que la contención se convirtiese en prioritaria, según quedó establecido en el Plan Nacional de Desarrollo Urbano de las SEDATU en 2013. Esto se pretende lograr al priorizar el otorgamiento de subsidios en el interior de las ciudades y establecer dentro de ellas polígonos de contención determinados por la Comisión Nacional de Vivienda (CONAVI), e incorporar terrenos baldíos y subutilizados a la oferta. Las reservas territoriales periféricas adquiridas por las desarrolladoras de vivienda serían evaluadas para que los nuevos proyectos dispongan de servicios e infraestructura urbanos Si bien existe una amplia gama de empresas constructoras de vivienda, sólo seis cotizan en la Bolsa Mexicana de Valores (BMV). Es decir, cumplen con las características requeridas en cuanto a transparencia en información y administración profesional: Consorcio Ara (Ara), Corporación Geo (Geo), Consorcio Hogar (Hogar), Desarrolladora Homex (Homex), Sare Holding (Sare) y Urbi (Urbi)[16].1 16. Bolsa Mexicana de Valores. 516 Los directivos de las principales desarrolladoras coinciden en que los productos que actualmente están comercializando se tienen que transformar y buscar una mejor mezcla de ventas con el fin de lograr una combinación de viviendas de interés social, que proporcionan grandes ventas de unidades con reducido margen de ganancia, con vivienda media y residencial, que desplazan volúmenes menores pero con mayor margen de utilidad. Sin embargo, viven la disyuntiva de la opción ineludible de construir en terrenos dentro de las urbes para alinear sus políticas con las normas oficiales de vivienda, y determinar el uso de la reserva territorial adquirida bajo el marco regulatorio anterior y que a la fecha constituye una pérdida importante para las empresas. Referencias [1] Bieri S. David. Form follows function. On the interaction between Real Estate Finance and Urban Spatial Structure.. Urban and Regional Planning, University of Michigan, Ann Arbor, MI, USA. 2013 [2] Brown Richardson, Sally. Abandonment and adverse possession. SSRN Harvard Bussines School working papers. USA 2015 [3] Boils, Guillermo. Diseño y Vivienda pública en México. Prototipos habitacionales de cuatro organismos habitacionales de vivienda. UAM-A. México. 2008 [4] Fernández Alva, Fernando. Metrópoli y cambio tecnológico. Anuario de Estudios de Arquitectura, Historia, Crítica y Conservación. UAM-A. México, 2009. [5] Terrazas Revilla, Oscar. Mercancías Inmobiliarias. Colección de Estudios Urbanos. UAM-A. México, 1996. [6] Vilchis Salazar, Rubén. Planeación, diseño y uso de los espacios comunes en los conjuntos habitacionales promovidos y financiados por I de 1973 a 1997 en la Ciudad de México. Tesis de Maestría en Planeación y Políticas Metropolitanas. UAM-A. México, 1999. [7] Villavencio Blanco, Judith. Los organismos oficiales de vivienda en el Distrito Federal. Formas y alcances de la acción habitacional de los años 90. Administración y Estrategias de Fin de Siglo. División de Ciencias Sociales y Humanidades. UAM-A. México, 1997. [8] Ley del INFONAVIT 1997. Ediciones Fiscales ISEF. México, 1997. [9] Consorcio Ara. Informe Anual 2014. [10]Desarrolladora Homex, S.A.B. de C.V Informe Anual 2014. [11]Corporación Geo. Informe Anual 2014. [12]De la Rosa, Rogelio. ¿Se construirán las casas prometidas?. Periódico Reforma. Negocios. Pp. 20 A. México, septiembre 2013. [13]Peña, Carmen. La vivienda un bien económico. Periódico El Economista. Vivienda. Pp. 4. México, 20 de junio 2013. 517 [14]Rendón, Lourdes. Zedillo despertó al sector vivienda. Reportaje periodístico de la última comparecencia ante el Senado de la República de Carlos Jarque, Secretario de Desarrollo Social 1994-2000. Periódico El Economista. Vivienda. México, 13 de diciembre 2000. [15]Schüte y Elguero, Fernando. Coordinación y Vivienda. Periódico El Economista. Vivienda. Pp. 9. México, 20 de junio 2013. [16]Hay casi 5 millones de viviendas abandonadas en todo el país. Periódico La Jornada. 9 abril de 2013. [17]www.amsofoles.com.mx. AMSOFOLES. Página de Internet de la Asociación Mexicana de SOFOLES. México, 2013. [18]www.grupoara.com.mx. CONSORCIO ARA. División Construcción. Página de Internet. consultada el 29 enero 2015. [19]www.infonavit.gob.mx. Crédito INFONAVIT. Tipos de Crédito. Página de Internet de INFONAVIT. Consultada el 29 de enero, 2015. [20]www.presidencia.gob.mx Programa Sectorial de Vivienda 2001-2006. PRESIDENCIA. México, 2012. [21]www.presidencia.gob.mx Programa Sectorial de Vivienda 2007-2012”. PRESIDENCIA. México, 2012. [22]www.sedatu.gob.mx Programas Nacionales de Desarrollo Urbano y Vivienda 20132018. Gobierno de la República. [23]PRONAFIDE. Capítulo 4. Desarrollo Social. Programa de Vivienda 2007-2012. [24]Reformas a la Ley del INFONAVIT. INFONAVIT órgano de comunicación interna No. 2 Julio 1997 [25]www.fovi.gob.mx. Principales 518 Estudio formal de elementos arquitectónicos en la Catedral de Puebla Jaime González Montes División de Ciencias y Artes para el Diseño, Universidad Autónoma Metropolitana Unidad Azcapotzalco [email protected] Resumen El “Estudio formal de elementos arquitectónicos en la Catedral de Puebla” forma parte del proyecto de investigación “Estudio y Análisis de la forma Geométrica en la Arquitectura de la Catedral de Puebla, en la Ciudad de Puebla de los Ángeles” con aprobación en la sesión 425 Ordinaria del Trigésimo Sexto Consejo Divisional de CYAD, celebrado el día 1 de febrero de 2011, del programa de Investigación “La Forma Geométrica en Elementos de Diseño” del Grupo de Investigación “Forma, Expresión y Tecnología del Diseño”. Este proyecto de investigación tiene como objeto el análisis de la geometría en los elementos de la arquitectura, desde el punto de vista de su generación formal, en los siglos XVI, XVII, XVIII y albores del XIX, tomando como referencia el exterior e interior de la catedral de la ciudad de Puebla de los Ángeles. El desarrollo del proyecto se basa en un Marco de Referencia que abarca cuatro aspectos, el Histórico, el Religioso, el Urbano y el Formal Arquitectónico, sin dejar al margen, la importancia iconográfica implícita en la evolución estilística de la época virreinal en que se desarrolló la catedral poblana. La investigación se sustenta en la premisa universal propuesta por la escuela ateniense “No hay arquitectura sin geometría” aportando, bajo el Estudio de la Forma aquí mostrado, un amplio acervo de elementos que acercan a la apreciación y comprensión de la arquitectura. Palabras clave: Geometría, arquitectura, generación formal. 519 Abstract “The Shape’s study of the architecture elements of Puebla’s Cathedral” is part of the project: “Study and Analysis of the Geometric Shape in the Architecture of Puebla’s Cathedral, Puebla de los Ángeles City” approved by the 425th Regular Meeting of the CYAD’s XXXVI Divisional Board, held on February 1st, 2011, is part of the Research program “Geometric Shape on Design Elements” of the Research Group “Shape, Expression and Design Technology” The main objective of this research project is to study the geometry of the architecture elements from the point of view of their formal generation, taking as reference the Cathedral of Puebla de los Ángeles City. The project development is based on a Frame of Reference that covers four issues: History, Religion, Urban, and the Formal Architectonic. The Research holds the universal statement established by the Athenian school: “There is no Architecture without geometry” providing under the Shape Study a broad heritage of elements promoting the appreciation and comprehension of architecture. Introducción El estilo arquitectónico en que se apoya esta investigación responde a la definición de Puebla como un estado netamente barroco. Barroco derivado de la palabra italiana barocco, que significa impuro. El barroco propiamente dicho en Latinoamérica se conoce como: Barroco sobrio, Barroco rico y Barroco exuberante. • El Barroco sobrio. Es el primero que florece en América como reproducción del Barroco español (1580-1630). • El Barroco rico. (1630 a 1730) es un Barroco refinado y detallista, diferente al modelo español, que va conformando un tipo de construcciones con portadas más profusamente adornadas. • El Barroco exuberante. Es una modalidad del Barroco de mediados del siglo XVIII, que se complace en cubrir la totalidad del espacio con ornamentación, abusando del uso de yeso y argamasa, con lujo de fantasía y color. Aspectos históricos y religiosos Los orígenes de la iglesia en Puebla como primera diócesis de México se re520 montan a cuando el Papa León X, en 1518 mediante la Bula “Sacri apostolatus ministerio”, por petición del Rey Carlos V, erigió la primera Diócesis de la Nueva España, llamada Carolense en honor al Rey, en tierras de Yucatán, donde decide hacer la primera catedral en tierras novohispánicas, para más tarde extender el obispado hasta quedar establecida la sede en Tlaxcala, en 1543. Es así que en 1527 tomó posesión como primer Obispo Fray Julián Garcés, quien se convertía también en el primer Obispo de América, hasta que la sede episcopal se trasladó a Puebla, un año después de la muerte del Obispo Garcés. Fray Juan de Zumárraga en el año 1531 coloca la primera piedra de la catedral poblana, en terrenos conocidos como el “Portal de Borja”, cuya construcción se inicia el 29 de agosto de 1536. Se hizo de tres naves y cubierta de madera y paja, la obra fue concluida en 1539, y a este sitio se trasladó la diócesis de Tlaxcala. En 1552 una Cédula Real, firmada por el rey Felipe II ordena, en Monzón, ordena la construcción de una nueva Catedral en la ciudad de Puebla, dado que la anterior se hallaba muy deteriorada. La monumental obra avanzaba lentamente y, de hecho, se tuvo que suspender entre los años 1618 y 1640 cuando se llevaba la tercera parte. Pero el entusiasmo y la libertad del Obispo Juan de Palafox y Mendoza (1640-1649) permitieron su conclusión en 1649. Aspecto urbano Originalmente se comenzó a poblar la zona que estaba delimitada por el margen oriente del cauce del Río San Francisco y el Cerro de San Cristóbal (Hoy en día cerros de Loreto y Guadalupe). Sin embargo, las lluvias torrenciales y el desigual crecimiento del río y sus afluentes, pusieron en peligro la existencia de la ciudad y para evitar su abandono, se decidió cambiar la ubicación a la margen poniente del Rio de San Francisco, donde se trazó de nuevo la ciudad el 29de septiembre de1531. La retícula del centro histórico con que fue planeado, al poniente de la ciudad, es de una uniformidad impecable con las manzanas rectangulares con sus ejes longitudinales de este-oeste que protegían los vientos del norte en su selecta orientación y ubicación por su debido aprovechamiento de aguas pluviales por la pendiente hacia la afluencia del río San Francisco. La Catedral se erige imponente a un costado de la plaza mayor, en su fachada norte, y con su eje longitudinal oriente-poniente, dando su fachada principal hacia el poniente hacia un atrio que en un principio fue cementerio. 521 Se desarrolló importantemente durante los siglos siguientes siendo a finales del XVI ya una ciudad de renombre, que en el XVII y XVIII destacó tanto que ya se había triplicado en tamaño. Descripción formal arquitectónica La planta arquitectónica es un gran rectángulo de 97 m de largo por 50 de ancho (Fig.1). En el interior se conjugan cinco naves , distribuidas a los lados de la nave central se encuentran catorce capillas, ocho antes de llegar al crucero y seis después de pasar éste.(Fig.2) Cada una de estas capillas guarda objetos artísticos de distintas épocas. 1. 2. Figura 1. Planta de la catedral poblana. Figura 2. Corte Longitudinal de catedral poblana. En su esquina noreste se halla la parroquia del Sagrario que se une interiormente con la Capilla de Santiago apóstol, así como la Capilla de los Dolores se une con la Sacristía y las Salas “de los gobiernos” y la “Capitular”. En su otra esquina, la sureste se encuentra la Capilla del Ochavo, por su forma octagonal, muy peculiar. La fachada principal se haya dividida en cinco partes, dos a los flancos que son las dos torres y en medio tres portadas, dos laterales uno del lado del evangelio y el otro del lado de la epístola, y una tercera que es la portada central (Fig.3). Estas tres puertas son por honor a la Santísima Trinidad. La portada principal, llamada del Perdón, se concluyó en 1664. Es la puerta de honor y se abre sólo en grandes ocasiones. A la izquierda de este portal, 522 Figura 3. Fachada Principal de catedral. en el nicho que está en el intercolumnio de columnas estriadas tritóstilas cuyo tercio del fuste inferior es contracanalado, se encuentra la estatua de San Pedro con el libro y la llave del reino de los cielos. En el otro intercolumnio análogo de la derecha, en un nicho está San Pablo con la espada. Encima de ellas dos escudos: los jarrones con azucenas simbolizan a la Inmaculada Concepción de María, a quien se dedicó esta iglesia; el otro escudo es el de España.En el segundo cuerpo a la izquierda del escudo, se observa a San José llevando de la mano al niño Jesús mientras que, a la derecha, vemos a Santiago el Mayor, con un calabazo sobre el báculo que representa al peregrino; arriba de San José la palmera en el desierto y sobre Santiago Apóstol un cedro del Líbano, ambas escenas marianas dentro de cartelas barrocas. En el tercer cuerpo o remate de la portada central debajo el escudo real se ve un rectángulo que dice: “Año de 1644” año en que fueron culminadas las portadas. La ventana rectangular al centro está enmarcada por molduras en “villerías” que contrasta con el oscuro del orden arquitectónico que la envuelve. El tratamiento de la portada lateral norte, (Fig 4) de San Cristóbal, es similar al portal central , del perdón, de la fachada principal de la catedral poblana. Sólo que en esta fachada se intercalan entre medallones los reyes de España Carlos I y Felipe II , sobre los evangelistas San Mateo y San Juan, en el primer cuerpo, a lo que corresponden en el segundo, el alto relieve de Felipe III y Felipe IV sobre San Lucas y San Marcos. Remata al igual que en la fachada principal el escudo real español, sólo que aquí, resaltado en piedra y en el principal, de blanco de “Villerías” 523 Figura 4. Fachada lateral norte. Del mismo modo que los frailes evangelizadores crearon su propia concepción del Templo Divino que tradujeron en la imagen arquitectónica de los conventos en la Nueva España, el clero secular se preocupó por crear la suya en sus templos más importantes: las Catedrales. En las construcciones de las primeras catedrales en la Nueva España, existen dos momentos claramente diferenciados: Las Catedrales de planta basilical y las Catedrales claustrales. La nave central ó principal de la Catedral de Puebla está dividida en nueve tramos o entre-ejes: dos del trascoro, dos del coro, uno de planta cuadrada para la cúpula central (crujía central), dos para el presbiterio (Ciprés y Altar Mayor), uno que liga las naves procesionales con la cabecera y finalmente, otro más ancho para la Capilla Absidal (Altar de Los Reyes) (Fig.5), que cierra el inmueble. La Portada principal da paso al primer espacio que es el del inicio de las procesiones, es a través de la puerta central que por lo general permanece cerrada salvo en las grandes ocasiones como el entronizamiento de un Arzobispo, así como sus exequias, Año Santo o Jubilar y otras muy especiales. Este acceso se halla resguardado por un gran portón a modo de cancel también llamado exclusa con puertas tanto en el centro como laterales, Toda esta área estaba dedicada a la penitencia, hay altares de las ánimas, o sea el área del Perdón para limpiarse o purgarse de pecado y adquirir la gracia, y así, acceder justificado al interior de la catedral. En estos dos tramos ó 524 entre-ejes, los primeros de la nave central, encontramos el altar advocado a la penitencia de los feligreses. Las naves laterales se les denomina naves procesionales solamente tienen ocho tramos, el remate de la nave procesional del norte es el altar de San José y el del sur es el altar de los arcángeles. Este último tramo se une por un tramo de la nave central común, que es el costado posterior al ciprés y anterior al mismo tiempo al presbiterio del altar de Los Reyes, es como el área de crucero o interprocesional de las naves basilicales españolas. 6. 5. Figura 5. Retablo de los Reyes. Figura 6. Cúpula central y Bóvedas de naves. En el cruce del transepto, espacio central ó crujía, se levanta la Cúpula mayor, (Fig.6) construida por Juan Gómez de Trasmonte, sobre una planta circular de una bóveda vaída levantó un tambor falso de forma octagonal, lo que vino a ser la primera obra en utilizar el octágono en la arquitectura de la Nueva España, sobre éste, se elevó la semi-esfera o cúpula con una linternilla, ochavada también. Estudio de la forma La aportación del proyecto es el análisis formal geométrico de elementos arquitectónicos bajo un Estudio de la forma que desde una visión descriptiva se marca el momento estilístico de la obra tratada. 525 La geometría de los elementos arquitectónicos, mostrada en gráficos, guardan características de una generación formal cilíndrica así como la prismática o sea de generatrices paralelas, aunadas al estudio de las de generatrices de punta ó de vértice común, como son las cónicas ó piramidales y las que se generan de forma irregular hacen posible que su análisis permita identificar los elementos de la arquitectura con una óptica geométrica que los prevalece en el estilo estudiado, en este caso, el virreinal de la Nueva España. (Figs.7 y 8) 7. 8. Figura 7. Portada del Sagrario. Figura 8. Portal del acceso al Coro. Conclusiones Partiendo de la idea universal acentuada por la escuela de Atenas, de que “no hay Arquitectura sin Geometría”, durante el desarrollo de este estudio sobre elementos arquitectónicos del Barroco Poblano en diversos edificios representativos de los siglos XVI, XVII y XVIII, se ha encontrado ciertas características similares que destacan un notable e interesante tratamiento formal. Ante estas consideraciones y con el antecedente de haber publicado los libros sobre “El Barroco Queretano” y “el Barroco Potosino” concluyo, que la premisa anteriormente mencionada, motivo del presente análisis, se hace evidente también en esta investigación que: “No hay Arquitectura sin Geometría” 526 Referencias [1] Fernández de Echeverría y Veytia, Mariano, Historia de la fundación de la Puebla de los Ángeles. 2 vols. Puebla, Altiplano, 1962. [2] Galí Boadella, Monserrat , El mundo de las catedrales novohispanas, BUAP, Puebla, México. 2002. [3] Maquívar, Consuelo, “Retablos del siglo XVII”, en: Historia del arte mexicano, Tomo 6, Salvat, México, 1982, p.113 [4] Medel, Vicente, Diccionario Mexicano de Arquitectura, Instituto del Fondo Nacional de la Vivienda para los Trabajadores, Banco INBURSA, S.A. México.1994. [5] Merlo Juárez, Eduardo, Pavón Rivero, Miguel, Quintana Fernández., José Antonio, La Catedral Basílica de la Puebla de los Angeles, Universidad Popular Autónoma de Puebla, Gobierno Municipal 2005-2008 de la Heroica Puebla de Zaragoza, Puebla. México.2006 [6] Toussaint, Manuel, Arte Colonial en México . Instituto de Investigaciones Estéticas. UNAM, México. 1974. [7] Toussaint, Manuel, La catedral y las iglesias de Puebla, Porrua, México, 1954. 527 Plan paisajístico de recuperación monumental y ambiental de la alameda central de la ciudad de México: contribución académica UAM-A al proyecto del gobierno del Distrito Federal. María Teresa Ocejo Cázares Divisió de Ciencias y Artes para el Diseño. Universidad Autónoma Metropolitana, Unidad Azcapotzalco [email protected] Resumen La Alameda Central de la ciudad de México, es el paseo más antiguo de la América Hispana, fue concebida por el Virrey Don Luis de Velasco, hijo, hacia fines del siglo XVI en 1592. Es un jardín histórico de alto significado para la ciudad y para el país, presenta valores culturales y paisajísticos de gran arraigo entre la población, concentra la evolución del paisaje en la ciudad de México, paseo emblemático de los habitantes y espacio cardinal en la organización física y social del área central y puerta de entrada al Centro Histórico. Con el fin de contribuir a la recuperación de su memoria histórica y su patrimonio, nos propusimos realizar un estudio detallado para definir un Plan Maestro Paisajístico de Recuperación Monumental y Ambiental que lograra la puesta en valor, de este sitio memorable, y así, devolver el mensaje cultural que tuvo ésta en el transcurrir de la historia, el cual se fue desvirtuado en las últimas décadas. Esta investigación académica realizada en el Posgrado en Diseño de la Universidad Autónoma Metropolitana – Azcapotzalco, en su momento puso a disposición del Gobierno del Distrito Federal el proyecto llevado a cabo, por la Línea, Diseño, Planificación y Conservación de Paisajes y Jardines, contribuyendo así a la puesta en marcha de la restauración física de la Alameda, durante el año de 2012 Palabras clave: Alameda, Jardín, Histórico, Paisaje, Recuperación. Introducción La Alameda de la Ciudad de México, es un Jardín Histórico y Monumento Urbano, que tiene un alto significado para la ciudad y para el país, es puerta de entrada al Centro Histórico y espacio emblemático de los habitantes. Presenta valores culturales y paisajísticos de gran arraigo entre la población. La Alameda concentra la evolución del paisaje en la ciudad, y es un espacio cardinal de la organización física y social del área capital. 528 Sin embargo, La Alameda, en las últimas décadas, presentaba un alto grado de deterioro en su generalidad, particularmente en lo ambiental, lo demostraba en la vegetación existente, con un alto grado de degradación, aunado a otros factores de uso y diversas funciones que se establecieron a lo largo del tiempo, muchas de ellas ajenas a lo que corresponde a un sitio de alto valor paisajístico. Con el fin de contribuir en la recuperación de un paisaje urbano patrimonio nacional, su memoria histórica e identidad de la Alameda, se planteó en el Posgrado de Diseño, Planificación y Conservación de Paisajes y Jardines de la Universidad Autónoma Metropolitana Azcapotzalco; realizar un estudio detallado y definirlas bases para este sector en un Plan Paisajístico de Recuperación Monumental y Ambiental [1] , con la finalidad de devolver así el mensaje cultural que La Alameda tuvo tanto en su origen como en el transcurrir de la historia. (Figura 1). Figura 1. Plano de la Ciudad de México. 1755-1768. Fuente: CASTRO Morales, Efraín. Alameda: visión histórica y estética de la Alameda de la Ciudad de México. México: Américo Arte Editores; CONACULTA; INBA, p. 31. Antecedentes históricos: Siglo XVI. La fundación de la Alameda en el Virreinato La Alameda Central de la ciudad de México, es el paseo más antiguo de la América Hispana, fue concebida hacia fines del siglo XVI por orden del 8º Virrey de la Nueva España, Don Luis de Velasco Hijo, a través de la ordenanza del 11 de enero de 1592, fue quien solicitó al Ayuntamiento realizar 1 RECUPERACION MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis de Especialidad , México: UAM-Azcapotzalco. 2011 529 un paseo para embellecer a la ciudad y lugar de recreo para sus habitantes (Máximo, 1956, p.145). Una de las razones de fondo en su construcción, fue de carácter militar, así como habilitar tierras para el crecimiento del territorio de la Nueva España. Creada al poniente, a extramuros de la Ciudad de México, pronto se transformó durante la época colonial en el centro de convivencia más importante del virreinato, y visita obligada de los forasteros. Los mapas, planos, dibujos, litografías y fotografías, ilustran la evolución urbano-arquitectónica y paisajística de la Alameda de la Ciudad de México. Siglo XVII. La Alameda Renacentista La Alameda con su traza original a manera renacentista en forma cuadrada estaba provista de una fuente con un brocado ortogonal de cantera labrada que dividía los cuatro prados del paseo en el plano de la capital novohispana levantado en 1628 por el maestro en arquitectura Juan Gómez de Trasmonte, (Castro, 2001, p. 34) En la imagen se distingue, la Alameda próxima a la calzada de Tacuba por donde corría el acueducto prehispánico renovado que venía de Chapultepec. (Figura 2) Figura 2. Dibujo en tinta y acuarela. Forma y levantado de la Ciudad de México, Juan Gómez de Transmonte, 1628. Museo Nacional de Historia. Fuente: CASTRO Morales, Efraín, “Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la Alameda de la Ciudad de México. México: Américo Arte Editores; CONACULTA; INBA, p. 34. Para mediados del siglo XVII la Alameda conservaba su traza y fuente; se había convertido en el paseo preferido por los miembros de la aristocracia y de la alta burguesía virreinal, quienes la visitaban en sus carruajes o a caballo, a finales de siglo el crecimiento de la ciudad de México dirección poniente hacía de esta zona un área enmarcada por obras urbanas de gran importancia para la ciudad, como el nuevo acueducto colonial que venía de Santa Fe a desembocar en la fuente de la Mariscala, cercada de acequias y puentes que daban acceso a su espacio. 530 Siglo XVIII, Alameda Barroca Durante el siglo XVIII, bajo el resultado de las reformas borbónicas y de la Ilustración, la Alameda tuvo dos importantes modificaciones. La primera gran transformación que se observa es que pasó de ser originalmente de forma cuadrada, para convertirse en un hermoso jardín rectangular a la manera barroca, con el aumento llegó a tener 16 calzadas e igual número de prados triangulares, bordeados de árboles bajo una composición definida de su retícula vegetal, a su vez con cinco nuevas rotondas y tres calzadas que desembocaban en pórticos con sencillas rejas de madera. (Figura 3 y 4) Figura 3. Biombo. Vista de la Alameda y el palacio de los virreyes, Anónimo, mediados del siglo XVII. Museo de América, Madrid. Fuente: CASTRO Morales Efraín, “Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la Alameda de la Ciudad de México. México: Américo Arte Editores; CONACULTA; INBA, p. 36. Figura 4. Plano a color del año1775. Paseo de la Alameda de México. Anónimo. Fuente: Lombardo de Ruiz Sonia y Yolanda Teran Trillo (col). Altas histórico de la ciudad de México. México: INAH. Smurfit Cartón y Papel, Vol 2, p.501. Bajo el impulso de los virreyes ilustrados, Croix, Bucareli y Revillagigedo, la Alameda se convirtió en un paseo de mayor belleza e interés, con nuevas fuentes, esculturas y refinado enverjado de mampostería. (Figura 5) 531 Figura 5. Plano ingnográfico de la Alameda de la nobilísima Ciudad de México hecho el año de 1778, José María de La Bastida. Fuente: LOMBARDO DE RUIZ, Sonia y Yolanda TERÁN TRILLO (colaboradora) Atlas histórico de la ciudad de México. México: Instituto Nacional de Antropología e Historia; Smurfit Cartón y Papel, Vol. 2, p. 55. Siglo XIX. La Alameda del México Independiente: El Primer Imperio, la Primera República, el Segundo Imperio, la Reforma Juarista La Alameda en el México Independiente, presenció importantes acontecimientos políticos, sociales y militares, sucesos que marcaron la historia de la nación. Figura 6. Litografía. Interior de la Alameda de México, 1855 – 1856. México y sus Alrededores, litografía de Decaen, grabado de Casimiro Castro y Juan Campillo Colección Biblioteca de Arte Mexicano/ Ricardo Pérez Escamilla. Fuente: En CASTRO Morales, Efraín, “Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la Alameda de la Ciudad de México. México: Américo Arte Editores; CONACULTA; INBA, p. 75. 532 Figura 7. Litografía. La Alameda de México, tomada en globo, 1855 – 1856. México y sus alrededores, litografía de Decaen, grabado de Casimiro Castro y Juan Campillo Fototeca Culhuacán, CNCA – INAH. Fuente: CASTRO Morales, Efraín, “Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la Alameda de la Ciudad de México. México: Américo Arte Editores; CONACULTA; INBA, p. 74 En el año de 1864, durante el gobierno del segundo emperador de México, Maximiliano de Hasburgo y Carlota (1864 – 1887) la Alameda fue uno de los centros de atención principal, su recuperación basada en la mejora aplicada a la vegetación y el mobiliario, no se vería concluida desafortunadamente en el tiempo planeado. Posteriormente uno de los hechos impactantes ocurridos en el paseo de la Alameda, fue el atentado contra el General Porfirio Díaz en la celebración del 16 de septiembre de 1867. (Molano, 2012) Figura 8. Acuarela y lápiz sobre papel. La Alameda y fachada del Hospital de San Juan de Dios, Anthony Carey Stannus, ca. 1865. Fuente: CASTRO Morales, Efraín, “Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la alameda de la Ciudad de México. México: Américo Editores; CONACULTA; INBA, p. 70. La Alameda en el Porfiriato a finales del siglo XIX e inicios del XX En el Gobierno del General Porfirio Díaz, etapa que marco un segundo auge con la actualización, renovación y modernización de la infraestructura de los sistemas de riego, electrificación, renovación de su jardinería.(Figura 9) 533 Figura 9. Plano de la Alameda después de las reformas de 1901. Guillermo Heredia (Regidor del Ramo). Fuente: Biblioteca del Museo de la Ciudad de México. Con la llegada de profesionales extranjeros, expertos en botánica, se introdujeron especies hasta el momento no empleadas, con una gran variedad de flores, arbustos, árboles exóticos y frutales, acorde con la estética de los jardines decimonónicos parisinos, así como la creación de un invernadero de plantas delicadas. La Alameda se erigió así como un corredor artístico y cultural importante, después de tres siglos de existencia, ocupaba un lugar especial en la memoria y el alma de los capitalinos, era ya el parque de mayor tradición y abolengo de la ciudad en cuyo interior guardaba recuerdos y nostalgias derivados de las actividades sociales, mercantiles, culturales y de esparcimiento. Figura 10. Plano general de los jardines, vista a vuelo de pájaro, ca. 1923. Reproducción fotográfica virada a sepia. Fuente: CASTRO Morales, Efraín, “Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la alameda de la Ciudad de México. México: Américo Editores; CONACULTA; INBA, p. 104. La Alameda recibió una atención especial a partir de 1880, bajo el gobierno de Díaz, obras que concluyen en 1901. Tomando en cuenta el proyecto integral del Teatro Nacional (Bellas Artes) iniciado en 1904, en el cual se integró un proyecto para la Alameda presentado éste por el arquitecto italiano Adamo Boari (1856-1928) el cual tuvo la intención de modificar la Alameda, en cuyo proyecto se buscaba cambiar la traza antigua del paseo, integrar una pérgola, retirar las fuentes y monumentos, para dar cabida a amplias calzadas proyecto inconcluso debido al inicio de la Revolución Mexicana. (Figura 10) 534 La Alameda posterior al Movimiento Revolucionario Una vez que México recuperó la estabilidad política, económica y social, siendo presidente de la República Abelardo L. Rodríguez, la obra fue retomada en 1931 bajo la responsabilidad del arquitecto Federico Mariscal, etapa en la que se realizó en su totalidad la pérgola, (Figura 11 y 12) la cual comprendió además la instalación de la Librería de Cristal y áreas culturales, obra inaugurada el 29 de septiembre de 1934, la cual existió a un costado de Bellas Artes hasta 1973 en que fue demolida. (Figura 13). Figura 11. Pérgola de la Alameda. Fuente:www.esteticas.unam.mx/revista_imagenes/anotaciones/ano_fernandez03.html. Figura 12. Detalle de Pérgola de la Alameda. Fuente: Alameda: visión histórica y estética de la alameda de la Ciudad de México. México: Américo Editores; CONACULTA; INBA, p. 103. Figura 13. Librería de Cristal. Fuente: http://svazquez.blogspot.com/2004/05/gregorio-lalibrera-de-cristal-y-la.html. La Alameda a fines del siglo XX y principios de siglo XXI Figura 14. Vista Aérea de la Alameda antes de la intervención. Fuente: M. T. Ocejo 2011. A fines del siglo XX y principios de siglo XXI hubo esfuerzos de parte de nuestras autoridades para recuperar la imagen histórica de la Alameda empeñándose en salvaguardar las esculturas de mármol, resguardadas en el Museo Nacional de Arte, rehabilitar Bellas Artes y las fuentes del pasado así como reforestar los jardines, colocar adoquines en calzadas y glorietas, introducir el sistemas de riego por aspersión y un nuevo drenaje, no obstante ese esfuerzo, el parque de mayor tradición y abolengo de la ciudad carecía de una imagen paisajística y estilística definida además de enfrentar importantes problemas[2]. Proyecto Académico para la Recuperación y Conservación de la Alameda. Posgrado en Diseño, Planificación y Conservación de Paisajes y Jardines El Plan Paisajístico de Recuperación Monumental y Ambiental, fue realizado en el Taller de Diseño, en la Especialización en Planificación, Conservación de Paisajes y Jardines, en el Posgrado en Diseño de la División de Ciencias y Artes para el Diseño, de la Universidad Autónoma Metropolitana– Azcapotzalco (UAM-A), taller coordinado por el Dr. Saúl Alcántara Onofre, Mtra. María Teresa Ocejo Cázares, Mtro. Armando Alonso Navarrete, y desarrollado por los alumnos del mismo. 2 RECUPERACIÓN MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis de Especialidad, México: UAM-Azcapotzalco. 2011. 536 El estudio y la propuesta de acción se implementó en tres etapas, 1.- “Investigación cognitiva”: estudio histórico, cultural y paisajístico del sitio, 2.Análisis detallado de la situación actual de la Alameda y su entorno, 3.- Desarrollo del Plan Maestro y Proyectos de Diseño Primera Etapa: “Investigación Cognitiva” El estudio comprendió el análisis histórico con los antecedentes del lugar elementos con los cuales se obtuvo información histórica-cultural y paisajística de la Alameda, así como, de los elementos de mayor interés paisajístico, artístico, ambiental de la misma y de su entorno. Con la consulta en archivos y la recopilación del material gráfico-histórico, se conformaron documentos específicos de cada material localizado, sobre el patrimonio histórico, fotográfico, gráfico-histórico, planimétrico y documental. (Figura 12). Tomando como base la planimetría original, se elaboraron planos de las épocas más representativas con el objeto de observar los cambios efectuados en su conformación dando por resultado la elaboración del “Palimpsesto”, y con ello identificar las modificaciones de la traza urbana, los diseños del jardín histórico y de su vegetación a lo largo del tiempo, así como el deterioro paisajístico sufrido en las diferentes épocas. La traza histórica fue base para el análisis interpretativo de la arquitectura del sitio, relevando el estado de conservación del patrimonio vegetal y su relación en el tiempo, los manufactos arquitectónicos, la infraestructura y equipamiento histórico. Por otro lado los datos iconográficos permitieron reconstruir la historia gráfica, y la evolución del crecimiento urbano del área, haciendo un intento de interpretación, para comprender la evolución del sitio, de su entorno y de su área de influencia. Figura 12. Ejemplo de fichas fotográficas, Alameda. Fuente: recuperación monumental y ambiental de la alameda central de la ciudad de méxico. Tesis de especialidad, México: UAM-Azcapotzalco 2011. 537 Segunda etapa: Situación Actual. Una vez realizado el análisis histórico del sitio, el estudio se centró en la realización de una investigación sobre el estado actual de la Alameda y de su contexto, el punto de partida, se inicia con la delimitación del área de actuación y su relación con otros espacios públicos de la zona, identificando las calles principales, recorridos, puntos de acceso, plazas, edificios, espacios culturales, arquitectura relevante y zona de monumentos, del sitio y la zona adyacente. Figura 13. Estudio de la vegetación y sus valores. Fuente: RECUPERACIÓN MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis de Especialidad, México: UAM-Azcapotzalco 2011. El estudio detallado al interior de la Alameda, partió al realizar un levantamiento exhaustivo del área y de sus componentes, tanto del trazo urbano actual, como de la conformación de la vegetación existente, de su arquitectura, fuentes, equipamiento urbano y elementos artísticos. Respecto a la vegetación se logró inventariar y catalogar todos los árboles existentes en la Alameda, identificando cada uno de ellos con fichas completas, verificando sus dimensiones así como su situación fitosanitaria. (Figura 14) El estudio realizado fue traducido a planos con una expresión gráfica y planimétrica propia del lenguaje de la arquitectura del paisaje, también en este inventario se relevó la importancia de los árboles monumentales e históricos. En el estudio paisajístico se definieron las zonas históricas, perspectivas y puntos focales más relevantes, señalando los catalejos de máximo interés visual para potenciar perspectivas relevantes y puntos focales históricos. 538 Figura 14. Estudio Fitosanitario, Alameda Central. Fuente: RECUPERACIÓN MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis de Especialidad, México: UAM-Azcapotzalco 2011. Con todos los elementos estudiados en esta etapa, se obtuvo en conjunto un conocimiento profundo y detallado de la misma, se logró establecer también un contacto estrecho con el área, y establecer el estatus paisajístico de la misma en la situación actual estudiada. Tercera Etapa: Plan Maestro Paisajístico y desarrollo de proyectos Figura 15. Estudio Alameda. Fuente: RECUPERACIÓN MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis de Especialidad, México: UAM-Azcapotzalco 2011. Para el desarrollo de esta fase, la información obtenida en las etapas anteriores fue base para la implementación de las propuestas paisajísticas. Para el Plan Paisajístico de la Alameda, se definieron lineamientos y criterios generales respecto a los usos y destinos del suelo tanto presentes como para futuras intervenciones, así como para la salvaguarda y recuperación de la arquitectura histórica y patrimonio artístico. El diseño paisajístico del plan, consideró también la revitalización del entorno y su contexto. 539 El concepto paisajístico implementado, definió un orden en el trazo acorde a las características originales, a su vez un nuevo planteamiento para el diseño de los parterres, zonas y regiones, al interior de la Alameda, a su vez criterios específicos para la conservación del arbolado tales como preservar los árboles con valor monumental, botánico e histórico-cultural, así como la zonificación de arquitectura contemporánea en zonas específicas, vialidades y recorridos didácticos, infraestructura, equipamiento, instalaciones y seguridad del área. Principal atención se le dio a la iluminación escénica para dar énfasis a los elementos arquitectónicos y artísticos. La intervención en las arquitecturas vegetales consistió en definir los trasplantes, retiros, podas técnicas y de formación de los árboles existentes definiendo la paleta vegetal para la determinación de un nuevo carácter paisajístico de la Alameda. Para la recuperación de visuales históricas se matizaron las disonancias paisajísticas y establecieron perspectivas y visuales hacia el interior y exterior de la misma relevando puntos de interés visual. Vinculación del Proyecto Académico con el Plan de Rehabilitación de la Alameda desarrollado por el Gobierno del Distrito Federal Para la puesta en valor de este sitio memorable, el grupo de investigación académica del Posgrado en Diseño de la UAM-A se vinculó con el Gobierno del Distrito Federal, para colaborar en ésta importante tarea. Figura 16. Proyecto de Rehabilitación de la Alameda Central, Gobierno del Distrito Federal: Secretaria de Desarrollo Urbano y Vivencia (SEDUVI). En el desarrollo del trabajo académico, el estudio fue presentado en sus diferentes etapas a la Dirección y Fideicomiso del Centro Histórico, los avances presentados a las autoridades del Centro Histórico en sus diferentes fases en cierto modo fue uno de los factores que alentaron a las autoridades a desarrollar la Rehabilitación de la Alameda Central de la Ciudad de México. 540 Al concluir académicamente el Plan Paisajístico de la Alameda fue presentado y entregado el mismo al Arq. Enrique Lastra, proyectista de la Recuperación de la Alameda, y a su grupo de trabajo, teniendo conocimiento de ésta aportación universitaria la Secretaría de Desarrollo Urbano y Vivienda (SEDUVI) este trabajo terminal de la Especialización de Diseño, Planificación y Conservación de Paisajes y Jardines, permitió sustentar tanto documental como propositivamente la implementación del proyecto gubernamental . Figura 17. Planta de conjunto, localización y renders del Proyecto de Rehabilitación. Gobierno del Distrito Federal. Fuente: Secretaría de Desarrollo Urbano y Vivienda (SEDUVI), 2010. 541 Figura 18. Renders del Proyecto de Rehabilitación. Gobierno del Distrito Federal. Fuente: Secretaría de Desarrollo Urbano y Vivienda (SEDUVI), 2010. 542 Figura 19. Alameda Central en la actualidad, vista aérea. Fuente: https://www.flickr.com/ photos/45079117@N00/9462213225/. Figura 20. Alameda Central en la actualidad. Fuente: https://www.flickr.com/photos/45079117@N00/9462213225/. Concluyendo La metodología implementada por el Posgrado en Diseño en la Línea de Diseño, Planificación y Conservación de Paisajes y Jardines, permite desarrollar investigaciones profesionalizantes articulada a sectores sociales y sector público en proyectos reales. El trabajo anteriormente expuesto es ejemplo de ello porque en su desarrollo alentó a las autoridades a tomar la decisión de iniciar la obra de “Rehabilitación de la Alameda” (abril de 2012), misma que concluyó y fue inaugurada el 20 de noviembre del mismo año. El estudio realizado en la academia y el desarrollo de esta investigación, se llevó a cabo de común acuerdo con las autoridades del Gobierno del DF. Finalmente el proyecto de ejecución de la obra, contó con el respaldo de una información especializada y fundamentada basada en el estudio realizado por la UAM-A, a su vez se tuvo la oportunidad de colaborar como asesores del proyecto, a profesores del Posgrado y la incorporación de alumnos de la Especialización al equipo de trabajo de dicho plan. 543 El estudio realizado basado en un proceso metodológico propio del modelo implementado por los Planes y Programas del Posgrado en Diseño, Planificación y Conservación de Paisajes y Jardines, permite a los alumnos tener una formación en la investigación y en el desarrollo de proyectos reales que contribuyan a la conservación, preservación y recuperación de los paisajes y jardines. El mejoramiento y la rehabilitación de este jardín, es una muestra de cómo la academia puede contribuir al rescate de este importante paseo histórico, así con su rehabilitación, la Alameda de la Ciudad de México vuelve a tener la calidad y belleza que los habitantes de la ciudad actualmente disfrutan. El mejoramiento y la rehabilitación de este jardín, es una muestra de cómo la academia puede contribuir al rescate de este importante paseo histórico, así con su rehabilitación, la Alameda de la Ciudad de México vuelve a tener la calidad y belleza que los habitantes de la ciudad actualmente disfrutan. Figura 21. Sueño de una tarde dominical en la Alameda Central. Diego Rivera. Fuente: http://www.retratodeunsueno.com/about/. Referencias [1] ALAMEDA. Visión histórica y estética de la Alameda de México. CONACULTA/INBA. América Artes Editores, México 2001. [2] ALTAMIRANO, Ignacio (1954). Paisajes y Leyendas. México: Editora Nacional S.A. [3] ANTOLOGIA, (1964). México visto por algunos de sus viajeros. México: Ediciones Botas. [4] BENÍTEZ, Fernando. “La Ciudad de México”. México, Salvat, 1981. [5] CASTRO, Efraín (2001). Alameda, visión histórica y estética. México: Americo Arte Editores, Landucci Editores. [6] FLORES, Berta (1964) México visto por algunos de sus viajeros. México: Ediciones Botas. GARCIA, Rubén (1950). Rincones y Paisajes del México Maravilloso. México: Talleres Gráficos de la Nación. [7] FOTOTECA CONSTANTINO REYES-Valerio de la CNMH-CONACULTA-INAH-MEX. [8] GLANTZ, Margo (1982). Viajes en México. Crónicas extranjeras. Tomo I. México: SEP/80 y FCE. [9] HACIA UN PLAN MAESTRO PARA LA ALAMEDA CENTRAL. Alcántara Onofre Saúl Coord. México: INAH. CONACULTA. 2011 [10]HERRERA MORENO, Ethel y DE ITA MARTÍNEZ,Concepción. “500 (Quinientos) Planos de la Ciudad de México 1325-1933 .Investigación de textos y planos.” México: Secreta- 544 ria de Asentamientos Humanos y Obras Públicas, 1982. [11]LOMBARDO, Sonia. (1996). Atlas histórico de la ciudad de México. México: UNAM. [12]MARTÌNEZ, Eduardo (2009). Miradas sobre el paisaje. España: Biblioteca Nueva. [13]MÁXIMO Magdaleno (1956) La Alameda Central. México: DDF-DGAS. [14]MOLANO, Horacio. “Descubriendo el Expediente del atentado. La novela histórica según Álvaro Uribe”. Decires, Revista del Centro de Enseñanza para Extranjeros. ISSN 1405-9134, vol. 14, núm. 17, primer semestre, 2012, pp. 71-90. [15]RECUPERACIÓN MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis de Especialidad, México: UAM-Azcapotzalco. 2011 [16]SANCHEZ, Adolfo (2003) Cuestiones estéticas y artísticas contemporáneas. México: Fondo de Cultura Económica. [17]TOUSSAINT, Manuel; GÓMEZ DE OROZCO, Federico; FERNÁNDEZ, Justino. “Plano de la Ciudad de México siglos XVI y XVII. Estudio urbanístico y bibliográfico”. XVI° Congreso Internacional de Planificación y de la Habitación, México MCMXC. Instituto de Investigaciones Estéticas de la Universidad Nacional Autónoma de México, 1938. México D.F. [18]TOVAR, Guillermo (2004). La ciudad: un palimpsesto. México: Ediciones sin Nombre/ Conaculta. [19]SEDUVI.Proyecto de Rehabilitación de la Alameda Central. Gobierno del Distrito Federal. Fuente: Secretaría de Desarrollo Urbano y Vivienda. México D.F. 2011 [20]http://www.retratodeunsueno.com/about/. [21]http://es.wikipedia.org/wiki/Palimpsesto. [22]http://todosobremivida-montezuma.blogspot.mx/2010/05/tenochtitlan-corazon-de-latierra.html [23]http://faculty-staff.ou.edu/L/A-Robert.R.Lauer-1/tenochtitlan2.gif [24]www.esteticas.unam.mx/revista_imagenes/anotaciones/ano_fernandez03.html [25]https://www.flickr.com/photos/45079117@N00/9462213225/ [26]https://www.flickr.com/photos/45079117@N00/9462213225/ [27]http://svazquez.blogspot.com/2004/05/gregorio-la-librera-de-cristal-y-la.html El Libro Científico Vol. I de Ciencias Básicas e Ingeniería y Ciencias y Artes para el Diseño, se terminó de imprimir el día 25 de noviembre de 2015 en Forma y Color, Av. Cuauhtémoc No. 12, San Lorenzo Atemoaya, C.P. 16400, Xochimilco, México, D.F. La obra consta de 200 ejemplares. ©Universidad Autónoma Metropolitana, Unidad Azcapotzalco. Av. San Pablo 180. Col. Reynosa, Tamaulipas. C.P. 02200, México, D.F.