Libro Científico 2015 parte I - mujeres en la ciencia

Anuncio
Libro Científico Vol. I
Ciencias Básicas e Ingeniería y Ciencias y Artes para el Diseño
creatividad e innovación
UNIVERSIDAD AUTÓNOMA METROPOLITANA
DIRECTORIO
Unidad Iztapalapa
Dr. Salvador Vega y León
Dr. José Gilberto Córdoba Herrera
Rector General
Director de la División de Ciencias Básicas e Ingeniería
Mtro. Norberto Manjarrez Álvarez
Dra. Edith Ponce Alquicira
Secretario General
Director de la División de Ciencias Biológicas y de la Salud
Dr. Romualdo López Zarate
Dra. Juana Juárez Romero
Rector de la Unidad Azcapotzalco
Director de la División de Ciencias Sociales y Humanidades
Dr. Eduardo Abel Peñalosa Castro
Rector de la Unidad Cuajimalpa
Unidad Lerma
Dr. José Octavio Nateras Domínguez
Dr. Gabriel Soto Cortés
Rector de la Unidad Iztapalapa
Director de la División de Ciencias Básicas e Ingeniería
Dr. Emlio Sordo Zabay
Dra. Rina María González Cervantes
Rector de la Unidad Lerma
Director de la División de Ciencias Biológicas y de la Salud
Dra. Patricia Alfaro Moctezuma
Dr. Pablo Castro Domingo
Rectora de la Unidad Xochimilco
Directora de la División de Ciencias Sociales y Humanidades
​Unidad Azcapotzalco
Unidad Xochimilco
Dr. Luis Enrique Noreña Franco
Mtro. Carlos Alfonso Hernández Gómez
Director de la División de Ciencias Básicas e Ingeniería
Director de la División de Ciencias Sociales y Humanidades
Dr. Oscar Lozano Carrillo
Mtra. María de Jesús Gómez Cruz
Director de la División de Ciencias Sociales y Humanidades
Director de la División de Ciencias y Artes para el Diseño
Dr. Aníbal Figueroa Castrejón
Mtro. Rafael Díaz García
Director de la División de Ciencias y Artes para el Diseño
Director de la División de Ciencias Biológicas y de la Salud
Unidad Cuajimalpa
Dra. Esperanza García López
Director de la División de Ciencias de la Comunicación y
Diseño
Dr. Hiram Issac Beltrán Conde
Director de la División de Ciencias Naturales e Ingeniería
Dr. Rodolfo René Suárez Molnar
Director de la División de Ciencias Sociales y Humanidades
©Avances de las Mujeres en las Ciencias las Humanidades y todas las Disciplinas. El Libro Científico Vol. I de Ciencias Básicas
e Ingeniería y Ciencias y Artes para el Diseño. Es una publicación editada por la Universidad Autónoma Metropolitana Unidad
Azcapotzalco. Av. San Pablo No. 180, Col. Reynosa Tamaulipas, Azcapotzalco, México, D.F. C.P. 02200. Teléfono Conmutador 53189000, http://www.uam.mx; Primera Edición noviembre de 2015. El Libro Científico Vol. I de Ciencias Básicas e Ingeniería y Ciencias y
Artes para el Diseño, impreso, ISBN: 978607280712 9. El Libro Científico Vol. I de Ciencias Básicas e Ingeniería y Ciencias y Artes para
el Diseño, versión electrónica ISBN 978607280715 0.
TODOS LOS DERECHOS RESERVADOS noviembre de 2015. Queda estrictamente prohibida la reproducción total o parcial de los
contenidos e imágenes de la publicación sin previa autorización de la ©Universidad Autónoma Metropolitana. Impreso en México por
“Forma y Color”, Av. Cuauhtémoc No. 12, San Lorenzo Atemoaya. CP 16400, Xochimilco, México, D.F.
Este número se terminó de imprimir el 25 de noviembre de 2015 con un tiraje de 200 ejemplares. Las opiniones expresadas por los
autores no necesariamente reflejan la postura del editor de la publicación, por lo que los artículos presentados son responsabilidad del
autor.
ii
Agradecimiento especial por su apoyo para la edición de este libro:
Rectores
Unidad Iztapalapa
Dr. Salvador Vega y León
Dr. José Antonio de los Reyes Heredia
Rector General
Ex-Director de la División de Ciencias Básicas e Ingeniería
Dr. Romualdo López Zarate
Dr. José Gilberto Cordoba Herrera
Rector de la Unidad Azcapotzalco
Director de la División de Ciencias Básicas e Ingeniería
Dr. Edueardo Abel Peñalosa Castro
Dra. Edith Ponce Alquicira
Rector de la Unidad Cuajimalpa
Director de la División de Ciencias Biológicas y de la Salud
Dr. José Octavio Nateras Domínguez
Dra. Juana Juárez Romero
Rector Unidad Iztapalapa
Directora de la División de Ciencias Sociales y Humanidades
Dr. Javier Velázquez Moctezuma
Ex-Rector de la Unidad Iztapalapa
Unidad Xochimilco
Dr. Fernando de León González
Unidad Azcapotzalco
Ex-Director de la División de Ciencias Biológicas y de la
Dr. Luis Enrique Noreña Franco
Salud
Director de la División de Ciencias Básicas e Ingeniería
Dr. Oscar Lozano Carrillo
Director de la División de Ciencias Sociales y Humanidades
Dr. Aníbal Figueroa Castrejón
Director de la División de Ciencias y Artes para el Diseño
Mtro. Ernesto Noriega Estrada
Jefe del Depto. de Procesos y Técnicas de Realización, CyAD
Dr. Marco Vinicio Ferruzca Navarro
Ex-Jefe del Depto. de Investigación y Conocimiento, CyAD
Dr. David Elizarrarás Martínez
Ex-Jefe del Departamento de Ciencias Básicas, CBI
Dr. Jesús Isidro González Trejo
Jefe del Departamento de Sistemas, CBI
Unidad Cuajimalpa
Dr. Rodolfo René Suárez Molnar
Director de la División de Ciencias Sociales y Humanidades
Dr. Hiram Isaac Beltrán Conde
Director de la División de Ciencias Naturales e Ingeniería
Dra. Esperanza García López
Directora de la División Ciencias de la Comunicación y
Diseño
iii
Comité Editorial Nacional
Dictaminadores de la División de Ciencias
Básicas e Ingeniería
Dictaminadores de la División de Ciencias
Biológicas y de la Salud
Benemérita Universidad Autónoma de Puebla,
Hospital de Especialidades, Unidad de Enfermadades
Facultad de Ingeniería Química
Neurológicas, CMN, S. XXI, IMSS, México
Dr. José Alberto Galicia Aguilar
Dra. Patricia Campos Bedolla
Universidad Nacional Autónoma de México. Centro de
Instituto Nacional de Neurología y Neurocirugía
Investigaciones Interdisciplinarias en Ciencias y Humanidades
“Dr. Manuel Velsaco Suárez”
Dra. Ana María Sánchez Mora
Dr. José Emilio Suárez Campos
Universidad Autónoma Metropolitana Azcapotzalco
Universidad Nacional Autónoma de México,
Dr. Adolfo Hernández Moreno
Instituto de Biología
Dr. Alberto Rubio Ponce
Dr. Agustín Quiroz Flores
Dr. José Antonio Eduardo Roa Neri
Dr. Jesús Isidro González Trejo
Universidad Nacional Autónoma de México,
Dr. Jorge Alfredo Esquivel Ávila
Centro de Ciencias de la Atmósfera
Dr. Victor Hugo Uc Rosas
Dra. Ana Rosa Flores Márquez
Universidad Autónoma Metropolitana Cuajimalpa
Universidad Nacional Autónoma de México,
Dr. Arturo Rojo Domínguez
Hospital General de México, Clínica de sueño
Dr. Rafael Santana Miranda
Universidad Autónoma Metropolitana Iztapalapa
Dr. José Luis Córdova Frunz
Universidad Autónoma Metropolitana Iztapalapa
Dra. Laura Galicia Luis
Dra. Irene Barriga Sosa
Dr. Manuel Aguilar Cornejo
Dra. Leticia Bucio Ortiz
Dr. Maximiliano Joel Asomoza Palacios
Dr. Armando Ferreira Nuño
Dra. Edith Cortés Barbarena
Dra. Florina Ramírez Vives
Dra. Enrique Canchola Martínez
Dra. Dulce María Sánchez Díaz Lima
iv
Comité Editorial Nacional
Dictaminadores de la División de Ciencias
Sociales y Humanidades
Dictaminadores de la División de Ciencias y
Artes para el Diseño
Instituto Politécnico Nacional
Instituto Nacional de Rehabilitación
Dra. Misaela Francisco Márquez
Mtra. Rosa María Rodrígez Cervantes
Universidad Autónoma Metropolitana, Xochimilco,
Instituto Tecnologico de Estudios Superiores de Monterrey,
Educación y Comunicación
Campus Chihuahua
Mtra. María Dolly Espínola Frausto
Dra. Patricia Zamudio Roa
Dra. Nathalie Desplans Puel
Universidad Nacional Autónoma de México,
Instituto de Investigaciones Económicas
Universidad Anáhuac
Dra. Alicia Girón González
DG Jessica Ceballos Ordoñez
Mtra. Patricia Rodríguez López
Universidad de Ciencias y Artes de Chiapas
Universidad Nacional Autónoma de México,
Dra. Laura Hernández Pinto
Programa Universitario de Estudios de Genero
Dra. Lourdes Enríquez Rosas
Unión de Universidades de América Latina y el Caribe
Dra. María Osvelia Barrera Peredo
Universidad Veracruzana
Dr. José Luis Suárez Domínguez
Universidad Iberoamericana, México
Mtro. Edward Bermúdez Macías
Universidad Nacional Autónoma de México,
Instituto de Investigaciones Jurídicas
Universidad Autónoma de Yucatán, Facultad de Ingeniería
Dra. María Teresa Ambrosio Morales
Mtra. Selene Audeves Pérez
Universidad Nacional Autónoma de México,
Universidad Autónoma Metropilitana
Licenciatura en Ciencia Forense
Mtro. Carlos García Malo
Dra. Zoraida García Castillo
Dr. Emilio Martínez de Velasco
Dr. Eduardo Langagne Ortega
Universidad Autónoma Metropolitana Azcapotzalco
Mtro. Luis Rocha Chíu
Dr. Adrián de Garay Sánchez
Dr. Marco Antonio Marín Álvarez
Dra. Guadalupe Huerta Moreno
Dra. Martha Tappan Velázquez
Dra. Marcela Suarez Escobar
Dra. María Aguirre Tamés
Dra. María García Castro
Mtro. Octavio García Rubio
Dra. María del Rocío Grediaga Kuri
Dra. Olinka González Mejía
Dra. Olivia Fragoso Susunaga
Universidad Autónoma Metropolitana Iztapalapa
Dr. Sergio Padilla Galicia
Dr. José Luis Córdova Frunz
v
Comité Editorial Internacional
Dictaminadores de la División de Ciencias
Básicas e Ingeniería
Dictaminadores de la División de Ciencias y
Artes para el Diseño
Universidad Católica Argentina,
Universidad Tecnológica Nacional, Argentina
La Salle Bussiness Engeneering School Barcelona, España.
Dra. Patricia Repossi Del Valle
Dr. Ricardo Torres Kompe
Universidad Federal de Alagoas, Brasil
Ministerio de Ciencia, Tecnología y Medio Ambiente. La
Dra. Lenilda Austrilinos Silva
Habana, Cuba
Dra. Mercedes Arellano
Instituto Andaluz de Ciencias de la Tierra (IACT), España
Dr. Claro Ignacio Sainz Díaz
FUMEC. Belo Horizonte, Brasil
Dra. Dinorah Rosalía Conte Turchetti.
Dictaminadores de la División de Ciencias
Biológicas y de la Salud
Université d ´Avignon et des Pays de Vaucluse, Francia
Dra. Ana Lilia Laureano Cruces
Instituto de Oceanologia, la Habana, Cuba
Dra. Mercedes Cano Mallo.
Universidad de Washington, Estados Unidos
Mtro. Hugo Solís García
Dictaminadores de la División de Ciencias
Sociales y Humanidades
Pontificia Universidad Javeriana,
Facultad de Arquitectura y Diseño. Bogotá, Colombia
Universidad de Málaga, España
Mtra. Ana Cielo Quiñones Aguilar
Dra. Analía Elizabeth Leite Méndez
Dr. José Ignacio Rivas Flores
Universidad de Los Andes, Merida, Venezuela
Mtro. Juan Carlos Márquez
Universidad de Barcelona, España
Dra. Sandra Martínez Pérez
University of Botswana Faculty of Engineering and
Technology, Botswana
Affaire personnelle profession libérale Recherche-
Mtro. Shorn Bakang Jackson Molokwane
développement en biotechnologie, Francia
Mtro. Luis Felipe Torres Yépez
Universidad de Nariño, Colombia.
Dr. Carlos Córdoba Cely
Instituto de Planificación Física, La Habana, Cuba
Ing Rita Águila Babastro
Universidad Politécnica de Cataluña, España
Dr. Edgar Castelán Maldonado
Dr. Juan Daniel Castillo Rojas
Dr. Alfredo Gutiérrez Hernández
vi
COMITÉ MULTIDISCIPLINARIO Y ORGANIZADOR
Ciencias Básicas e Ingeniería
Comité Internacional
Alicia Cid Reborido
Dr. Francisco A. Zurian - España
Alonso Martínez Martínez
Dra. Lenilda Austrilino Silva - Brasil
Annik Vivier Jégoux
Dra. Mercedes Arellano Acosta - Cuba
Berenice Quintana Díaz
Dra. Mercedes Cano Mallo - Cuba
Gabriela del Valle Díaz Muñoz
Dra. Montserrat Castelló Badía - España
Gudalupe Hernández Morales
Dra. Mute Toyota Fuji - Brasil
Lourdes Sánchez Guerrero
Dra. Sandra Martínez Pérez - España
Luis Noreña Franco
Yadira Zavala Osorio
Diseño Editorial
Victor Hugo Uc Rosas
Coordinación Editorial
M.D. Yadira Alatriste Martínez
Ciencias Biológicas y de la Salud
Dra. Aurora Minna Poo Rubio
Adriana Morales Otal
Ing. Damián Muciño Cruz
Lorena Gómez Ruíz
Ing. Genaro Eduardo Gallardo Villafaña
Ma. Guadalupe Miranda Arce
Dr. Victor Hugo Uc Rosas
Mariana Peimbert Torres
Diseño de Portadas y maquetación
Ciencias Sociales y Humanidades
D. C. G. Erwin Mauricio Gómez Solis
Adrián de Garay Sánchez
Ana Elena Narro Ramírez
Maquetación
Clara Martha Adalid Diez de Urdanivia
D. C. G. Luis Javier Avíles García
Guadalupe Huerta Moreno
D. C. G. Iván Ándres Verdin Martínez
D.C. G. Daniela Santos Sánchez
Ciencias y Artes para el Diseño
D. C. G. Sarai González Dorantes
D. C. G. Alieta Carbajal González
Aurora Minna Poo Rubio
Mtra. Adriana Acero Gutiérrez
Yadira Alatriste Martínez
Adriana Acero Gutiérrez
Comité Local UAM - Cuajimalpa
Mariana Peimbert Torres
vii
COMITÉ MULTIDISCIPLINARIO Y ORGANIZADOR
Logística y Administración
Mtra. Mónica Patricia Stevens Ramírez
Antonio Cruz Benites
Adriana Juárez Álvarez
Ariadna Gutiérrez Rosales
Bruno Hernández López
Dafne Anahid Chávez Martínez
Dafne Viridiana Flores Pomar
Damián Muciño Cruz
David Jesús García Almaraz
Eloy Santiago Urbina
Esteban Rosales Olmedo
Floriberta Solana Silva
Genaro Eduardo Gallardo Villafaña
Guadalupe Maya Chávez
Ivonne Elizabeth García Morales
Jesús Olayo Lortia
José Francisco Pinto Barrera
Josué Vivas Chávez
Luis Alberto Peralta Martínez
Marcela Torres León
María Elena Jaimes Pineda
Pedro Jesús Díaz Tecanhuey
Rosnely Cruz Cecilio
Rubith Romero Rubio
Apoyo Secretarial y Administración
Alejandra Salazar Carreón
Jovita Palafox Herrera
viii
Índice de Contenido
Prólogo............................................................................................................................. 13
Dra. Mónica de la Garza Malo
Introducción..................................................................................................................... 15
Dr. Arturo Rojo Domínguez
La Reforma Energética...................................................................................................... 21
Nicolás Domínguez Vergara, Reynaldo Vela Coreño
Otra Presentación de las Ecuaciones de la Cinemática.................................................... 33
Rodolfo Espíndola Heredia, Gabriela Del Valle Díaz Muñoz, Guadalupe Hernández Morales
Síntesis, Caracterización y Evaluación de las Propiedades de la MOF Cu3(BTC)2............. 47
Sandra Loera Serna
Aplicación Móvil para la Práctica de
los Verbos Compuestos del Idioma Inglés........................................................................ 54
Lizbeth Gallardo López, Beatriz González Beltrán, Julio César Castillo García
Uso de Análogos Estructurales del Ácido Valproico en la Inhibición de Desacetilasas
de Histonas, Como Propuesta para el Tratamiento de Glioblastomas.............................. 64
Marco Jiménez Olivares, Andrea Alpuche García, Leticia Arregui Mena, Hiram Isaac Beltrán
Optimización de la Asignación del Personal Docente con Base en
una Evaluación Integral.................................................................................................... 74
Rodolfo Espíndola Heredia, Enoc Gutiérrez Pallares, Jesús Edmundo López Hernández,
Marco Antonio Pérez Méndez
Modelo de Personalización para el Desarrollo de Herramientas de Software: Revisión
Sistemática de la Literatura.............................................................................................. 91
Claudia Isabel Martínez Alcalá, José Antonio Calvo Manzano
Las Álgebras de Funciones Cb(X,A) y (Cp(X,A)........................................................................ 104
Alejandra García García
Sistema de Aprendizaje Cooperativo Mediado por Tecnologías de la Información y
Comunicaciones..............................................................................................................111
Blanca Rafaela Silva López, Iris Iddaly Méndez Gurrola, Rosa Elena Cruz Miguel,
Hugo Pablo Leyva, Carlos Barrón Romero
Ventajas Sobre el Uso del Quitosano como Coagulante en el Tratamiento de Aguas
Residuales....................................................................................................................... 123
Icela D. Barceló Quintal, Mónica L. Salazar Peláez, Gustavo A. Martínez Pérez, Triana C. Cervantes Pérez, Julisa García Albortante, Elba Castillo Borges
9
Determinar el Grado de Degradación de un Suelo Agrícola Convencional en una Zona
Aguacatera Mediante su Comparación con un Suelo Agrícola Orgánico y Otro con
Vegetación Original........................................................................................................ 142
Icela D. Barceló Quintal, Yosinia Martínez Méndez, Victor M. Cetina Alcalá,
Julisa García Albortante, Mónica L. Salazar Peláez
Estrategia de Aprendizaje Basado en Problemas para el Laboratorio de Ingeniería I
de la Licenciatura en Ingeniería Biológica...................................................................... 158
Maribel Hernández Guerrero, Alejandra García Franco
Reducción de Psicofármacos en Aguas Residuales Después de la Filtración
con Membranas.............................................................................................................. 168
Isabel Del Castillo, Aurelio Hernández, Ma. Estela Montes
Densidades de Niveles Nucleares y Teoría de Números................................................. 183
Alfonso Anzaldo Meneses
Energía Solar, Retos y Oportunidades............................................................................ 191
Ana Elizabeth García
El reto urbano y la vivienda en México........................................................................... 201
Sara Topelson de Grinberg
Creación de sistemas de telemedicina basados en un modelo de diseño a
partir de una perspectiva Living Lab.............................................................................. 207
Yadira Alatriste Martínez, Ana Belén Cerezuela Jordán, Josep María Monguet Fierro,
Marco Vinicio Ferruzca Navarro
Propuestas editoriales para niños con discapacidad visual............................................ 225
Eska Elena Solano Meneses, Brenda García Parra, Gloria Angélica Martínez de la Peña
Diseño inclusivo para la divulgación de los discos giratorios protopastos..................... 235
Paula Murillo Jaramillo, Diana Córdoba Celly
La ergonomía cognitiva, diseño emocional y semiótica en el diseño inclusivo de
la interfaz gráfica de usuario para computadoras.......................................................... 252
Jose Alberto Yañez-Castillo, Ana Lilia Laureano-Cruces, Iván Garmendia-Ramírez
La influencia de la emociones en el fenómeno de la consciencia .................................. 266
Ana Lilia Laureano-Cruces, Martha Mora-Torres, Lourdes Sánchez-Guerero,
Javier Ramírez-Rodríguez y Javier Garduño-Cimental
Templo y exconvento de San Miguel Huejotzingo, Puebla análisis de
la forma geométrica del barroco poblano...................................................................... 284
Graciela Poó Rubio
Una mujer llamada Ethan: disonancias entre imagen visual y
las funciones de personajes en videojuegos................................................................... 294
Blanca Estela López Pérez
10
El método de la prefabricación y su incidencia en la gestión del diseño y
la construcción arquitectónica contemporánea en el campo profesional mexicano...... 303
Tomás Sosa Pedroza, Sue Carolina Andrade Díaz
Un acercamiento a la actual postura política virtual desde la mirada del Diseño......... 318
Betsabee Álvarez Jiménez
Lina Bo Bardi y su universo: subversiva y revolucionaria, vanguardista y crítica........... 330
Maricarmen Ramírez Hernández
La creación e interpretación musicales de las mujeres en
las orquestas sinfónicas mexicanas................................................................................. 343
Artemisa Margarita Reyes Gallegos
La mujer y el diseño universal........................................................................................ 355
Ana Laura González Rodríguez
Estudio de movilidad en personas con esclerosis múltiple............................................. 369
Erika Vanessa Coéllar Vázquez
La formación del diseñador industrial para promover el diseño inclusivo..................... 376
Aideé Peña Martín, Omar Eduardo Sánchez Estrada
El Reuso del Agua Residual Tratada y Cambio Climático................................................ 383
Carmen Julia Navarro-Gómez, Eduardo Florencio Herrera-Peraza,
Humberto Iván Navarro-Gómez, María Socorro Espino-Valdés, Adán Pinales Munguía,
Jorge Antonio Ortiz y Estela Montes Carmona
El Tercer Maestro: importancias de la estética, la organización, la comunicación y
la interacción en el entorno académico.......................................................................... 394
Ana Jessica Ceballos Ortiz Revuelta, Sandra Lewis Gayol
El impacto de ofrecer materias a distancia en tiempo real............................................. 403
Martha Elena Núñez López
Cuatro estaciones, Didáctica para el adulto mayor.........................................................413
Jennyfer Alejandra Castellanos Navarrete
Influencia del diseño editorial en la comprensión de un texto, análisis y
criterios para facilitar la lectura .................................................................................... 433
Adriana Acero Gutiérrez
El impacto de la educación básica en México en el desarrollo creativo
del estudiante................................................................................................................. 449
Elvia Palacios Barrera
“La Ruta de la Amistad” de la XIX Olimpiada de la Ciudad de México; cambios y
transformaciones hasta el presente................................................................................ 462
Segismundo Engelking Keeling, Carolina Engelking de Vicenzo
11
Diseño de un Artefacto de software para la Visualización Científica de
indicadores bioquímicos y clínicos y sus relaciones....................................................... 491
Jovita Hernández Arista
Políticas públicas de vivienda en México y su impacto en el desempeño de
las empresas desarrolladoras.......................................................................................... 501
Aurora Mina Poó Rubio
Estudio formal de elementos arquitectónicos en la Catedral de Puebla......................... 519
Jaime González Montes
Plan paisajístico de recuperación monumental y ambiental de la alameda central de
la ciudad de México: contribución académica UAM-A al proyecto del
gobierno del Distrito Federal.......................................................................................... 528
María Teresa Ocejo Cázares
12
Prólogo
El volumen I de esta semblanza y libro científico incluye los resultados de investigación de académicos y académicas de las áreas de conocimiento que
se desarrollan en las divisiones de ciencias básicas e ingeniería y de ciencias
y artes para el diseño, presentados en el iv congreso internacional de avances de las mujeres en las ciencias, las humanidades y todas las disciplinas,
creatividad e innovación, celebrado los días 24, 25 y 26 de septiembre de
2014 en la unidad cuajimalpa de la universidad autónoma metropolitana de
la ciudad de méxico.
Cuando gabriela del valle, coordinadora general del congreso, me invitó a
participar con el prólogo de este volumen, asumí que las investigaciones
estarían orientadas al análisis del aporte de las mujeres al desarrollo de las
disciplinas; sin embargo, al revisar los materiales presentados para su publicación me di cuenta de que fundamentalmente se presentan resultados
y avances de investigación de una amplia diversidad de temas que no sólo
reflejan los aportes de investigación de los y las autoras, mayoritariamente
mujeres, a sus respectivas disciplinas, sino que esta publicación permite
observar cómo ha evolucionado este congreso, ya que muchos de los materiales son producto del trabajo colegiado intra e inter institucional, lo que
evidencia la capacidad de colaboración académica entre un amplio grupo
de investigadores e investigadoras que promueven el desarrollo de sus disciplinas compartiendo el principio de igualdad de género, construyendo colectivos y redes de investigación que potencian sus esfuerzos y les permiten
lograr importantes resultados de los que esta publicación es una muestra.
En el texto, el lector encontrará que los artículos aquí incluidos atienden
a una amplia diversidad de temas; sin embargo, en su gran mayoría están
directamente asociados con la elaboración de propuestas para mejorar los
niveles de bienestar de la población, principalmente a través de desarrollos
creativos e innovadores que promueven el fortalecimiento de los procesos
de producción, transmisión, apropiación y divulgación del conocimiento; el
diseño de métodos innovadores para mejorar las condiciones de salud de la
población y el avance en una mayor inclusión de las personas con algún tipo
de discapacidad a través del diseño inclusivo y el desarrollo de propuestas
tecnológicas.
Así, encontramos artículos que presentan propuestas creativas para mejorar
la comprensión de temas diversos; el diseño y utilización de las nuevas tecnologías en el aprendizaje de estudiantes, adultos mayores y personas con
algún tipo de discapacidad; nuevas formas de organizar la asignación del
personal académico para lograr un mayor aprovechamiento por parte de los
estudiantes; diseño editorial y de espacios con el fin de lograr una mayor
13
comprensión y aprovechamiento de los estudiantes; así como la elaboración
de propuestas para la utilización de alternativas didácticas, con el uso de las
tecnologías de la información y el conocimiento, que permiten mejorar el
aprendizaje de los estudiantes a la vez que optimizan la utilización de los
recursos institucionales. de esta manera, se abordan prácticamente todos
los aspectos que forman parte de la discusión contemporánea respecto a los
procesos de generación, transmisión, apropiación y divulgación del conocimiento desde una perspectiva integral.
En cuanto a los temas de salud, los resultados de investigaciones que se
presentan incluyen propuestas y diseños metodológicos y técnicos respecto
a temas como la organización de la atención domiciliaria a los pacientes a
través de los “living lab”; nuevas formas en la aplicación de tratamientos
médicos de ciertos tipos de cáncer que reducen sus efectos secundarios;
diseños que permiten mejorar la movilidad de personas con capacidades
limitadas; diseño de software para la visualización y análisis de indicadores
bioquímicos y procedimientos innovadores para mejorar los procesos de
tratamiento de aguas que reduzcan la generación de residuos que afectan al
ser humano o al medio ambiente.
Los aportes que se presentan en este volumen, refleja una clara orientación de los y las autoras hacia la utilización del conocimiento, el diseño y
la técnica para proponer nuevas formas de análisis, de interpretación y de
abordaje de temas relevantes para la sociedad y plantear soluciones creativas e innovadoras desde una perspectiva incluyente y de respeto al medio
ambiente; lo que hace a esta publicación un referente de interés para los
especialistas en los temas que se abordan.
En general, se puede decir que los trabajos de este texto muestran que la incorporación de la visión femenina en el quehacer universitario ha conducido al cuestionamiento de los modos de concebir, producir, valorar y difundir
el conocimiento y sus aplicaciones, superando su carácter tradicionalmente
excluyente al promover la inclusión no sólo de género, sino también contemplando la perspectiva y la problemática de los grupos invisibilizados por
la sociedad, por lo que es importante fortalecer este tipo de iniciativas que
redundan en propuestas que atienden al bienestar general de la población.
Dra. Mónica de la Garza Malo
14
Introducción
Con estos volúmenes se cierra el cuarto ciclo del Congreso Internacional
de Avances de las Mujeres en las Ciencias, las Humanidades y todas las
Disciplinas. Se trata de la publicación en extenso de los trabajos presentados a finales de septiembre de 2014 que en esta edición se realizó en la
Unidad Cuajimalpa de la Universidad Autónoma Metropolitana. En particular, el lector encontrará aquí textos de las contribuciones clasificadas en las
divisiones de Ciencias Básicas e Ingeniería (CBI) y de Ciencias y Artes para
el Diseño (CyAD). Es útil recordar que estas publicaciones se realizan los
años nones, 2015 en este caso, mientras que el encuentro en el Congreso
sucede en años pares, correspondiendo en esta ocasión a 2014. También es
importante hacer énfasis en que se trata del cuarto ciclo, ya que con mucha
frecuencia las iniciativas de un evento como éste prosperan por una o dos
ocasiones y dejan de realizarse, por lo que el mérito del Comité Organizador es encomiable y merece una felicitación, así como reconocer a todos los
participantes por sus ponencias en sesiones orales y carteles, además de los
asistentes siempre solidarios. El resultado que hoy se plasma en tinta y papel
en estos libros hubiera sido imposible sin la generosa actuación, esfuerzo y
tiempo de todos ellos.
Son entonces ocho años de trabajo los que culminan y celebramos con
esta publicación. Pero no sólo debe reconocerse el esfuerzo sostenido, sino
también los resultados. La desigualdad de género, como muchas otras del
quehacer humano, está fuertemente arraigada en los hábitos y en la cultura. Con gran frecuencia somos testigos ciegos de ella, y no porque no la
veamos, sino porque estamos tan acostumbrados a ella que no nos parece
relevante en lo cotidiano. Debemos considerar esfuerzos como el de este
Congreso como un estandarte que señala la existencia de esa inequidad
y hace patente la importancia de quitar ese velo de nuestro entendimiento para reconocerla primero, y para tomar acciones después que permitan
mitigarla y tratar de erradicarla. Algunas formas incluyen las acciones afirmativas o discriminación positiva, sin embargo aunque se trata de un medio
válido y efectivo para manifestar la existencia de la injusticia, y compensar
sus consecuencias, tiene sus efectos colaterales. Por ejemplo, no deja de ser
una discriminación que segrega a otra parte de la población, o bien, puede
llegar a ser contraproducente al llevar a algunas personas a sitios o tareas
para los que no están realmente preparadas, ya que la inequidad es multifactorial y de raíces muy profundas, que se remontan al propio nacimiento
de cada uno de nosotros.
15
En contraste a las acciones afirmativas, eventos incluyentes como este IV
Congreso Internacional permiten la manifestación de la desigualdad de género con las puertas abiertas para que hombres y mujeres participemos en
sus trabajos, en su organización y en su difusión. En efecto, desde siempre,
el Congreso no sólo ha permitido la participación de varones sino que la
ha fomentado, y los propósitos del evento no están restringidos a trabajos
de mujeres o sobre su problemática, sino que promueve las condiciones de
igualdad. Además, genera un foro de discusión de temas de género, pero
también de ciencia, de humanidades y de todas las disciplinas, como se
declara en el propio nombre del evento.
El efecto de estas reuniones académicas puede ser notable, basta recordar lo
que sucedió en Seúl hace poco tiempo (junio 8 de 2015) en la World Conference of Science Journalists, en donde un profesor, que ha sido premiado
con el Nobel, realizó una broma que se interpretó como comentarios poco
apropiados sobre las diferencias entre hombres y mujeres. La respuesta fue
mayúscula, una petición pública y formal de los organizadores, la Federación Coreana de Asociaciones Femeninas de Ciencia y Tecnología (KOFWST
por sus siglas en inglés), de que el profesor se disculpara de sus comentarios justo en el almuerzo denominado Mujeres en la Ciencia. En efecto, la
disculpa fue emitida públicamente, de manera muy diplomática y enfática,
pero eso no evitó que la prestigiosa institución donde trabajaba el científico
le pidiera su renuncia, sólo dos días después del hecho. Si bien, parece que
la intención de las declaraciones no fue ofensiva y que mucha de la respuesta pudo haber sido fuera de contexto y amplificada por los medios, el punto
relevante es el impacto que puede imprimir un encuentro o congreso.
En este año, el Congreso hace referencia a cuatro mujeres muy destacadas.
La arquitecta Sara Topelson cuyo trabajo ha sido reconocido con diferentes
galardones nacionales e internacionales como la medalla Mario Pani otorgada por el Colegio de Arquitectos de la Ciudad de México, la Condecoración de Plata del Colegio de Arquitectos, y la Medalla Bene Merentibus de
la Asociación de Arquitectos de Polonia. Es la primera mujer que preside la
International Union of Architects y fue nombrada Mujer del Año en nuestro
país en 1996. La pintora surrealista Remedios Varo también fue recordada,
quien realizó trabajo artístico no sólo de pintura, sino de ilustración científica, en particular sobre entomología y de combate a la malaria, además de
actividades publiciatarias. Ambas nacieron fuera de México pero su actividad y lazos con nuestro país son o fueron entrañables.
16
Por otra parte, se hace un reconocimiento a la arquitecta Dame Zaha Hadid,
de origen angloiraquí cuya trayectoria es también un ejemplo de lucha de
una mujer por conseguir su espacio dentro de esta disciplina. Ha sido la
primera mujer distinguida con el Premio Pritzker que otorga anualmente
la fundación Hyatt por el alto nivel de creatividad de sus obras. También
recibió el Premio Mies van der Rohe que es el más importante de la Unión
Europea en Arquitectura y el Praemium Imperiale que otorga la familia imperial japonesa a través de la Asociación de Arte de ese país, en áreas que no
están cubiertas por el Nobel. Finalmente pero no menos destacada, se hace
un recuerdo destacado de la fotógrafa jalisciense Dolores Álvarez Bravo,
quien junto con su esposo de quien lleva los apellidos y con Modotti, Kahlo
y Rivera impulsaron en nuestro país una renovación artística en la primera
mitad del siglo XX. Sus series de fotografías, fotomurales y fotomontajes son
reconocidas en todo el mundo, y también su trabajo como empresaria, profesora y organizadora de exposiciones, dentro de ellas la primera y única de
Frida Kahlo en vida.
El carácter internacional del IV Congreso no se limita a las personalidades
descritas, todas ellas de talla universal, sino también a las conferencistas
y participantes en el evento. En las sesiones de las divisiones de CBI y de
CyAD se presentaron trabajos de muchas instituciones extranjeras dentro
de las que destacan la Universidad Politécnica de Madrid, la Universidad
Politécnica de Cataluña, el FUMEC de Brasil, la Universidad Tecnológica
Nacional de Argentina y de Colombia el CESMAG y la Universidad de Nariño. Dentro de las instituciones nacionales participaron las Universidades
Autónomas de Chihuahua, Ciudad Juárez, Estado de México y Yucatán, así
como las Universidades Veracruzana, del Valle de México e Iberoamericana. También contribuyeron el Colegio de Postgraduados, el Instituto Nacional de Enfermedades Respiratorias, el Tecnológico de Monterrey, la UNAM
y varias unidades de la UAM.
Se presentan en este volumen 14 trabajos clasificados en la división de CBI
y 26 de CyAD. Todos ellos arbitrados y corregidos por sus autores, y luego
revisados por el comité editorial. Este proceso de gran cuidado acrecienta
la calidad del material y ofrece al lector una gama muy amplia de información y puntos de vista de diferentes disciplinas; sin embargo existen algunos
denominadores comunes en los trabajos, independientemente de la división
en que fueron clasificados. Uno de ellos es la aplicación de las tecnologías
de la información y la comunicación, que se encuentra en varias contribuciones como un personaje indispensable en el desarrollo de las investigaciones y propuestas. Otro es el esfuerzo por la salud y la calidad de vida
17
de la población que es objetivo y motivación en otras varias aportaciones.
Además la educación se suma como descriptor transversal de otros varios
trabajos sumados al urbanismo y la arquitectura.
En suma, el lector tiene entre sus manos los frutos que muchos contribuyentes han sembrado y cultivado a lo largo de meses y años, y que han sido
preparados por los organizadores para ser de utilidad y aplicación. Se cierra
pues el ciclo del IV Congreso Internacional de Avances de las Mujeres en
las Ciencias, las Humanidades y todas las Disciplinas con gran éxito, con un
Comité Organizador que debe estar satisfecho y orgulloso por haber logrado
superar las expectativas y fortalecer la iniciativa que dio origen hace ocho
años a estos eventos. Esperamos con gusto e interés el inicio del siguiente
ciclo en 2016.
Dr. Arturo Rojo Domínguez
18
Ejes temáticos:
La Relación de la Industria, con la Creatividad e Innovación de las
Ciencias Básicas y la Ingeniería Desarrollada en las Universidades.
Innovaciones en la Nanociencia y su impacto en la Sociedad.
Ciencia y Tecnología Interdisciplinaria
Técnicas innovadoras y creatividad en la enseñanza de las Ciencias
Biológicas y de la Salud.
creatividad e innovación
La Reforma Energética
Nicolás Domínguez Vergara1, Reynaldo Vela Coreño2
Departamento de Sistemas.
1
Universidad Autónoma Metropolitana Azcapotzalco, Distrito Federal. México
Asesor en el Senado de la República. Distrito Federal. México
2
[email protected]; [email protected]
Resumen
El Gobierno Federal justificó la Reforma Energética como un medio necesario para remediar la caída de la producción de hidrocarburos, reducir
los precios de la energía y los energéticos sobre todo de la electricidad,
aumentar las inversiones financieras al sector, incentivar la competencia, la
transparencia y la rendición de cuentas, crear cientos de miles de buenos
empleos en el sector energético en el país y generar un ahorro de largo
plazo para todos los mexicanos, entre otras cosas. Con la Reforma se han
privatizado las cadenas productivas de Petróleos Mexicanos (PEMEX) y la
Comisión Federal de Electricidad (CFE), excepto las actividades estratégicas
de Exploración y Producción en el sector petrolero y las de transmisión, distribución, planeación y control en el sector eléctrico. Las expectativas que
creó el Gobierno en la población a través de los medios masivos de comunicación fueron enormes. Las discusiones para la aprobación de la Reforma
en el Congreso fueron mínimas y se ignoraron muchas de las críticas que se
le hicieron en las dos cámaras legislativas. En este trabajo se comenta la Reforma Energética, los pretextos que se usaron para aprobarla, por qué logró
aprobarse y sus posibles consecuencias.
Palabras clave: Reforma Energética, petróleo, gas natural, investigación y
desarrollo tecnológico.
Introducción
La Reforma Energética[1] es una de varias reformas estructurales que ha llevado a cabo el Gobierno Federal desde finales de la administración del Presidente Felipe Calderón Hinojosa. El decreto de Reforma Energética se promulgó en el Diario Oficial de la Federación el día 20 de diciembre del año
2013 después de ser aprobada tanto en la Cámara de Diputados, como en
la Cámara de Senadores y en las Legislaturas Estatales. Los puntos centrales
21
de la Reforma Energética son los cambios a los artículos constitucionales
25, 27 y 28, aunque hubo cambios a otras leyes y se promulgaron algunas
nuevas. Los cambios permitirán a los privados realizar todas las actividades
del sector energético excepto aquellas que se definen como estratégicas y
que son las actividades de exploración y producción en el sector petrolero
y las actividades de transmisión, distribución, control y planeación en el
sector eléctrico. Pero aún estas actividades estratégicas las podrán realizar
los privados por medio de contratos, permisos o autorizaciones.
Antes de la ola de privatizaciones del sector energético mexicano por los
gobiernos neoliberales, las actividades de exploración, producción, refinación, almacenamiento, transporte y comercialización de petróleo solamente
las podía realizar Petróleos Mexicanos (PEMEX). Lo mismo que la exploración y producción del gas natural. Las actividades de generación, transmisión, distribución, comercialización, control y planeación de la electricidad
solamente las podía llevar a cabo la Comisión Federal de Electricidad (CFE).
El 11 de agosto de 2014 se decretaron las Leyes Secundarias de la Reforma
Energética que determinan la operación del nuevo sector energético mexicano [2]. El 31 de octubre de 2014 se publicaron los Reglamentos de las
Leyes de la Reforma Energética en el Diario Oficial de la Federación.
La aprobación de la Reforma Energética resultó de la gran presión del exterior para que México abriera al sector privado su sector energético, principalmente de Estados Unidos [3], del Fondo Monetario Internacional y del
Banco Mundial. La estrategia para lograr la privatización del sector energético mexicano ha sido probada en varios países del mundo [4].
La aprobación de la Reforma se llevó a cabo en el Congreso prácticamente
sin discusión. Los argumentos de los partidos de oposición fueron ignorados
por el Partido Revolucionario Institucional (PRI) y el Partido de Acción Nacional (PAN). La aprobación de los cambios a los artículos constitucionales
se dio el día 12 de diciembre de 2013, que es cuando el pueblo se encontraba celebrando el día de la Virgen de Guadalupe. El día 20 de diciembre
de 2013 se publicó el Decreto de Reforma en el Diario Oficial de la Federación. Posteriormente se aprobaron las Leyes Secundarias a través de debates
simulados en el Congreso de la Unión.
La Reforma Energética se aprobó después del pico de la producción petrolera de 3.4 millones de barriles diarios en el año de 2004 que ha disminuido
a solamente 2.3 millones de barriles de barriles diarios en el mes de agosto
de 2015. Y antes de que el precio de la mezcla mexicana de petróleo des22
cendiera debajo de los 40 dólares por barril (como en la segunda quincena
del mes de septiembre de 2015).
Pretextos que se usaron para aprobar la Reforma Energética
Entre los pretextos que se usaron para aprobar la Reforma Energética se encuentran [5]:
a) México tiene mucho hidrocarburo en aguas profundas y en depósitos de lutitas (shale, en inglés).
b) Se importa mucho gas natural a pesar de los depósitos de gas de lutitas.
c) Se importa como el 50% de la gasolina que se consume.
d) El precio de la electricidad es alto. e) El gas natural de los depósitos de lutitas
generará electricidad limpia y barata.
f) La competencia entre PEMEX, la CFE y los privados bajará los precios de la
energía y los energéticos.
g) Tenemos insuficiente infraestructura para la distribución de gas natural.
h) México no tiene la tecnología para extraer el petróleo de aguas profundas.
i) México no tiene tecnología para sacar gas natural de depósitos de lutitas.
j) Las compañías privadas transferirán tecnología a México.
k) La tecnología para aguas profundas no se puede comprar.
l) México no tiene financiamiento para aumentar la producción de petróleo y
gas natural.
m) Estados Unidos porque produce mucho petróleo y luego ya no nos lo comprará.
n) México tiene tantos hidrocarburos que extraer que no puede solo.
o) La importación de petroquímicos es grande.
p) Existe riesgo financiero al buscar petróleo que se transferirá a los privados.
q) Con la Reforma Energética disminuirá la corrupción.
q) La ideología del nacionalismo impide modernizar el sector energético.
r) Los negocios privados son más productivos.
s) Ni PEMEX, ni CFE se van a privatizar. Ni PEMEX ni CFE se van a vender.
t) No se compartirá la renta petrolera.
El Gobierno desató expectativas muy altas entre la población difíciles de
cumplir y una gran mayoría de los pretextos ya no se sostienen. La mayoría
de los problemas del sector energético, si no es que todos, se podían resolver sin la privatización.
23
Se conjuntaron una serie de circunstancias para su aprobación
La Reforma Energética se aprobó por[5]:
1) La presión de Estados Unidos para que aumentara su seguridad energética. 2) La alianza del PRI, PAN y PRD en el Pacto por México que allanó el
camino. 3) No hubo grandes protestas de la población pues no percibió que
la Reforma amenazaba su economía. 4) Ya se habían desmantelado y endeudado a las empresas públicas. 5) El Congreso estaba subordinado al Titular
del Ejecutivo Federal. 6) Las legislaturas estatales se subordinaron también
al Ejecutivo Federal. 7) Líderes del Congreso y directivos de organizaciones
del Gobierno se beneficiarán de la privatización.
Comentarios sobre la Reforma Energética
a) Desintegra a PEMEX y a la CFE en empresas productivas subsidiarias y
en empresas filiales.
b) No asegura restitución de las reservas petroleras ni pone límites a la sobreexplotación de los campos de hidrocarburos.
c) No mandata mínimos de producción de petróleo, gasolina, otros refinados y petroquímicos por parte de PEMEX. Ni mínimo de producción de
electricidad por CFE.
d) Autoriza contratos de producción de petróleo que son entre otros: de
servicios, de utilidad compartida, de producción compartida y de licencia. En los contratos de utilidad compartida se comparten las utilidades
que se obtengan de la extracción de petróleo y ya comenzaron en la
primera licitación de la Ronda Uno.
e) No otorga autonomía de gestión a PEMEX y CFE pues sus consejeros
serán propuestos o elegidos directamente por el Presidente de la República.
f) Permite a la Secretaría de Hacienda y Crédito Público intervenir en los
techos presupuestales de PEMEX y CFE por lo que no tendrán autonomía presupuestal.
g) Está en vigor sin que los organismos reguladores como la Comisión
Nacional de Hidrocarburos (CNH) cuenten con los instrumentos para
regular a los privados en todas las actividades.
h) Aunque mandata que la información sobre los contratos se suba a internet no se divulgará información que se catalogue como confidencial
por lo que no se asegura la transparencia.
i) Establece que la exploración, explotación de hidrocarburos y activida24
des de la industria eléctrica son de interés social y orden público por
lo que son prioritarias sobre cualquier otra actividad (Artículo 96 de la
Ley de Hidrocarburos y Artículo 42 de la Ley de la Industria Eléctrica).
Así que si cualquier compañía privada, PEMEX, la CFE o sus empresas
productivas subsidiarias deciden realizar sus actividades en terreros que
escojan, los podrán ocupar después de establecer servidumbres legales
que no son más que expropiaciones simuladas. Los dueños de los terrenos no podrán negarse a rentarlos o venderlos o a posponer su renta o
venta hasta que el precio del crudo aumente.
j) Despertó la ilusión de que con los ingresos por los hidrocarburos al
Fondo Mexicano del Petróleo para la Estabilización y el Desarrollo se
crearía un sistema de pensión universal y becas para estudiantes, entre
otras cosas. Pero lo recabado será para regresarles a los privados parte
de sus costos e inversiones así como para pagar por contraprestaciones
como por la comercialización del petróleo. Además una parte del Fondo que consistirá en el 4.7% del producto interno bruto del año anterior
se transferirá al Gobierno Federal (para que sus ingresos petroleros sean
en promedio los mismos que ha estado obteniendo). Otra parte del
Fondo se destinará a otras partidas prioritarias.
k) A las empresas privadas no les impone una carga fiscal tan pesada como
la de PEMEX.
l) La CFE desintegrará sus actividades tanto vertical como horizontalmente y hasta contablemente con el fin de asegurar la entrada a esos negocios a los privados.
m) El contenido nacional en materia de exploración y producción de hidrocarburos se mandata que sea del 25% en el año 2015 y crezca al
menos a 35% en el año 2025 (Transitorio vigésimo cuarto de la Ley de
Hidrocarburos). Pero ello riñe con el Artículo 1106 (Requisitos de Desempeño) del Tratado de Libre Comercio con Estados Unidos y Canadá
que especifica que “Ninguna de las partes podrá imponer …. compromiso o iniciativa, …. para: ….. (B) Alcanzar un determinado grado o
porcentaje de contenido nacional; ….”. Así que el mandato sobre el
contenido nacional en las Leyes Secundarias es solamente una ilusión.
n) La Investigación y el Desarrollo Tecnológico nacionales no se fortalecen pues las compañías privadas traerán a sus técnicos y su tecnología.
PEMEX contratará al Instituto Mexicano del Petróleo o a terceros para
sus investigaciones (Fracción V del Artículo 5 de la Ley de Pemex).
ñ) Mandata a PEMEX y la CFE modificar sus contratos colectivos de trabajo, implementar programas de austeridad en el gasto y llevar a cabo a
una reducción de las obligaciones de pago de las pensiones y jubilaciones.
25
La Reforma Energética debilita a México
La Reforma Energética debilita a México porque [5]:
1) Disminuye la seguridad energética de México.
2) México perderá parte de la renta petrolera que se ha usado para proporcionar bienestar social, como educación y salud.
3) Las compañías trasnacionales corromperán más a nuestras autoridades.
4) Es incierta la supervivencia de PEMEX y la CFE en el mediano o largo
plazos.
5) No incentiva apropiadamente a las fuentes renovables y a la eficiencia
energética. El énfasis está en los hidrocarburos.
6) Se explotarán los recursos energéticos sin asegurar el desarrollo del país.
7) No existe seguridad para la supervivencia de las instituciones de ciencia
y tecnología nacionales para el nuevo sector energético.
8) No disminuirá la impunidad y la corrupción en el sector energético.
9) Disminuye la influencia geopolítica del país al ceder sus recursos energéticos a privados.
Posibles riesgos de la Reforma Energética
Algunos de los riesgos podrían ser [5]:
1) Al transferir parte de la renta petrolera los privados, el Gobierno podría
subir los impuestos a la población.
2) Al arrebatarle tierras, bosques o agua a la población para los privados
podrían originarse conflictos en el campo que dividan al país.
3) Estados Unidos podría invadir México con el pretexto de salvaguardar
los bienes de sus compañías petroleras y asegurar su abasto de petróleo.
4) Las compañías privadas podrían formar fuerzas paramilitares.
5) Las corporaciones financiarán campañas de candidatos a puestos de
elección popular que les convengan. Podrían convertirse en el gran
elector de México.
6) El despojo de tierras romperá tejidos familiares y sociales.
7) Habrá daños a la salud, a la integridad física y a las propiedades de las
personas, y al medio ambiente por la exploración y explotación de hi26
drocarburos de lutitas.
8) La disminución de la disponibilidad de agua debido a que se usará para
la fractura hidráulica cuyos desechos podrían contaminar acuíferos.
9) Desabasto de electricidad, gasolina, diesel, gas LP y petroquímicos si en
el mundo existe una oferta baja de ellos y México no los produce en
suficiencia.
10) Pérdida de libertad, seguridad y soberanía nacionales al ceder propiedad, control y usufructo de los recursos naturales valiosos para el
desarrollo nacional.
11) La aprobación acelerada de la Reforma mostró el desprecio a la legalidad que se ha vuelto común en los más altos niveles del Gobierno y
que puede aumentar.
12) Los precios de la energía y los energéticos podrían subir al estar regidos
por las “Reglas del Mercado” (Artículo 3 y otros en la Ley de la Industria
Eléctrica).
13) El financiamiento para las instituciones de educación superior podría
decrecer.
14) El Instituto Mexicano del Petróleo (IMP) y el Instituto de Investigaciones
Eléctricas (IIE) sufrirán cambios conforme PEMEX y la CFE se reducen.
15) Si el Gobierno no dispone de recursos suficientes podría proponer la
privatización de la educación superior.
Ronda Cero y Ronda Uno
Por medio de la Ronda Cero la Secretaría de Energía (SENER) le asignó a
PEMEX el 83% de todas las reservas probables del país [6] más el 21% de los
recursos prospectivos. Según estimaciones de la SENER, PEMEX tendrá suficiente para producir en promedio 2.5 millones de barriles diarios (MMbd)
de petróleo por los próximos 20.5 años. Si esto se convierte en realidad, el
Gobierno Federal tendrá recursos financieros asegurados anuales por 20.5
años. Ésta es la lógica que se siguió para definir la Ronda Cero, tratar de asegurar al menos los mismos ingresos que antes obtenía de PEMEX y además
algunos pocos ingresos extra de los privados (a través de la Ronda Uno);
aunque se cediera parte de la renta petrolera a los privados. De esta manera
nadie protestaría. Pero hasta el momento las cosas no han salido como lo
deseaban nuestros gobernantes.
El resto de las áreas que no se le asignaron a PEMEX ya se están licitando a
las compañías privadas y a PEMEX, aunque ésta última todavía no ha participado. A esta parte se le llama la Ronda Uno que ya comenzó formalmente
27
y los primeros contratos se otorgaron en la licitación de 14 bloques el día
15 de julio de 2015.
Producción futura de petróleo en México
De acuerdo a la Energy Information Administration (EIA) que es una parte
del Departamento de Energía de Estados Unidos, México logrará una producción de 3.7 millones de barriles diarios de petróleo y otros líquidos en el
año 2040. Esta producción sería casi como la que se tenía en el año 2004,
por lo que no habría muchos más trabajos que los que se tuvieron en 2004.
Si se realizaran muchos descubrimientos de petróleo en la parte mexicana
del Golfo de México Estados Unidos podría crear una presencia física geoestratégica en ese lugar por muchos años comenzando con la instalación de
plataformas de compañías privadas de ese país.
Si la población no sufre fuertes impactos negativos de la Reforma Energética
en su economía, prosperidad, salud y libertades, la Reforma podrá continuar. Su supervivencia también depende de si se establece en México una
democracia plena y progresista que promueva el desarrollo del país y luche
contra la corrupción, la impunidad y la desigualdad.
Por lo anterior, el éxito y la supervivencia de la Reforma son inciertos.
Precios bajos del petróleo y sus consecuencias
En PEMEX comenzaron los despidos de personal a principios del año 2015
argumentándose que se debían a los precios bajos del petróleo. En realidad
los despidos hubieran ocurrido aun sin esos precios bajos y únicamente por
el efecto de la Reforma Energética cuyo fin es en gran parte desmantelar a
PEMEX y a la CFE para cederles sus negocios a los privados.
El petróleo todavía será el botín en muchas guerras en los próximos decenios, que ocurrirán en periodos de escasez o para asegurar el abastecimiento futuro de los países poderosos.
La Reforma Energética se basa en la conjetura de que los privados se harán
cargo del desarrollo del sector energético nacional. Los precios bajos del
petróleo muestran sin lugar a dudas que los privados no tienen ninguna
intención y menos responsabilidad para invertir en negocios que no les reditúen enormes ganancias.
28
Las compañías petroleras de Estados Unidos que encuentran, desarrollan
campos y extraen petróleo de depósitos de lutitas lo hacen a un costo por
arriba de los 40 dólares por barril [7], por lo que el interés en explorar y producir hidrocarburos de lutitas en México por parte de compañías trasnacionales podría no ser grande durante el periodo de precios bajos. En este caso
tampoco habría demasiado interés por los campos es aguas profundas.
Debido a los precios bajos del petróleo desde finales del año 2014, en el
año 2015 el Gobierno recortó al gasto federal 124 mil 300 millones de pesos. El recorte incluyó 62 mil millones de pesos a Pemex y 10 mil millones
de pesos a la CFE. El pretexto de que con la Reforma se modernizaría a PEMEX para que pudiera competir contra los privados se evidenció.
La inversión de PEMEX se recorta para el año 2015 a pesar de que es necesario que encuentre más petróleo para restituir sus reservas. Por los recortes
PEMEX abandonará sus planes para la reconfiguración de refinerías y por lo
tanto de producción de gasolina y diesel ultradesulfurados. Por los recortes
ni PEMEX ni la CFE se encontrarán en buenas condiciones para competir
contra los privados.
La tecnología del fracking causa problemas al medio ambiente y a la salud
de los habitantes como lo demuestran varios estudios científicos, a pesar de
que científicos funcionarios del gobierno de México la impulsen. Esa tecnología se usará en México para producir petróleo y gas de lutitas ignorando
las prohibiciones que ya existen en algunos lugares del mundo sobre su uso.
Además de que la extracción de hidrocarburos usando esta tecnología no
es muy competitiva cuando los precios del petróleo están debajo de los 40
dólares por barril.
Con los precios bajos del petróleo los privados no arriesgarán sus inversiones y el gobierno forzará a PEMEX a sobreexplotar campos que tiene asignados y también a hacer alianzas con los privados. Al final de cuentas se
podría compartir la renta petrolera del petróleo más fácil de extraer, al forzar
a PEMEX a pasar asignaciones que tiene a contratos, a los que actualmente
el Gobierno les está llamando farmouts.
El 1 de enero de 2015 se anunció en el Diario Oficial de la Federación la
disminución de tarifas de electricidad en 2 por ciento porque se usará gas
natural, pero este energético también se importa en grandes cantidades en
dólares y el valor del dólar ha aumentado en más del 2 por ciento respecto
al peso, por lo que el gran beneficio neto a la economía del país todavía no
es claro.
29
Actualmente se tiene un PEMEX fracturado que no podrá extraer hidrocarburos en todos los campos en que hubiera podido hacerlo sin la Reforma
Energética ni participará en los muchos negocios del sector que se han privatizado, por lo que no contribuirá como antes al gasto del Gobierno.
Reflexiones sobre las Leyes Secundarias
Las leyes secundarias de la Reforma Energética contienen elementos que parecen razonables pero ceden a las compañías privadas propiedad y control
de los recursos energéticos nacionales.
Los precios de la electricidad, el gas natural y la gasolina no necesariamente
tendrán precios muy bajos en el futuro porque las compañías privadas asegurarán sus ganancias.
No se generarán cientos de miles de buenos empleos en el sector energético. Las oportunidades de empleo para los jóvenes profesionistas ocurrirán
porque muchos trabajadores del sector energético se jubilarán.
Las metas que ha difundido el Gobierno como la que aumentará la producción de petróleo a más de 3 MMbd y la de que bajará el precio de la electricidad en algunos años ya las tenían Pemex y la CFE como se documenta en
la Prospectiva de Petróleo y Petrolíferos 2013-2027 y en la Prospectiva del
Sector Eléctrico 2013-2017, así que no son nuevas. El Gobierno ha publicitado que los precios más bajos de electricidad que se están otorgando son
debidos a la Reforma, sin mencionar que es debido a acciones que ya se tenían programadas. Además también difundió que descubrió yacimientos de
hidrocarburos gracias a la Reforma Energética, cuando aún ninguna compañía privada hasta mediados de septiembre de 2015 ha realizado actividades
de exploración y exploración que les permitirá la Reforma.
Es incierta la cantidad de recursos financieros que obtendrá el Gobierno de
las compañías privadas como del nuevo PEMEX, de hecho por los precios
bajos del petróleo y la caída en la producción petrolera el Gobierno ya no
está obteniendo la tercera parte de sus ingresos de ese sector sino alrededor
del 20 por ciento. Y en el futuro podría ser menor.
Con las inversiones que lleguen al país debido a la gran apertura con grandes ventajas para los privados sí se crearán infraestructura y trabajos, pero
estos beneficios serán mínimos comparados con la pérdida de la riqueza
energética que se cede a los privados y con los grandes riesgos en los que se
ha puesto a la Nación.
30
Reflexiones Finales
Debido a que no se elaboraron escenarios de la producción de petróleo ni
de los posibles ingresos para el Gobierno por su venta, el Gobierno se encuentra en una situación financiera desfavorable, que no esperaba.
En la primera licitación de la Ronda Uno se licitaron 14 bloques para exploración y producción, pero solamente se adjudicaron 2 debido al poco
interés de las compañías petroleras sobre todo por los precios bajos del
petróleo. Los dos bloques fueron adjudicados a un mismo consorcio compuesto de una compañía mexicana, una estadounidense y una inglesa. Los
contratos de utilidad compartida para esos bloques ya mostraron la cesión
de una gran parte de la renta petrolera a las compañías privadas. Primero, las
compañías privadas podrán deducir de las ventas de los hidrocarburos hasta
alrededor del 72 por ciento de sus costos e inversiones. Segundo, del restante, el Gobierno Mexicano se quedará con alrededor del 40 por ciento. La
renta petrolera se cede a los privados. Para la segunda licitación el Gobierno
Federal solamente se quedará con alrededor del 35 por ciento, debido a que
el Gobierno se interesa en malbaratar los recursos de la Nación con tal de
dar la impresión de que las licitaciones tienen éxito, debido a que la primera
fue un completo desastre. El Gobierno está haciendo un gran esfuerzo para
que las compañías privadas participen en las licitaciones de los bloques de
hidrocarburos y les ofrece en la segunda licitación una parte más grande de
la renta petrolera.
Antes y durante la aprobación de la Reforma Energética y las Leyes Secundarias muchos de los partidarios de la Reforma ponían como ejemplo a
Petrobrás, la compañía petrolera que según alegaban se había privatizado y
por ello estaba obteniendo enormes ganancias. Lo que estamos observando
ahora que se ha aprobado la Reforma Energética es el gran escándalo de la
corrupción con la que esa compañía brasileña se desempeñó en los últimos
años; muchos de sus directivos se pasarán un tiempo en prisión.
Las guerras por los recursos naturales sobre todo por el petróleo y el agua
seguirán en el mundo. El petróleo todavía será el energético más importante
en el planeta, al menos por los próximos veinte años.
El énfasis de la Reforma Energética debió ser el impulso a la investigación,
el desarrollo tecnológico y la innovación tecnológica que son los que han
aumentado la riqueza de los países desarrollados, pero no fue así, fue la
entrega de los recursos energéticos a los privados. Ello se ha podido hacer
debido a la corrupción y a la impunidad que impera en el país.
31
No sabemos si las manifestaciones de protestas por los 43 estudiantes secuestrados y desparecidos de la Escuela Normal Rural de Ayotzinapa el día
26 de septiembre de 2014, sea el inicio de la reconstrucción y recomposición del país. Esa es una de las esperanzas del pueblo de México, quien al
final de cuentas, es el que decidirá su propio futuro.
Referencias
[1] Decreto por el que se reforman y adicionan diversas disposiciones de la Constitución
Política de los Estados Unidos Mexicanos, en Materia de Energía. Diario Oficial de la
Federación. 20 de diciembre de 2013.
[2] Leyes Secundarias de la Reforma Energética. Diario Oficial de la Federación, Edición
vespertina. 11 de agosto de 2014.
[3] Comité de Relaciones Exteriores del Senado de Estados Unidos. Oil, Mexico, and the
Transboundary Agreement. Diciembre de 2012.
[4] Sharon Beder. Energía y Poder, La Lucha por el control de la electricidad en el mundo.
Fondo de Cultura Económica. México, D. F. 2005.
[3] CNH, SENER, SHCP. http://ronda1.gob.mx/Espanol/resultados.html. Consultado el 20 de
julio de 2015.
[4]
Pemex. http://www.pemex.com/ri/finanzas/Reporte%20de%20Resultados%20no%20
Dictaminados/Reporte_1T15_150430.pdf. Consultado el 20 de julio de 2015.
[5] Nicolás Domínguez Vergara y Reynaldo Vela Coreño. Y los veneros de petróleo del diablo. GSM Comunicaciones y Negocios, S. A. de C. V. Mayo de 2015.
and the transboundary agreement. 21 de diciembre de 2012.
[6] Secretaría de Energía. Ronda Cero. http://www.energia.gob.mx/rondacero/_doc/Documento%20WEB%20Ronda%20CeroSSH.pdf
[7] FACTBOX-Breakeven oil prices for U.S. shale: analyst estimates. http://www.reuters.com/
article/2014/10/23/idUSL3N0SH5N220141023
32
Otra Presentación de las Ecuaciones de la Cinemática
Rodolfo Espíndola Heredia, Gabriela Del Valle Díaz Muñoz,
Guadalupe Hernández Morales
Departamento de Ciencias Básicas,
Área de Física Atómica y Molecular Aplicada, Universidad Autónoma
Metropolitana Azcapotzalco, Laboratorio de Investigación en Dinámica
Rotacional Edificio G-103, Av. San Pablo 180, Azcapotzalco., México D. F.
[email protected], [email protected],
[email protected]
Resumen
Al introducir el concepto de masa en las ecuaciones de la cinemática, obtenemos ecuaciones en términos de conceptos como: momento y fuerza, que
aclaran los conceptos de movimiento, relacionan la cinemática de partículas
con la dinámica de partículas, y se verifica y comprende mejor el teorema
momento-impulso. Llevamos este desarrollo hasta una ecuación cinéticodinámica, que probamos para obtener la solución de algunos problemas.
Palabras clave: Cinemática, Dinámica, Energía, Enseñanza de la Física.
Abstrac
By introducing the mass concept into kinematics equations, we obtain
others equations in terms of concepts such as momentum y force, clarifying
the motion concepts, where are associated particles kinematics with particle
dynamics, and verify and better understand impulse-momentum theorem.
We carry this development to a new kinetic-dynamic equation; we tried to
obtain the solution of some problems.
Key words: Kinematics, Dynamics, Energy, Physics Teaching.
Introducción
En los cursos regulares de física a nivel universitario uno de los primeros
temas de estudio es el movimiento, en donde corresponde a la cinemática,
responder a la pregunta que nos hemos formulado siempre: ¿Cómo es qué
se mueven los objetos? La cinemática (del griego κινεω, kineo, movimiento)
al ser una rama de la mecánica clásica estudia las leyes del movimiento de
33
los cuerpos, entendiendo por movimiento el cambio de posición que pueda sufrir un objeto, sin tomar en cuenta las causas que lo producen. Luego
entonces la rapidez (v) y la aceleración (a), son las dos principales propiedades que describen el cambio de posición en función del tiempo. En los
cursos de física introductoria, se le muestran al estudiante los distintos tipos
de movimiento: Movimiento Rectilíneo Uniforme (MRU), Movimiento Uniformemente Acelerado (MUA), Tiro Vertical (TV), Caída Libre (CL),(ambos
corresponden a un MUA con la salvedad que a=g), Tiro parabólico o movimiento de proyectiles (TP) (Este es una combinación de MRU y MUA) y movimiento circular uniforme (MCU).Presentando en cada caso las ecuaciones
que constituyen estos movimientos, y enseñando al estudiante a resolver
variedad de problemas.
Posteriormente se estudian las causas del movimiento, esta parte le corresponde a otra rama de la física que es la dinámica. La dinámica (del griego
δυναμικός, dynamikos, fuerte) es la parte de la física que describe cómo
evoluciona en el tiempo un sistema1 físico en relación con las causas que
intervienen en los cambios de estado físico y/o estado de movimiento de
dicho sistema. El objetivo principal de la dinámica es describir los factores
que producen alteraciones en un sistema físico, cuantificarlos y plantear
ecuaciones dinámicas de movimiento. Se presenta al estudiante como causa
principal del movimiento un desequilibrio de fuerzas externas sobre el sistema que tiene como efecto producir una aceleración.
Para el estudio de la dinámica, es importante introducir el concepto de masa
para dar lugar a nuevas cantidades derivadas como la fuerza, la cantidad de
movimiento, etc.
Posteriormente al establecer que son sólo las fuerzas externas al sistema las
que son responsables de producir alteraciones en un sistema físico, de tal
forma que se produzca movimiento, se establecen principios fundamentales
que forman teoremas, como la conservación del momento lineal y el teorema de impulso-momento, entre otros.
Un análisis sencillo de las ecuaciones de la cinemática y de la dinámica,
con la terna de propiedades x, t, m, nos permite desmenuzar los conceptos
y presentarlos, de tal manera que el estudiante pueda percibirlos de forma
1
Un sistema físico es un agregado de entidades materiales u objetos que interactúan entre sí con una interacción
casual entre sus partes existen 3 características de estos que son las principales [1]:
1. Se le puede poner una magnitud física o también llamada energía
2. Tiene un estado físico definido (sujeto a cambios por evolución temporal)
3. Tiene una ubicación especifica en el espacio-tiempo
34
natural y logre relacionar ambas ramas de la física, que por lo general no se
relacionan en los libros de texto.
El presente trabajo está organizado de la siguiente manera, en la sección II
presentamos la forma tradicional en que se exponen los conceptos en los
libros de texto, en la sección III se presenta el análisis que estamos proponiendo, a partir del cual se obtiene una ecuación interesante que hemos
llamado ecuación cinético-dinámica, y finalmente en la sección V presentamos nuestras conclusiones.
Teoría Conceptos fundamentales
Cinemática
Se representa el concepto de cambio de posición de una partícula que se
mueve unidimensionalmente en un sistema de referencia arbitrario como la
diferencia Δx, de acuerdo a la siguiente expresión:
(1)
el tiempo invertido en realizar este cambio de posición es:
(2)
el cociente de estas dos cantidades, da lugar al concepto de velocidad promedio o velocidad media:
(3)
La velocidad media geométricamente representa la pendiente de la recta
secante que pasa por dos puntos: inicial (t0, x0) y final (tf, xf) en la curva que
describe el comportamiento de la posición con respecto al tiempo Figura 1.
Al suponer que el instante temporal es infinitesimal, esto es: tf → t0 se obtiene
el concepto de velocidad instantánea:
35
(4)
Este límite nos lleva a ver geométricamente que la recta secante se convierte
en la recta tangente, por lo que el concepto de velocidad instantánea es la
pendiente de la recta tangente que toca el punto (t0, x0), Figura 1.
Figura 1: Representación gráfica de la velocidad media e instantánea como rectas secante y
tangente.
De forma similar se presenta el concepto de cambio de velocidad, cuando
existe un desplazamiento los dos estados: inicial y final del movimiento no
son los mismos generalmente, por lo tanto:
(5)
Si el movimiento es MRU, Δv = 0 y la partícula se moverá con velocidad
constante vf =v0. El cociente entre la ecuación (5) y la ecuación (2) nos proporcionan un nuevo concepto, la aceleración promedio dado como sigue:
(6)
La interpretación geométrica es similar que para el caso de la velocidad
media, sólo que ahora estamos en otro espacio, el de velocidades como
función del tiempo, los puntos inicial (t0 ,v0) y final (tf ,vf) son los puntos por
36
donde pasa la recta secante, por lo que la aceleración media es la pendiente
de la recta secante en este nuevo espacio (t vs. v).
De forma similar que para la velocidad, se toman elementos infinitesimales
y se hace tender el tiempo final al tiempo inicial tf → t0 para presentar el
concepto de aceleración instantánea dado por la siguiente expresión:
(7)
Las ecuaciones de la cinemática traslacional se construyen en términos de
estas propiedades, con la única restricción de que la aceleración sea constante, esto implica que Δa=0, por lo tanto suponiendo que el tiempo inicial
es cero y que el tiempo que se invierte en el desplazamiento es t, a partir de
la ecuación (6) se obtiene la primera ecuación de la cinemática:
(8)
Mientras que para obtener la segunda expresión de la cinemática traslacional usamos el concepto más intuitivo de velocidad promedio:
v =
vo + v f
2
,
(9)
Y al combinar con la expresión (3), igual que antes suponemos que t0= 0 y
que el tiempo que tarda el cambio de posición es t:
(10)
Ahora se hace uso de la expresión (8) donde se sabe cuál es el valor de la
velocidad al final de la partícula:
(11)
De esta última expresión se despeja la posición final de la partícula y se
obtiene la segunda expresión de la cinemática.
37
(12)
En los libros de texto, después de obtener estas ecuaciones, despejan el
tiempo de (8) y lo sustituyen en (12) y así se presenta otra ecuación, donde
el tiempo no aparece de forma explícita, asimismo también de (8) se puede
despejar la aceleración y sustituir en (12) y presentar otra ecuación, donde
la aceleración no esté presente de manera explícita.
Se observa que ambas ecuaciones (8) y (12), en realidad son ecuaciones que
relacionan las condiciones iniciales del movimiento, con las condiciones
finales del mismo, teniendo un parámetro constante, en este caso, la aceleración, y siendo el tiempo la ligadura entre los dos estados inicial y final del
sistema. Las ecuaciones así presentadas son una especie de balance entre
condiciones iniciales y finales.
Es necesario enfatizar que los valores que tomen las condiciones iniciales y
finales, dependen única y exclusivamente del sistema de referencia utilizado para estudiar el movimiento, por lo que: posición, rápidez y aceleración,
serán positivas o negativas, en conformidad con la elección arbitraria del
sistema de referencia.
Por último, resaltamos que la resolución de esta clase de problemas, se concreta entonces a resolver un sistema de dos ecuaciones con dos incógnitas.
De donde se desprenden casos particulares; si el sistema es un MRU, las
ecuaciones (8) y (12) se presentan de la siguiente manera:
v f = v0 ,
(13)
x f = xo + v0 t .
(14)
Si el sistema es MUA, las ecuaciones que los describen son las ecuaciones
(8) y (12), tal cual se han presentado en (8) y (12).
Dinámica
Al estudiar dinámica, en los cursos regulares de física, se presentan las tres
leyes del movimiento que fueron formuladas por Newton, la primera ley se
expresa de la siguiente forma:
38
Consideremos un cuerpo sobre el cual no opera ninguna fuerza neta externa. Si se encuentra en reposo, permanecerá en ese estado. Si se encuentra
en movimiento con velocidad constante (MRU). Seguirá en el mismo estado
de movimiento [2].
De esta manera se presenta un nuevo concepto, la fuerza, que se define en
la segunda ley de Newton, y que representa la causa por la cual ocurre el
movimiento.
La tercera propiedad fundamental de la física, después de la posición y del
tiempo es la masa. Esta se puede decirse que es una peculiaridad que tiene
un cuerpo y que determina su capacidad de resistirse al movimiento [3]. Desde luego, al aplicársele una fuerza, a un objeto con mucha masa, producirá
en él una consecuencia menor que la que resulta al aplicar la misma fuerza
a un objeto con poca masa.
Con este concepto en mente se presenta la segunda ley del movimiento
formulada por Newton como: El cambio de movimiento es proporcional a
la fuerza externa aplicada y ocurre a lo largo de la línea recta en la que se
aplica dicha fuerza [2,3]. Lo que hemos llamado consecuencia, es la aceleración que experimenta el objeto.
De acuerdo a lo visto en la sección de cinemática, si el objeto está acelerado entonces cambia su estado de movimiento o en otras palabras cambia
su velocidad. En conclusión, la causa del cambio en el movimiento es la
fuerza, y el efecto de la fuerza es la aceleración, ambas son directamente
proporcionales, mientras que el efecto es inversamente proporcional a la
capacidad que tiene el objeto de resistirse al movimiento.
En resumen establecemos la segunda ley de movimiento como:
(15)
La aceleración, así como lo expusimos anteriormente, depende del sistema
de referencia, por lo tanto, la fuerza estará determinada asimismo por el
marco de referencia del observador. Lo importante y que debe resaltarse es
que solamente las fuerzas externas al sistema son las que tienen la posibilidad de producir cambios en el estado de movimiento.
39
Ahora bien, si el objeto está en movimiento y se le aplica una fuerza externa,
solo la fuerza paralela o antiparalela a la dirección del movimiento, afectaran el movimiento del objeto, las fuerzas ortogonales a la dirección del
movimiento no afectan el movimiento.
La tercera ley del movimiento expresada por Newton, resume una observación interesante, que puede experimentarse fácilmente: Cuando un objeto
ejerce una fuerza sobre otro, también éste ejerce una fuerza sobre aquel.
Ambas fuerzas, tiene la misma magnitud, la misma dirección, pero sentido
contrario. A esta ley se le ha llamado la ley de acción-reacción, mientras
que a la segunda ley se le llama causa-efecto.
La tercera ley nos es útil para entender lo que ocurre en una colisión entre
dos objetos y como, la manera de interactuar entre los dos cuerpos que colisionan, es a través de esta acción-reacción.
Sin embargo, para comprender mejor el concepto de las colisiones, es que se
requiere introducir un nuevo concepto dinámico: el momento lineal, el cual
está definido como otra expresión similar a la causa efecto, donde aquí la
causa puede ser el momento lineal y es directamente proporcional al efecto,
el cual es la velocidad del objeto, mientras que nuevamente la velocidad del
objeto en este nuevo concepto es inversamente proporcional a la capacidad
que tiene el objeto de resistirse al movimiento. Muy similar a la segunda ley
de Newton, matemáticamente el momento lineal se expresa así:
P = mv ,
(16)
La velocidad, al igual que la aceleración, dependen del sistema de referencia, por lo tanto, el momento lineal estará determinado asimismo por el
marco de referencia del observador.
Como sabemos la aceleración es la razón de cambio de la velocidad con
respecto al tiempo, se encuentra que la relación entre la fuerza y la cantidad
de movimiento o momento lineal está dado por:
(17)
40
Donde se ha considerado que la masa es constante, de esta última expresión
se desprende uno de los teoremas importantes de la dinámica de partículas,
el teorema impulso-momento, al considerar una colisión entre dos cuerpos
y obtener el cambio total del momento, durante toda la colisión tenemos
que
(18)
Que es el teorema impulso–momento que dice:
El impulso de la fuerza neta que actúa sobre una partícula durante un
intervalo determinado, es igual al cambio de momento de la partícula
durante el intervalo [2,3].
(19)
donde el impulso se define como:
(20)
Modelo Teórico
Consideremos que se presenta el siguiente caso a un estudiante: tres objetos
de distintas masas m1=10 Kg, m2=5 Kg y m3= 15 Kg, se dejan caer desde la
misma altura de 40 m, de manera simultánea. Despreciando la resistencia
al aire ¿Cuál de ellos llegará en primer lugar al suelo?, Desde luego el estudiante responderá correctamente al indicar que no importan los valores de
las masas, al despreciar fuerzas de carácter disipativo como la fricción del
aire, los tres objetos llegaran al mismo tiempo.
Entonces, en nuestro modelo deductivo tomaremos en cuenta las ecuaciones (8) y (12), y observamos que estas ecuaciones no dependen de la masa
del objeto que se encuentra en movimiento. Por lo cual el parámetro masa
es independiente de la trayectoria de movimiento, a no ser que se requiera
un tratamiento de muchas partículas, donde el enfoque cambia al introducir
el centro de masa del sistema.
41
Figura 2: Representación gráfica de que ambas ramas están relacionadas, sin embargo no se
presentan así regularmente en los cursos de física, antes bien son tratadas como dos ramas
distintas de la física.
Sin embargo, si consideramos el hecho de que todo objeto que se desplaza
tiene masa, entonces podemos multiplicar la expresión (8) por la masa del
objeto y obtener una ecuación que nos será familiar:
(21)
Y con el uso de la ecuación (16) y (17) podemos escribir:
(22)
Que en el fondo no es más que la ecuación (19), presentada de otra forma:
(23)
Donde F estará representando la suma de las fuerzas externas que actúan
sobre la partícula, t el intervalo temporal en que actúa esta fuerza para producir un cambio en la cantidad de movimiento; esto es el impulso necesario
para producir el cambio en el movimiento.
Mostramos de esta manera la relación existente entre la cinemática y la dinámica ver Figura 2.
Ahora restringimos nuestra atención a un caso especial MRU, por lo que la
fuerza que actúa sobre la partícula es cero, entonces al sustituir F=0 en (22)
se obtiene la conservación de la cantidad de movimiento:
42
Pf = P0 ,
(24)
Queda mucho más claro, bajo qué condiciones es que se conserva el momento lineal, dese luego la ecuación (17) nos proporciona la misma información si hacemos F=0 se obtiene la expresión de la conservación de la
cantidad de movimiento también. Sin embargo, es mucho más claro que
esto debe ocurrir cuando el movimiento es rectilíneo uniforme. Debemos
recordar que para el caso de colisiones se deduce la conservación de la
cantidad de movimiento bajo el supuesto de que no existen fuerzas externas
sobre las dos partículas que colisionarán, por lo que antes y después de la
colisión la derivada del momento con respecto al tiempo es cero, pero durante la colisión actúa la tercera ley de Newton en su forma fuerte , esto es,
la fuerza que ejerce por ejemplo una partícula i sobre la partícula j, resulta
de igual magnitud, misma dirección pero sentido contrario a la que la partícula j ejerce sobre la partícula i, y además que estas fuerzas sean paralelas
al vector -
, donde
y
son los vectores de posición de cada una de
las partículas. Es por esto que la fuerza resultante se anula, en conclusión,
para deducir el teorema de conservación de la cantidad de movimiento, la
hipótesis que se debe presentar es que no existe fuerza y el movimiento es
tratado como si fuese un MRU.
Pero si vamos un paso más allá e introducimos la masa en la ecuación (12)
lo que obtendremos es lo siguiente:
(25)
Que con uso de las ecuaciones (16) y (17) podemos escribir como:
(26)
Y proponiendo que el producto mx tenga una variable especial tal cual se
ha propuesto para los productos mv o ma, y recordando que este producto
aparece asimismo en la definición del centro de masa, podemos sugerir que
q=mx; recordando la nomenclatura de las coordenadas generalizadas utili43
zada en la formulación Hamiltoniana es posible obtener:
(27)
De donde se desprende con el uso de (22) que
(28)
Que sería el equivalente de la ecuación (23), y obviamente la segunda derivada nos dará el concepto de fuerza o la segunda ley de Newton:
(29)
Pero podemos ir aun un paso más adelante introduciendo la masa en la
ecuación (8) y (12) podemos eliminar el parámetro temporal obteniendo la
siguiente expresión:
(30)
Que siguen siendo estrictamente hablando las ecuaciones de la cinemática,
al multiplicar por la masa tenemos lo siguiente:
(31)
la ecuación (31) en términos de q según definimos anteriormente es la siguiente expresión,:
44
(32)
que se puede escribir como:
(33)
donde se puede apreciar la definición de trabajo para una fuerza constante,
esto es:
(34)
En donde al definir w*=mW y k*=mK, se obtiene el teorema trabajo energía.
(35)
Conclusiones
Al introducir la masa en las ecuaciones de la cinemática se obtienen expresiones que pueden aclarar el concepto del movimiento.
Se deducen al menos dos teoremas importantes en la dinámica de un partícula, al introducir la masa en las ecuaciones de la cinemática y solamente
siguiendo un desarrollo algebraico.
Técnicamente se fundamenta la relación existente entre dinámica y cinemática.
Se provee una visión panorámica al estudiante de los cursos universitarios,
que le permita comprender mejor el movimiento y la física.
Uno de los inconvenientes que podemos observar es la energía potencial, tal
vez sea esta una pieza del rompecabezas que tengamos que estudiar más.
45
Agradecimientos
Los Autores agradecen a la Universidad Autónoma Metropolitana Azcapotzalco, al departamento Ciencias básicas y al área de Física Atómica y Molecular Aplicada por las facilidades otorgadas para la realización del presente
trabajo.
Referencias
[1] Robert M. Wald (1984): General Relativity, Chicago University Press, ISBN 0-226-870332.
[2] Sears F. W., Zemanski M. W., Young H. D., Freedman R. A., (2005), Física Universitaria,
volumen 1, editorial Pearson-Addison-Wesley, undécima edición.
[3] Resnick R., Halliday D., Krane K., (2004), Física, volumen 1, editorial CECSA, quinta
edición.
[4] R. Espíndola and G. Del Valle, (2013), Using conservation theorem to introduce the
ergodic hypothesis for a single particle, Latin American Journal of Physics Education.
Aceptado para su publicación.
46
Síntesis, Caracterización y Evaluación de las Propiedades de la MOF
Cu3(BTC)2
Sandra Loera Serna
Universidad Autónoma Metropolitana - Azcapotazalco
[email protected]
Resumen
En la actualidad las líneas de investigación en el campo de ingeniería de
materiales se han enfocado en materiales híbridos con características
modulables, que pueden tener diversas funcionalidades las cuales les confieren
aplicaciones especificas. Tal es el caso de las redes metal-orgánicas, mejor
conocidas como MOFs por sus siglas en inglés metal organic frameworks.
Estos materiales consisten en centros de iones metálicos, enlazados entre sí
por compuestos orgánicos (ligandos). La metodología de síntesis de las MOFs
aporta características fisicoquímicas especificas, las que varían en función
del tiempo de síntesis, del solvente usado y de la energía del proceso. En este
trabajo se presentan los resultados más importantes obtenidos para la estructura
Cu3(BTC)2 (BTC=benceno 1,3,5- tricarboxilato), que corresponde a una MOF
de cobre con un ligando trivalente. Se ha desarrollado una metodología que
mejora las propiedades de la MOF, como: área superficial, rendimiento,
capacidad de adsorción y reduce el tiempo de síntesis, adicionalmente
se ha determinado la máxima capacidad de adsorción de hidrógeno y
algunas propiedades electroquímicas. Cabe señalar que los resultados de la
caracterización electroquímica corresponden a una línea de investigación
innovadora en cuanto a redes metal orgánicas.
Palabras clave: redes metal orgánicas, MOFs, Cu3(BTC)2, electroquímica.
Abstract
At present the research in materials engineering has focused on hybrid materials
with modular characteristics, which confer specific physicochemical properties
for different applications. This is the case of metal-organic frameworks (MOFs).
MOFs materials are formed by centers of metallic ions linked together by
47
organic compounds (ligands). The synthesis method of MOFs provides specific
physicochemical characteristics, which can be modulated depending on the
time of synthesis, the solvent used and the energy of the process. In this work
we report the most important results obtained for the Cu3(BTC)2 (BTC=1,3,5benzenetricarboxylate) structure, which corresponds to a copper MOF with
trivalent ligand. We have developed a method that improves the properties of
the MOF, as surface area, yield, adsorption capacity and reduces the time of
synthesis. In addition, the maximum hydrogen absorption capacity and some
electrochemical properties additionally have been determined. Note that the
results of the electrochemical characterization correspond to an innovative
line of research in metal organic networks field.
Key words: Metal organic framewoks, MOFs, Cu3(BTC)2, electrochemistry.
Introducción
Entre los materiales híbridos más estudiados en la actualidad se encuentran las
redes metal orgánicas mejor conocidas como MOF (por sus siglas en inglés:
metal orgánica frameworks). Las principales aplicaciones de las MOF son en
catálisis [1], en adsorción de vapores polares [2] y de otros gases [3-5], en separación
de hidrocarburos, [6,7] en almacenamiento de hidrógeno [8,9] o de dióxido de
carbono [10] y en la dosificación de fármacos [11,12]. Un ejemplo de este tipo
de estructuras es la MOF Cu3(BTC)2, conocida también como HKUST-1 o
MOF-199, la cual esta formada por centros metálicos de cobre y una molécula
orgánica del tipo feniltricarboxilato (BTC= benceno 1,3,5- tricarboxilato). En
la Figura 1 se presenta el esquema de la estructura tridimensional de la MOF
Cu3(BTC)2, esta estructura pose una porosidad libre de 40.7% y un sistema
tridimensional de poros de 9 Å por 9 [13].
Figura 1. a) Ligante orgánico BTC, b) representación de la MOF Cu3(BTC)2. Las esferas de
color rojo representan las moléculas de oxígeno, las grises representan los carbonos y las
esferas azules representan los centros metálicos de cobre.
48
El almacenamiento de hidrógeno es una propiedad sobresaliente de las MOFs
debido a su gran área superficial. Se han reportado valores superiores a 2800 m2/g
gracias a su tamaño de poro y logran una capacidad e almacenamiento de 6.1 %
en peso. Hasta la fecha estos materiales se les consideran como microporosos y
su capacidad de adsorción es muy superior a la de los materiales microporosos
convencionales como las zeolitas o los carbones activados [14, 15].
En este trabajo se reportan los resultados más importantes obtenidos para la
estructura de la MOF Cu3(BTC)2. Se ha desarrollado una metodología que
mejora las propiedades de la MOF, como: área superficial, rendimiento,
capacidad de adsorción y reduce el tiempo de síntesis [16], adicionalmente se
ha determinado la máxima capacidad de adsorción de hidrógeno de la MOF
[17]
y algunas propiedades electroquímicas [18]. Las técnicas de caracterización
empleadas en este trabajo corresponden a; DRX, IR, TGA, adsorción de
nitrógeno y adsorción de hidrógeno. La técnica electroquímica empleada fue
voltamperometría cíclica.
Metodología
Para la preparación de la MOF Cu3(BTC)2 se pesaron 0.5 g de BTC y se disolvieron en 150 mL de agua destilada. Se adicionó gota a gota una solución
con 0.86 g de nitrato de cobre disuelto en 40 mL de etanol. La mezcla se
agitó 24 horas para garantizar la formación de la MOF. Se llevó la solución a
centrifugado a 55 rpm por 20 minutos. El sólido se seco a 50°C por 2 horas.
Posteriormente, se procedió a caracterizarlo mediante DRX, IR, adsorción
de nitrógeno y TGA.
Resultados
En la Figura 2 se muestra el difractograma del sólido sintetizado, el cual corresponde a la estructura cristalina de Cu3(BTC)2 reportada [17]. El parámetro
de red de la estructura cúbica es de 26.135 Å y el tamaño de cristal de 840
Å. Mediante IR se corroboró la presencia de los grupos funcionales característicos de la MOF: 728.15, 759.14, 1114.4, 1368.35, 1445.07, 1558.04, y
1615.13 cm-1 de grupos aromáticos trisustituidos, 1272.65 cm-1 de alcohol
primario y 938.21 cm-1 de carboxilato.
Mediante TGA se determinó que la MOF pierde 15 % de peso alrededor de 100 ºC,
correspondiente a las moléculas de solvente (agua o etanol) ocluidas en la estructura y que la temperatura de estabilización de la estructura es de 356 ºC.
49
El área superficial obtenida mediante adsorción de nitrógeno fue de 1732 m2/g
y la capacidad máxima de adsorción de hidrógeno fue de 2.44 % en peso.
Este resultado es de los más altos comparados con otros síntesis reportadas [17]
además se realiza en ausencia de solventes coordinates como dietilformamida,
dimetilformamida, trietilamina, lo que minimiza los procesos post-síntesis de
lavado, para dejar libre la estructura.
En la Figura 3 se presenta la respuesta voltamperométrica de la MOF
Cu3(BTC)2 con el electrodo modificado de pasta de carbón. La ventana de
potencial fue de -0.5 a 0.5 V/SCE. En dichos voltamperogramas se muestran
los ciclos 1, 2, 10 y 15 del electrodo modificado, se observan los procesos
catódicos CI (c.a -0.07 V/SCE) y CII (-0.32 V/SCE) los cuales están asociados
al proceso de reducción del Cu2+ a Cu0, mediante los pasos de reacción con
un electrón de transferencia de carga en cada uno.
Figura 2. Difractograma de la MOF Cu3(BTC)2. Se muestran los valores de los índices de
Miller en las reflexiones principales.[17]
Figura 3. Procesos catódicos y anódicos del electrodo modificado. CI y Cii representan los
procesos catódicos, mientras que AI y Aii son los procesos farádaicos.
50
Durante el barrido anódico la oxidación del cobre metálico a Cu1+ ocurre
entre el intervalo de potencial de -0.08 a -0.03 V/SCE, en c.a 0.17 V/SCE
se exhibe el proceso farádico asociado a la oxidación de Cu1+ a Cu2+. Se
demostró que la intensidad de corriente disminuye con respecto al número de
ciclos, debido a la difusión de los iones cobre desde la interfase del electrodo
hacia la solución, por otro lado, el recuadro muestra la variación del proceso
farádico AII a los diferentes ciclos, en el ciclo 1 se exhibe solo un pico de
oxidación del Cu0 a Cu1+ (c.a -0.03 V/SCE), mientras que en el segundo ciclo
esta oxidación puede ocurrir en diferentes sitios de la interfase del electrodo,
los cuales desaparecen al incrementar los ciclos. No existen trabajos previos
reportados sobre la caracterización electroquímica de MOF, por lo que los
mecanismos de procesos redox que ocurren en la estructura deben estudiarse
cuidadosamente para poder implementar más aplicaciones de estos materiales
en el campo de la electroquímica.
Conclusiones
Las MOFs tienen propiedades fisicoquímicas que pueden modularse durante
las síntesis de las mismas, cambiando determinados parámetros. En este trabajo
se propone una síntesis sencilla mediante agitación a temperatura ambiente
y se logra una estructura cristalina con alta área superficial (1732 m2/g) y alta
capacidad de retención de hidrógeno (2.44 % en peso). Adicionalmente se
propone el estudio electroquímico de la MOF y se determinan los potenciales
redox de las transiciones del estado de oxidación del cobre.
Agradecimientos
Al proyecto No. 154736 del CONACyT por el apoyo financiero y al Dr. Hiram
Beltrán Conde por la colaboración y el apoyo para el desarrollo de esta línea
de investigación.
Referencias
[1] Farrusseng D., Aguado S., Pinel C. (2009), Metal-Organic Frameworks: Opportunities
for Catalysis, Angewandte Chemie, 48, 7502-7513.
[2] Bourrelly S., Moulin B., Rivera A., Maurine G., Devautour S., Serre C., Devic T., Horcajada P., Vimont A., Clet G., Daturi M., Lavalley J.C., Loera–Serna S., Denoyel R., Llewellyn P.L., Férey G. (2010), Explanation of the Adsorption of Polar Vapors in the Highly
Flexible Metal Organic Framework MIL-53(Cr), J. Am. Chem. Soc.,132(27), 9488-9498.
51
[3]
Eddaoudi, M. Li, H. Yaghi O.H. (2000), Highly Porous and Stable Metal-Organic Frameworks: Structure Design and Sorption Properties, J. Am. Chem. Soc., 122(7), 13911397.
[4]
Millange, F. Serre, C. Férey G. (2002), Synthesis, Structure Determination and Properties
of MIL-53as and MIL-53ht: The First CrIII Hybrid Inorganic-Organic Microporous Solids:
CrIII (OH)·{O2C-C6H4-CO2}·{HO2C-C6H4-CO2H}x, Chem. Commun., 822-823.
[5]
Hu, S. Zhang, J.P. Li, H.X. Tong, L.M. Chen, X. M. Kittagawa K. (2007), A Dynamic Microporous Metal-Organic Framework with BCT Zeolite Topology: Construction, Structure, and Ad- sorption Behavior”, Cryst. Growth Des., 7(11), 2286- 2289.
[6]
Llewellyn P.L., Horcajada P., Maurin G., Devic T., Rosenbach N., Bourrelly S., Serre C.,
Vincent D., Loera–Serna S., Filinchuk Y., Férey G. (2009), Complex Adsorption of Short
Linear Alka- nes in the Flexible Metal–Organic-Framework MIL-53(Fe), J. Am. Chem.
Soc, 131(36), 13002-13008.
[7]
Pan L., Olson D.H., Ciemnolonski L.R., Heddy R., Li J. (2006), Separation of Hydrocarbons with a Microporous Metal–Organic Framework, Angewandte Chemie, 45(4),
616-619.
[8] M. Latroche M., Surblé S., Serre C., Mellot–Draznieks C., Llewellyn P.L., Lee J.H., Chang
J.S., Jhung S. H., Férey, G. (2006), Hydrogen Storage in the Giant-Pore Metal-Organic
Frameworks MIL-100 and MIL-101, Angewandte Chemie, 45(48), 8227-8231.
[9]
Yildrim T., Hartman M.R. (2005) Direct Observation of Hydrogen Adsorption Sites
and Nano–Cage Formation in Metal–Organic Frameworks (MOF), Phys. Rev. Lett.,
95(215504), 1-4.
[10]
Millward A. R., Yaghi O.M. (2005) Metal–Organic Frameworks with Exceptionally
High Capacity for Storage of Carbon Dioxide at Room Temperature, J. Am. Chem. Soc.,
127(51), 17998-17999.
[11] Taylor-Pashow K.M.L., Rocca J.D., Xie Z., Tran S., Lin W. (2009), Postssynthetic Modifications of Iron–Carboxylate Nanoscale Metal–Organic Frameworks for Imaging and
Drug Delivery, J. Am. Chem. Soc. 131(40), 14261-14263.
[12] Horcajada P., Chalati T., Serre C., Gillet B., Sebrie C., Batti T., Eubank J.F., Heurtaux D.,
Clayette P., Kreuz C., Chang J.S., Hwang Y.K., Marsaud V., Bories P.N., Cynober L., Gil
S., Férey G., Couvreur P., Gref R. (2009), Porous Metal–Organic Framework Nanoscale
Carries as a Potential Platform for Drug Delivery and Imaging, Nature, 9, 172-178.
[13] Gref Y., Minamitake T., Ttrubestkoy M., Langerll. (1994), Biodegradable long-Circulating
Polymeric Nanospheres. Science, 263(5153),1600-1603.
[14] Janiak, C. V. (2010), MOFs, MILs and More: Concepts, Properties and Applications for
Porous Coordination Networks, J. Chem, 34, 2366-2388.
[15] Kuppler, R. J. (2009), Potential Applications of Metal-Organic Frameworks. C. Chem.
Reviews, 253, 3042-3066.
[16] Beltrán H. I., Loera-Serna S., Flores J., López Núñez L., López- Simeon R. (2013), Síntesis
de Redes Metalorgánicas Tipo MOF, Solicitud de Patente, MX/A/2013/014913.
52
[17] Loera-Serna S., López Núñez L., Flores J., López- Simeon R., Beltrán H. I. (2013), An
Alkaline One-Pot Metathesis Reaction to Give a [Cu3(BTC)2] MOF at r.t., Rith free
Cu Coordination Sites and Enhanced Hydrogen Uptake Properties, RSC Advances, 3,
10962-10972.
[18] Loera-Serna S., Oliver- Tolentino M. A., López-Núñez L., Santana-Cruz A., GuzmánVargas A., Cabrera- Sierra R., Beltrán H. I., Flores J. (2012), Electrochemical Behavior of
[Cu3(BTC)2] Metal-Organic Framework: The Effect of the Method of Synthesis, J.Alloys
Compounds, 540,113-120.
53
Aplicación Móvil para la Práctica de
los Verbos Compuestos del Idioma Inglés
Lizbeth Gallardo López, Beatriz González Beltrán, Julio César Castillo García
Departamento de Sistemas, Universidad Autónoma Metropolitana, Unidad
Azcapotzalco
{glizbeth,bgonzalez}@correo.azc.uam.mx, [email protected]
Resumen
Esta investigación considera el concepto de estilo de aprendizaje postulado
en el área de psicología y educación, el cual sostiene que cada persona
aprende mejor si las tareas están enfocadas a su estilo de aprendizaje, a
saber: visual, auditivo, kinestésico y lector-escritor. También considera que
los dispositivos móviles son una plataforma adecuada para proponer aplicaciones que apoyen el aprendizaje de temas que requieren de práctica,
por ejemplo: el aprendizaje del idioma inglés, el aprendizaje de las tablas
de multiplicar, el aprendizaje de la programación. Además, los dispositivos
móviles son cada vez más utilizados por la población mexicana, tal y como
lo demuestra un estudio realizado por la COFETEL en el cuarto trimestre del
2013, el cual señala que existen 103.6 millones de suscriptores a la telefonía
móvil y 16.56 millones de usuarios de banda ancha móvil. En particular,
este trabajo presenta el análisis, diseño e implementación de una aplicación
para dispositivos móviles destinada a la práctica de los verbos compuestos
(phrasal verbs) del idioma inglés. Esta aplicación está enfocada en las personas con estilos de aprendizaje visual y kinestésico.
Palabras clave: Aplicaciones móviles, estilos de aprendizaje, herramientas
de apoyo al aprendizaje.
Abstract
This research considers the concept of learning style published in the area of
psychology and education, which holds that each person learns better if the
tasks are focused on their learning style: visual, aural, kinesthetic and readerwriter. Also considers that mobile devices are a suitable platform to propose
applications that support skills practices, for example, english language learning, multiplication tables, programming learning. Furthermore, Mexicans
use their mobile devices even more, according to a study conducted by COFETEL in the fourth quarter of 2013, shows that there are 103.6 million subs54
cribers to mobile telephony and 16.56 million of mobile broadband users.
In particular, this paper presents the analysis, design and implementation
of a mobile application for phrasal verbs skills practices. This application is
targeted to users with visual and kinesthetic learning styles.
Key words: Mobile applications, learning styles, learning support tools.
1. Introducción
Una investigación realizada por Cortés et al. [1] señala que la mitad de los
alumnos que estudiaron el idioma inglés, en el Centro de Enseñanza de Lenguas Extranjeras (CELEX) durante el periodo 2005-2007, en la Universidad
Autónoma Metropolitana, Unidad Azcapotzalco (UAM-A), alcanzaron un
nivel básico. Uno de los tópicos con mayor dificultad para los estudiantes es
el uso adecuado de los verbos compuestos (phrasal verb) del idioma inglés.
Un phrasal verb está formado por un verbo más una partícula gramatical: un
adverbio o una preposición. Una característica de estos verbos es que su significado varía según la partícula gramatical; además, un mismo phrasal verb
puede tener más de un significado, según el contexto de la oración donde se
emplea; por ejemplo, turn down en la oración: “He turned down the radio”,
no tiene nada que ver con la oración “He turned her down”.
De acuerdo con el modelo VARK por sus siglas en Inglés Visual-Aural-Reading/Writing-Kinesthetic propuesto por N. Fleming [2], los estudiantes tienen
distintas maneras de aprender:
1. Estilo Visual (Visual). Los estudiantes con estilo visual aprenden mejor
observando imágenes, tales como: diagramas, ilustraciones, mapas, videos, entre otros. En este estilo de aprendizaje, las personas prefieren
las imágenes al texto.
2. Estilo Auditivo (Aural). Los estudiantes con estilo auditivo aprenden mejor escuchando información. En este estilo de aprendizaje, las personas
buscan conferencias, cátedras, programas de radio, entre otros y son
buenas recordando cosas que escuchan.
3. Estilo Lector-Escritor (Reading-Writing). Los estudiantes con estilo lector-escritor aprenden mejor cuando la información es presentada en
forma escrita. En este estilo de aprendizaje, las personas prefieren material basado en texto.
4. Estilo Kinestésico (Kinesthetic). Los estudiantes con estilo kinestésico
55
aprenden mejor tocando y haciendo algo con las manos. En este estilo
de aprendizaje, es importante para las personas tener una experiencia
práctica.
Incluso, algunos estudiantes tienen un estilo multimodal; es decir, según la
situación en que se encuentren, emplean uno u otro estilo de aprendizaje
[3]
. Este trabajo considera diferentes estilos de aprendizaje para proponer recursos educativos para apoyar el aprendizaje de los verbos compuestos del
idioma inglés. Además, explora las nuevas tecnologías de la información y
la comunicación para poner a disposición estos recursos educativos.
Cabe señalar que los teléfonos inteligentes cada vez son más utilizados por
la población Mexicana, tal y como lo demuestra un estudio realizado por la
COFETEL en el cuarto trimestre del 2013, el cual señala que existen 103;6
millones de suscriptores a la telefonía móvil y 16;56 millones de usuarios
de banda ancha móvil. Es por ello que esta investigación propone emplear
dispositivos móviles (smarthphone y tablets) como plataforma para construir
aplicaciones educativas pero en forma de juego, las cuales puedan ser accedidas por el usuario en cualquier momento y en cualquier lugar.
Este artículo presenta una aplicación móvil con sistema operativo Android
llamada Phrasal Verbs. Esta aplicación está estructurada como un juego y
considera a los alumnos con estilo de aprendizaje visual y kinestésico. Phrasal Verbs consta de tres juegos: Throwing verbs, Phrases soup y Special. Todos los juegos consisten en asociar imágenes con verbos compuestos; donde
cada verbo compuesto tienen una correspondencia con la situación que
describe una de las imágenes. El juego funciona con la generación dinámica de nuevas partidas, es decir, los ejercicios son propuestos de manera
aleatoria. Se manejan tres niveles de dificultad: principiante, intermedio y
avanzado; se maneja un cronómetro y un medio de puntuación para que el
usuario observe el éxito obtenido en cada uno de los juegos.
El artículo está organizado de la siguiente manera: la sección 2 presenta
algunos trabajos relacionados con nuestro caso de estudio, a saber: aplicaciones que se han propuesto para la práctica del idioma inglés; la sección 3
presenta parte del análisis y diseño de la aplicación Phrasal Verbs, la sección
4 presenta la implementación de la aplicación, y finalmente se presentan la
conclusiones y las perspectivas de este trabajo
2. Aplicaciones para la práctica del idioma inglés
Existe una gran variedad de aplicaciones interactivas para la puesta en práctica del idioma inglés, pero pocas se proponen para dispositivos móviles y
56
casi ninguna en forma de juego. Algunos trabajos relacionados son:
The Oxford Picture Dictionary [7] es una aplicación móvil desarrollada por la
Universidad de Oxford, la cual propone ejercicios que consisten en la asociación de imágenes con el vocabulario de diversas situaciones de la vida
cotidiana y estudiantil. Esta aplicación cuenta con un módulo de evaluación
en el cual se puede poner a prueba lo aprendido. Esta aplicación no cuenta
explícitamente con algún apartado dedicado a los verbos compuestos del
idioma inglés.
La aplicación Learn and Play English [8] es una aplicación móvil desarrollada
por la Compañía DOMOsoft que propone la práctica del idioma inglés en
un nivel básico, donde no se incluye un módulo específico para practicar los
verbos compuestos del inglés.
La aplicación Phrasal Verbs Mobile [9] es una aplicación móvil para la plataforma Android y está dedicada completamente a los verbos compuestos
del inglés, dando su significado y proporcionando pequeños ejercicios para
evaluar el aprendizaje de quien lo usa; sin embargo, los ejercicios están
conformados por asociaciones de los verbos compuestos a sus significados
en inglés o sinónimos de las palabras en inglés y no incluye ningún tipo de
imagen que permita reforzar la interpretación y el uso de los verbos compuestos en el contexto adecuado.
Esta investigación considera que una aplicación con un ambiente de juego
no solo hará más atractiva la práctica del uso correcto de los verbos compuestos del inglés, sino que a través de la asociación de los verbos con las
imágenes que describen las acciones dentro de un contexto determinado, se
toma en cuenta a los aprendices que son visuales y kinestésicos. Además, el
uso de dispositivos móviles permitirá que un mayor número de estudiantes
practique en cualquier momento y en cualquier lugar, a través del juego, los
verbos compuestos del idioma inglés.
3. Análisis y diseño de Phrasal Verbs
La aplicación Phrasal Verbs está compuesta de tres juegos: Throwing verbs,
Phrases soup y Special, los cuales están enfocados a estudiantes con estilos
de aprendizaje visual y kinestésico, principalmente porque estos juegos requieren que el usuario asocie una imagen que representa una acción con
el verbo compuesto correspondiente. Todas las acciones del usuario se realizan a través de la pantalla táctil del dispositivo. Los verbos compuestos
57
considerados en la aplicación están formados por solo dos palabras: verbo +
partícula (adverbio ó preposición); y se seleccionaron aquellos que son más
utilizados en conversaciones cotidianas [4,5]. La descripción de cada juego se
presenta a continuación.
1. Throwing verbs. Este juego consiste en un verbo compuesto (expresado
de forma escrita), y una serie de imágenes. Cuando el usuario ubica la
imagen que representa la acción del verbo compuesto, debe tocar la
imagen para que se desplace hacia el verbo.
2. Phrases soup. Este juego consiste en una imagen y seis palabras correspondientes a verbos y partículas. El usuario debe juntar las dos palabras
que forman al verbo compuesto correspondiente a la situación que describe la imagen.
3.Special. Este juego inicia con una imagen y una oración, a la cual le falta el verbo compuesto; la imagen que presenta la aplicación es la clave
para que el usuario seleccione el verbo compuesto correcto.
Cada juego consta de siete partidas; donde el número de ejercicios es determinado por el nivel del usuario, y son escogidos aleatoriamente por la
aplicación. Además, cada partida tiene un límite de tiempo que depende
igualmente del nivel de cada juego, la tabla 1 muestra los parámetros para
cada nivel. Es importante mencionar que el juego Special no tiene un nivel
de dificultad asignado, y se proponen treinta ejercicios.
Tabla1. Parámetros de juego.
Nivel
Conjunto de ejercicios
Tiempo
(minutos)
Principiante
10
15
Intermedio
20
10
Avanzado
30
5
Para el desarrollo de la aplicación Phrasal Verbs se utilizaron elementos de
un marco de trabajo (framework), propuesto por Mario Zechner [6]. Este
framework está basado en el patrón de diseño Modelo-Vista-Controlador
(MVC). En particular, se emplearon las clases que se encargan de la representación en pantalla de los elementos gráficos del juego (Vista) y de las
clases Controladoras que reciben los movimientos que realiza el usuario
sobre la Vista para luego comunicarse con el Modelo del juego activo en
ese momento, el cual en respuesta envía el estado del juego a partir de ese
movimiento. El diagrama de paquetes de la figura 1 muestra la distribución
de las clases en la aplicación Phrasal Verbs.
58
Figura 1. Diagrama de paquetes de Phrasal Verbs.
La lógica de la aplicación se encuentra en un conjunto de clases que conforman el Modelo de nuestra aplicación (ver figura 2), las cuales se describen
brevemente:
1. La clase abstracta JuegoPV define el protocolo de comunicación del
framework con los juegos; además define algunas características, igualmente compartidas por los juegos.
2. La clase Imagen, conserva el identificador de la imagen, así como la
referencia a la imagen.
3. La clase ParteVerbo mantiene los identificadores y las palabras que conforman al verbo compuesto (verbo, partícula).
4. La clase VerboCompuesto está compuesta de dos clases ParteVerbo,
para obtener un verbo compuesto.
5. La clase EnunciadoVerboCompuesto se emplea en el juego Special
conservando los enunciados que deben formarse con los verbos compuestos, haciendo referencia al identificador del verbo y al identificador de la imagen asociados a dicho enunciado.
59
Figura 2. Clases del Modelo de Phrasal verbs.
4. Implementación de Phrasal Verbs
Phrasal Verbs funciona en teléfonos inteligentes con sistema operativo Android versión mínima 2.2 (Froyo); aunque se recomienda la versión 2.3
(Gingerbread). El dispositivo deberá contar con pantalla táctil (aunque no se
requiere que la pantalla del dispositivo sea multitoque). La resolución para
la que se diseñó la aplicación es de 480 x 320 pixeles, aunque en dispositivos de mayor tamaño funcionará sin problemas, dado que la misma aplicación adapta el tamaño de la imagen al tamaño de la pantalla, pero con una
pérdida en la calidad en las imágenes.
La pantalla principal (ver figura 3) muestra la opción de sonido activo o
inactivo y cada nivel del juego activo o inactivo, a partir de la evaluación
del nivel previo. Esta figura muestra la pantalla principal de la aplicación
cuando el juego Throwing verbs ha sido desbloqueado.
Cuando un jugador inicia por primera vez la aplicación, el nivel activo es
el de principiante (beginner) y el único juego activo es Phrases soup. Una
vez terminadas todas las partidas del juego Phrases soup con un 80% de respuestas correctas, el usuario pasa al juego Trowing verbs del mismo nivel. El
usuario pasa al siguiente nivel, cuando ha cubierto los dos juegos del nivel
previo.
60
Figura 3. Pantalla principal, cuando el juego Throwing verbs es desbloqueado.
La Figura 4 muestra la ejecución del juego Throwing verbs en el nivel de
principiante, donde se observa el cronómetro y el número de partidas con
respuestas correctas. Al pulsar sobre la imagen, ésta se mueve hacia el verbo
compuesto que se muestra en pantalla. Si el verbo compuesto corresponde
con la imagen seleccionada, el cuadro que contiene el verbo compuesto
cambia a color verde, de lo contrario cambia a color rojo, y si el sonido está
activo se reproduce un tono indicando que el movimiento es correcto, o
bien otro tono indicando que el movimiento es incorrecto.
Figura 4. Juego Throwing verbs cuando el usuario ha seleccionado una imagen.
La aplicación Phrasal Verbs cuenta con treinta imágenes con sus respectivos verbos compuestos y sus oraciones; sin embargo, la aplicación tiene un
módulo de escritorio llamado PhrasalVerbs Utility, el cual permite agregar
o eliminar verbos compuestos con sus respectivas imágenes y oraciones.
Desde luego, este módulo es para uso exclusivo de profesores y personas
responsables de la aplicación.
61
6. Conclusiones y trabajo futuro
En este artículo se presentó una aplicación móvil para la práctica de los
verbos compuestos del idioma inglés, llamada Phrasal Verbs. Esta aplicación
está estructurada como un juego que permite la práctica del idioma inglés y
que considera a los alumnos con estilo de aprendizaje visual y kinestésico.
Phrasal Verbs funciona bajo el sistema operativo Android y consta de tres
juegos: Throwing verbs, Phrases soup y Special. Todos los juegos consisten
en asociar imágenes y verbos compuestos; donde cada verbo compuesto
tienen una correspondencia con la situación que describe una de las imágenes. El juego funciona con la generación dinámica de nuevas partidas,
con un conjunto de ejercicios propuestos de manera aleatoria. Se manejan
tres niveles de dificultad: principiante, intermedio y avanzado; se maneja un
cronómetro y un medio de puntuación para que el usuario observe el éxito
obtenido en cada uno de los juegos.
En el corto plazo, existen varios objetivos en esta investigación:
1) Enriquecer la base de ejercicios para cada juego; es decir, pasar de una
base de 30 a 100 verbos compuestos.
2) Experimentar la aplicación con una muestra de alumnos inscritos al CELEX de la UAM-A, para medir la eficacia del aprendizaje de los verbos
compuestos por parte de los alumnos con estilos visual y kinestésico.
3) Dotar a la aplicación con sonido para que los alumnos practiquen la
pronunciación de los verbos compuestos.
Agradecimientos
Agradecemos la participación del ilustrador Rubén de la Torre Hernández,
quien se encargó de realizar las imágenes que emplea la aplicación Phrasal
Verbs.
Referencias
[1] Cortés G., Serrano D. y Valero-Borrás V. (2012). “Utopías y realidades en el requisito de
inglés en los planes de estudio de las carreras de la UAM-A. http://relinguistica.azc.uam.
mx /no011/sec01a01.htm. [En línea; consultado el 3 de septiembre de 2014].
[2] Fleming, N. D. (2006). “VARK Visual, Aural/Auditory, Read/Write, Kinesthetic”. New Zealand: Bonwell Green Mountain Falls.
62
[3] Klement, M. (2014). “How do my students study? An analysis of students’ of educational disciplines favorite learning styles according to VARK classification.” Procedia-Social
and Behavioral Sciences, Elsevier, vol. 132. p. 384-390.
[4] Spears R. A. (2005). Dictionary of American Idioms and Phrasal Verbs, McGraw-Hill.
[5] Oxford University (2003). Really Learns 100 Verbs, Oxford University Press.
[6] Zechner M. (2011). Beginning Android Games, Apress.
[7] Oxford Picture Dictionary. https://itunes.apple.com/mx/app/oxford-picture-dictionary/
id591484885?mt=8. [En línea; consultado el 3 de junio de 2015].
[8] Learn and play US American English. https://play.google.com/store/apps/details? id=free.langame_us.rivex. [En línea; consultado el 3 de junio de 2015].
[9] Phrasal verbs. https://play.google.com/store/apps/details?id=com.aarraappss.
phrasalverbs&hl=es_419. [En línea; consultado el 3 de junio de 2015].
63
Uso de Análogos Estructurales del Ácido Valproico en la Inhibición
de Desacetilasas de Histonas, Como Propuesta para el Tratamiento
de Glioblastomas
Marco Jiménez Olivares, Andrea Alpuche García, Leticia Arregui Mena, Hiram
Isaac Beltrán
División de Ciencias Naturales e Ingeniería.
Universidad Autónoma Metropolitana Unidad Cuajimalpa
[email protected], [email protected]
Resumen
El glioblastoma es uno de los diferentes tipos de cáncer que afectan a la
humanidad, y tiene las siguientes características: baja tasa de sobrevivencia
de los pacientes y la dificultad que lleva su tratamiento. Recientemente, se
ha utilizado el ácido valproico (AVP) como coadyuvante en el tratamiento
de glioblastomas, sin embargo tiene diversos efectos secundarios, es por
esto que en este trabajo se sintetizaron, caracterizaron y evaluaron análogos
estructurales tipo amida del ácido valproico. Resultados: Los compuestos
obtenidos fueron 7 valproamidas con diferentes sustituyentes en el anillo
aromático de la molécula. La síntesis se realizó empleando el cloruro del
AVP para llevar a cabo una reacción de condensación con el orto-aminofenol (APhOH1-5) deseado. La caracterización se llevó a cabo empleando cromatografía de placa fina, espectroscopia IRTF, RMN de 1H, 13C, HETCOR, y
determinando los puntos de fusión para cada uno de los compuestos. Para
medir su eficacia en el tratamiento de glioblastomas, se probaron los diferentes compuestos en dos líneas celulares, una de rata (C6) y una de humano
(U373), los resultados indican que los 7 compuestos nuevos tienen efectos
a menores concentraciones que el compuesto base (AVP); los compuestos
que tuvieron mayores efectos a menores concentraciones fueron los que tienen átomos de Cl en su estructura, seguidos por los que tienen grupos nitro,
después los de metilo y finalmente el compuesto que sólo tiene hidrógenos
sobre el anillo aromático.
Palabras clave: Glioblastoma, ácido valproico, análogos estructurales, viabilidad celular.
64
Abstract
Glioblastoma is one of several types of cancer that affect humanity, and
has the following characteristics: low survival rate of the patients and the
difficulty that bears its treatment. Recently, it has been used valproic acid
(VPA) as an adjuvant in the treatment of glioblastomas, however, it has various side effects, which is why in this work structural amide analogues of
VPA were synthesized and evaluated. Results: The obtained compounds
were seven valproamides with different substituents on the aromatic ring
of the molecule. The synthesis was carried out using the chloride of AVP to
carry out a condensation reaction with an ortho-aminophenol (APhOH1-5).
The characterization was carried out using thin layer chromatography, FTIR
spectroscopy, 1H, 13C and HETCOR NMR, and the melting points for each of
the compounds were determined. To measure its efficacy in the treatment of
glioblastomas, these compounds were tested in two cell lines, one from rat
(C6) and the other from human (U373). The results indicate that the seven
new compounds have effects at lower concentrations than base compound
AVP; compounds showing the major effects at the lowest concentrations
were those containing chlorine as substituent, followed by those with nitro
groups, later on those containing methyl and finally the one with only hydrogen atoms in the aromatic moiety.
Key words: Glioblastoma, valproic acid, structural analogs, cell viability.
Introducción
El cáncer es el crecimiento anormal de células, que pueden invadir regiones
del cuerpo cercanas, a su foco de inicio o dispersarse a otros órganos[1]. La
Organización Mundial de la Salud estimó que el cáncer es una de las principales causas de muerte en el mundo, para el 2012 causó 8.2 millones de
defunciones, principalmente por cáncer de pulmón, estómago, hígado, colon y mama [2].Particularmente en México la Secretaria de Salud indica que
durante 2010, murieron 7 mil 445 personas a consecuencia del cáncer [3].
El cáncer se origina de una célula con una mutación que le da la capacidad
de adquirir nuevos cambios como son otras mutaciones o cambios epigenéticos para afectar la función y expresión de genes involucrados en la proliferación celular, el control del ciclo celular, la muerte celular programada,
la diferenciación celular, entre otros [4]. La investigación en cáncer se ha
enfocado tradicionalmente en la identificación de mutaciones genéticas, sin
embargo diversos estudios han evidenciado la importancia de los cambios
epigenéticos como la causa de esta enfermedad [5].
65
Los mecanismos de control epigenético implican cambios en la expresión de
genes por metilación del ADN o modificaciones covalentes de las histonas
en aminoácidos específicos, principalmente de sus extremos amino libres,
tales como acetilación, metilación, fosforilación, ubiquitinación, etc. [4-6]
sin alterar la secuencia de nucleótidos de los genes. Entre estas modificaciones, la acetilación y desacetilación de las histonas tiene un papel central en
la regulación epigenética. Un nivel alto de acetilación de histonas caracteriza a la cromatina transcripcionalmente activa, mientras que la cromatina
inactiva usualmente presenta niveles bajos de acetilación de histonas [4,6].
En general, se ha descubierto que la ocurrencia de muchos tipos de cáncer está acompañada de una hipoacetilación de histonas [7]. Es por esto que
las nuevas estrategias para el tratamiento del cáncer se enfocan entre otras
cosas en la restauración del balance entre acetilación/desacetilación empleando inhibidores de desacetilasas de histonas (iHDAC) como el ácido
valproico (AVP) [8].
El AVP tiene diversos efectos sobre diferentes tipos de células cancerosas y
tumores, induciendo la apoptosis, diferenciación, inhibición de la proliferación, entre otros; estos efectos los realiza de forma autónoma, pero también a través de estos procesos potencia el efecto de otros fármacos[10,11,12].
La actividad como iHDAC del AVP se ha descrito recientemente, de ahí que
resulte de interés su uso dentro de las terapias contra el cáncer, ya que es un
fármaco utilizado en otros padecimientos al cual se le ha encontrado una
nueva función [10].
Sin embargo, a pesar de los efectos prometedores que ofrece el AVP contra
el cáncer, se ha detectado que causa diversos efectos secundarios que van
desde moderados a severos y que están relacionados con los efectos neurológicos [8].
Los glioblastomas son los tumores cerebrales primarios más comúnes [13] y
son de los cánceres más devastadores, ya que los tratamientos convencionales no aumentan la media de supervivencia de los pacientes con este tipo de
padecimiento [14], por lo tanto es importante investigar nuevos tratamientos
para combatir este tipo de cáncer.
Es por ello que este trabajo tiene el propósito de evaluar los análogos del
AVP sintetizados y caracterizados en dos líneas celulares de glioma, esperando que cuenten con mayores efectos en dosis menores para poder reducir los efectos secundarios.
66
Métodos
Esquema general de síntesis de compuestos AV.
Se colocaron 7.3 mL de SOCl2 en conjunto con 0.5 g de AVP en un matraz
de bola y se disolvieron con 40 mL de CH3CN para formar el cloruro del
ácido, esta etapa de la reacción se llevó a cabo por 24 h en agitación a
temperatura ambiente. Después se agregó una cantidad equimolar del ortoaminofenol correspondiente disuelto en CH3CN y se adicionaron 5 mL de
trietilamina mediante goteo al seno de la reacción empleando un embudo
de adición.
Después de la adición la mezcla se mantuvo una hora en agitación magnética y posteriormente se llevó a reflujo, el cual se mantuvo durante 24h. Una
vez transcurrido este tiempo se obtiene la amida correspondiente (ver figura
1). Los volátiles se remueven empleando presión reducida hasta sequedad,
la mezcla se disuelve con THF quedando insoluble el cloruro de trietilamonio, el cual se separa por filtración. La fracción soluble se lleva a sequedad nuevamente y el sólido resultante se recristaliza en mezclas acetato de
etilo:hexano. De esta manera se lograron obtener los compuesto AV1-7 en un
rendimientos que van de 23 al 78%.
Una vez purificados los compuestos AV1-7 se caracterizaron empleando cromatografía de placa fina, espectroscopia IRTF, RMN de 1H, 13C, HETCOR,
y determinando los puntos de fusión para cada uno de los compuestos. En
todos los resultados espectroscópicos y de caracterización se puede evidenciar la formación de las amidas correspondientes.
Figura 1. Esquema de síntesis de los análogos del AVP.
67
Cultivo Celular
Para las pruebas biológicas se utilizaron células de glioma de las líneas celulares C6 (de glioma de rata) y U373 (de glioma de humano). Las células
se mantuvieron en medio de cultivo F12 modificado de Dulbecco Eagle
(DMEM-F12) con 10% de suero fetal bovino (Invitrogen) y 1 mg de ampicilina-estreptomicina, a una temperatura de 37°C en una atmósfera húmeda
con 5% de CO2.
Determinación de la IC50
Para determinar las concentraciones inhibitorias 50 (IC50) de los compuestos
se realizaron ensayos de viabilidad; para lo cual se mezclaron los compuestos AV1-7 y el AVP con Tween 80 como agente emulsificador (9 Tween
80:1 compuesto) para disolverlos en agua (9 agua:1 mezcla); las células se
sembraron en placas de 96 pozos a una densidad de 5 x 103 células/pozo,
24h después de la siembra las células se trataron con AVP o AV1-7 a diferentes concentraciones (1000, 500, 250, 125, 62.5 y 6.25 μM) por 24h para las
células C6 y 48h para las células U373.
La viabilidad fue evaluada cuantificando la formación de formazán por deshidrogenasas mitocondriales a partir de la sal de tetrazolio WST-1 (Roche)
y se cuantificó en un espectrofotómetro a una longitud de onda de 595
nm. Para algunos de los compuestos la viabilidad celular se determinó por
conteo directo. Las IC50 se determinaron utilizando el programa GraphPad
Prism 6. Además se obtuvieron microfotografías antes de evaluar la viabilidad (200X) en un microscopio invertido para evidenciar los cambios celulares causados.
Resultados
Se sintetizaron y caracterizaron 7 diferentes análogos tipo amida del ácido
valproico (AVP), la posición de los diferentes sustituyentes del anillo aromático y la estructura de los compuestos evaluados se presenta en la Tabla 1.
68
Tabla 1. Estructura de las amidas valproicas, se indica el sitio y los sustituyentes presente en
cada molécula AV1-7.
Compuesto
R4 y R5
AV1
4-H, 5-H
AV2
AV3
AV4
AV5
AV6
AV7
Estructura
4-H, 5-Me
4-Me, 5-H
4-H, 5-NO2
4-NO2, 5-H
4-H, 5-Cl
4-Cl, 5-H
La evaluación de estos compuestos se realizó en células de glioma de las
líneas celulares de C6 y U373, en la figura 2 observamos que los compuestos AV1-7 a una concentración de 250 μM tienen efectos sobre la línea celular C6. Estos efectos se pueden observar a las 24h de tratamiento, por el
contrario en las células de la línea celular U373 los efectos se pueden observar hasta las 48h de tratamiento (figura 3) también a una concentración de
250 μM.
Figura2. Micrografías de contraste de fase (200X) de la línea celular de glioma C6 (24h).
Se observan los efectos de los compuestos AV1-7 en las concentraciones más cercanas a las
IC50. También se observa la morfología normal de las células (sin tratamiento), el efecto del
vehículo (Tween) y el efecto del compuesto base (AVP) también cercano a su IC50.
69
Figura3. Micrografías de contraste de fase (200X) de la línea celular de glioma U373 (48h).
Se observan los efectos de los compuestos AV1-7 en las concentraciones más cercanas a las
IC50. También se observa la morfología normal de las células (sin tratamiento), el efecto del
vehículo (Tween) y el efecto del compuesto base (AVP) también cercano a su IC50.
La concentración de los compuestos AV1-7 requerida para dichos efectos es
mucho menor que la que se requiere de AVP para observar cambios semejantes. En especial las células tratadas con los compuestos AV6 y AV7 son las
que se encuentran más dañadas, lo cual confirmamos con la evaluación de
la viabilidad celular (figura 4 y 5) en ambas líneas celulares.
La evaluación de la viabilidad celular confirma que los 7 compuestos sintetizados muestran efectos celulares promisorios en concentraciones menores
que el compuesto base AVP (tabla 2). Los sustituyentes electro donadores o
neutros, presentes en los compuestos AV2-3 y AV1 respectivamente, tienen
las IC50 más altas, lo que significa que tienen efectos sobre la viabilidad
celular a concentraciones mayores en ambas líneas celulares (figuras 4 y
5). Por otro lado los compuestos AV4 y AV5 que cuentan con sustituyentes
electroatractores tienen una IC50 media, por lo que las concentraciones a
las que tienen efecto es menor a los compuestos AV1-3.
70
Figura 4. Gráficas en las que se observan los resultados de absorbancia o número de células
(viabilidad celular) ante las distintas concentraciones de los compuestos AV1-7 sobre las células
de glioma C6. Las concentraciones se indican como el log de la concentración. Las líneas
representan el ajuste de los datos por regresión no lineal para calcular las IC50 (Tabla 2).
Figura 5. Gráficas en las que se observan los resultados de absorbancia o número de células
(viabilidad celular) ante las distintas concentraciones de los compuestos AV1-7 sobre las células
de glioma U373. Las concentraciones se indican como el log de la concentración. Las líneas
representan el ajuste de los datos por regresión no lineal para calcular las IC50 (Tabla 2).
71
Mientras que en los compuestos AV6 y AV7, que son los que tienen IC50 menores, la concentración a la cual tienen efectos es muy baja, pues es cuando
menos 10 veces menor que la calculada para el AVP.
Tabla 2. Valores con desviación estándar de IC50 de las amidas valproicas AV1-7.
Compuesto
AV1
AV2
AV3
AV4
AV5
AV6
AV7
AVP
Conclusiones
IC50 C6
IC50 U373
123.9±0.111
188.1±.050
180.3±0.241
180.3±0.101
75.33±0.246
219. 8±0.077
183.5±0.072
38.8±0.212
61.1±0.119
31.5±0.124
19.5±0.072
223.1±0.002
37.1±0.145
931.4±0.137
25.6±0.009
516.7±0.003
Es posible dar lugar a valproamidas por la condensación del cloruro del
ácido con aminofenoles. Los compuestos inhiben el crecimiento de líneas
celulares de glioma a concentraciones menores que el fármaco convencional AVP. En las células C6 y U373 el compuesto con mejor actividad fue
AV6 que tiene en su estructura un Cl como sustituyente, los análogos con
grupos nitro tienen una actividad media, seguidos por aquellos que tienen
un metilo, dejando en último lugar el AV1 que cuenta con hidrógenos como
sustituyentes.
Agradecimientos
A CONACYT proyecto 47310319, becaria 497183 y a la UAM.
Referencias
[1] Organización Mundial de la Salud (OMS), 2012. http://www.who.int/mediacentre/factsheets/fs297/es/ consultado el 11 de septiembre de 2014.
[2] Internacional Agency for Research on Cancer (GLOBOCAN), 2012. http://globocan.
iarc.fr/Pages/fact_sheets_cancer.aspx. Consultado el 11 de septiembre de 2014.
[3]Instituto Nacional de Estadística y Geografía (INEGI), 2011. http://www.inegi.
org.mx/inegi/contenidos/espanol/prensa/contenidos/estadisticas/2011/cancer11.
72
asp?s=inegi&c=2781&ep=51. Consultado el 11 de septiembre de 2014.
[4] Arenas-Huertero F. y F. Recillas-Targa. 2002. Gaceta medica de México 138 (6): 547555.
[5] Esteller M. 2007. Nature Publishing Group 2007: 286 (8).
[6] Alberts B., Bray D., et al. 2002,”Biología Molecular de la célula” (3ª ed.), Ed. Omega,
Barcelona.
[7] Delgado V. D. 2004. Real Academia Nacional de Farmacia. Revista electrónica http://
www.analesranf.com/index.php/mono/issue/view/313 consultado el 7 de julio de 2012.
[8] Chateauvieux S., Morceau F., et al. 2010. Journal of Biomedicine and Biotechnology
2010: 479364.
[9] Domínguez L. W., Rodriguez A. J. R., et al. 2007. Facultad de Ciencias Medicas 2007 (8):
105.
[10]Benítez J.A., Arregui L., et al. 2008. Neuroscience 156: 911-920.
[11]Wang C., Luan Z., et al. 2011.Neuroscience Letters 497 (2011): 122-127.
[12]Eyal S., Yagen B., et al. 2005. Biochemical Pharmacology 69 (2005): 1501-1508.
[13]Chen Y., Tsai Y.-H., et al. 2012 J. Neurooncol 109: 23-33.
[14]Shao C., Wu M., et al. 2012. Chinese Medical Journal 125 (24): 4338-4343.
[15]Michaelis M., Doerr H. W., et al. 2007. Curr Pharm Des 13 (33):3378-93.
[16]Catalano M. G., Fortunati N., et al. 2005. J Clin Endocrinol Metab 90 (3):13.
73
Optimización de la Asignación del Personal Docente con Base en
una Evaluación Integral
Rodolfo Espíndola Heredia1, Enoc Gutiérrez Pallares.2, Jesús Edmundo López Hernández.2, Marco Antonio Pérez Méndez2
Universidad Autónoma Metropolitana-Azcapotzalco, Física Atómica y
Molecular Aplicada, Laboratorio de Investigación en Dinámica Rotacional,
Avenida San Pablo 180, Azcapotzalco, Reynosa Tamaulipas, 02200 Ciudad
de México, D.F.
1
Universidad Autónoma del Estado de México, Unidad Académica
Profesional Cuautitlán Izcalli, Av. Prolongación Islas s/n, Col. Atlanta 2ª.
Sección, 54740 Cuautitlán Izcalli, México.
2
[email protected]; [email protected]; uapci.planeacion@gmail.
com; [email protected]
Resumen
El desempeño del personal docente en la UAP Izcalli, actualmente se mide
en conformidad con tres criterios importantes: 1) la apreciación del profesor
realizada por los estudiantes, 2) la evaluación de la clase metodológica y
3) visita a clase por personal del área académica durante el período. Esta
información aunque útil, no es utilizada para la asignación de la carga laboral del docente en el período siguiente. En el presente trabajo, presentamos un modelo de programación lineal donde proponemos integrar toda la
información disponible sobre el desempeño docente, de tal forma, que la
asignación de profesores considere todos los aspectos; tanto de evaluación,
cumplimiento, así como sus restricciones. Esta propuesta de asignación, garantizará la optimización del personal docente y al mismo tiempo se reflejará en un mayor aprovechamiento del estudiante.
Palabras clave: Educación Universitaria, Investigación Operacional, Administración Docente.
Abstract
The competence of teachers in the UAP Izcalli currently measured according to three major criteria: 1) teacher appreciation by students, 2) evaluation of methodological class and 3) visit to class by the academic area during
the period. This information, while useful, but is not used for allocating the
74
workload of teachers in the next period. In this paper, we present a linear
programming model which we propose to integrate all available information
on teacher performance, so that the allocation of teachers considers all aspects; Therefore evaluation, compliance and restrictions. This proposal will
ensure the optimization allocation of teachers and at the same time will be
reflected in higher student achievement.
Key words: Higher Education, Operational Research, Educational Administration
Introducción
El compromiso con la calidad en toda institución de educación pública es
preponderante hoy en día, una de las metas de toda institución de educación superior es proveer una formación sólida e integral a sus usuarios, que
permita a sus egresados ser incluidos en las distintas dinámicas contemporáneas que la globalización demanda. Para ello es importante que su personal académico se le permita participar dentro de la visión de la institución,
haciendo cumplir su misión de manera asertiva.
Entonces, es prioridad de quienes dirigen una institución de educación superior, proporcionar información, asesoría y capacitación, así como diversas actividades a fin de fortalecer la mejora continua de la institución, por
lo tanto debe pugnarse por una permanente actualización del sistema de
gestión de calidad y como consecuencia de la estructura organizacional,
considerando siempre la permanente atención, que de manera general debe
ser: eficiente, efectiva y amable para satisfacer las expectativas y demandas
de los usuarios, desde luego impulsando el conocimiento con valores y realizando las actividades con una alta responsabilidad social.
En esta búsqueda de la excelencia por parte de las instituciones de educación superior se adquiere el compromiso de formar a los estudiantes a través
de modelos integrales, pertinentes y de calidad, basados en la investigación,
difusión, extensión y vinculación, de esta manera se pretende proveer de
carácter científico, social, cultural, artístico a todos los egresados, para que
aparezcan nuevas y mejores formas de existencia y convivencia hacia sus
distintos entornos, además estén capacitados para promover la responsabilidad social, la cooperación y la conciencia universal en los distintos ámbitos
del ejercicio de su profesión.
Para alcanzar estos ideales, toda Institución de educación superior debe
contar con personal académico, el cual se debe encontrar preparado y ac75
tualizado, a fin de que se distinga en la docencia, la investigación, la difusión cultural, la extensión y vinculación y que contribuya al desarrollo de
su institución.
La selección del personal académico, sin embargo, no siempre se encuentra
basada en políticas que las universidades ofrecen abiertamente, es decir,
en algunas instituciones es requisito la realización de exámenes de oposición, donde los criterios de un conjunto de académicos que debiese ser un
criterio objetivo suele ser a veces subjetivo, y no siempre existe armonía y
coherencia entre la misión y visión de la universidad y el personal contratado para cumplir con ellas. En otros casos sólo se basa en el hecho de un
concurso curricular, donde predomina un sólo criterio, el puntaje más alto
de los concursantes, y no existe una verdadera valoración de sus funciones
como docente y mucho menos de las tareas que habrá de realizar dentro de
la institución. En otros casos, tal vez los peores, incluso criterios totalmente
subjetivos influyen en la contratación o no del personal, en estos casos suele
ocurrir que profesores pertinentes para la institución, en algunas ocasiones
no son recontratados sólo por obedecer criterios meramente subjetivos.
En el presente trabajo proponemos un modelo de asignación que favorezca
la optimización en la calidad educativa, modelo que está basado en todos
los rubros que el profesor debe cubrir a lo largo de todo un semestre, en el
que tiene la oportunidad de presentar su desempeño que lo califique para
poder ser recontratado.
Hemos tomado como base los criterios propuestos por la Unidad Académica Profesional Cuautitlán Izcalli, de la Universidad Autónoma del Estado de
México como objeto de estudio, sin embargo, adaptarlo a los criterios que
cada universidad mantiene, no es tarea difícil.
El trabajo lo hemos estructurado de la siguiente manera, en la primera sección presentamos la teoría referente a la programación lineal con respecto
al modelo de transporte y su derivación al modelo de asignación, en la segunda sección presentamos el modelo que proponemos, sus características
y cómo se obtiene la evaluación integral para cada profesor, en la tercer
sección presentamos la simulación del modelo propuesto, finalmente en la
cuarta sección ofrecemos nuestras conclusiones respectivas.
76
Teoría
Modelo de Transporte
El modelo de transporte busca determinar un plan de transporte de una mercancía desde varias fuentes hacia varios destinos[1]. Los datos del modelo
son:
• Nivel de oferta en cada fuente y la cantidad de demanda en cada destino.
• El costo de transporte unitario de la mercancía a cada destino.
El modelo se considera una opción por medio de la cual algún administrador debe determinar la mejor forma de hacer llegar los productos de sus diversos almacenes a sus consumidores, con el fin de satisfacer las demandas
de los clientes a un costo mínimo.
Figura 1. Red que representa la idea general del modelo de transporte, las fuentes son las
ofertas y los destinos son las demandas, de manera general m≠n.
El modelo de transporte es un problema de optimización de redes, donde
debe determinarse como hacer llegar los productos desde los puntos de
existencia hasta los puntos de demanda, minimizando los costos de envío,
ver Figura 1. El modelo es utilizado para realizar actividades tales como:
control de inventarios, programación de empleo, flujo de efectivo, programación de niveles de reservas en prensas, asignación de personal, entre
otras, siendo éste último el de nuestro interés.
77
De manera general se tiene la función objetivo:
(1)
donde Cij representa el costo y Xij son las variables de decisión del problema
de programación lineal. La meta es minimizar la función objetivo determinada por Z, desde luego que esta función objetivo va acompañada de un
conjunto de restricciones propias de cada problema.
Modelo de Asignación
El modelo de asignación clásico se ocupa de organizar a los trabajadores,
los cuales en principio tienen diversas habilidades, con los trabajos por realizar. Suponemos que la variación en la habilidad del trabajador, afectará el
costo del trabajo asignado. En el modelo cásico, la meta es determinar la
asignación de costo mínimo de los trabajadores a los trabajos[2]
De forma general, el modelo considera n trabajadores y n trabajos por asignar, el cual queda representado de acuerdo con la Tabla 1, donde el elemento Cij representa el costo de asignar al trabajador i al trabajo j, sin perder
generalidad, vamos a suponer que el número de actividades es igual al número de trabajadores por asignar, debido a que durante la resolución del
modelo siempre es posible asignar tanto trabajos como trabajadores ficticios
sean necesarios, a fin de que tal suposición sea satisfecha.
El modelo de asignación es posible resolverlo al utilizar los métodos propios
del modelo de transporte, es decir, ya sea por medio de los métodos: Esquina
Noreste, Voguel o Costos Mínimos, pero la suposición de que el número de
nodos en la oferta, sea igual al número de nodos en la demanda, produce un
desarrollo para su solución aún más simple que los métodos del modelo de
transporte, a este desarrollo se le ha llamado el método Húngaro.
78
Tabla 1. Matriz del modelo de asignación, se conoce como matriz de costos mínimo original a partir de la cual se comienza con el procedimiento del método Húngaro y se alcanza
la optimización de la asignación.
Trabajos
n
1
2
C11
C21
C12
C22
C13
C23
……….
……….
C1n
C2n
3
C31
C32
C33
……….
C3n
4
C41
C42
C43
…….
……….
….
……….
….
3
….
2
….
1
….
Trabajador
C4n
Método Húngaro
El método Húngaro se encuentra basado en tres pasos importantes, a saber:
1. Determinar pi, donde pi es el elemento de costo mínimo en la i-ésima
fila, entonces de la matriz representada en la tabla 1, se selecciona pi,
y se resta a todos los elementos de la i-ésima fila, hacer lo mismo con
cada una de las filas restantes.
2. Para la matriz resultante del paso anterior, se debe determinar qj, donde
qi es el elemento de costo mínimo de la j-ésima columna, hay que restarlo de todos los elementos de la columna j-ésima columna, y hacer lo
mismo con cada una de las columnas restantes.
3. Para la matriz resultante del paso anterior, se debe intentar determinar
una asignación considerando todas las entradas que han quedado con
valores de cero, si es factible hacerlo, esa será la asignación óptima,
caso contrario se debe probar las siguientes opciones:
Se requiere realizar los siguientes cálculos:
i.Trazar el mínimo de líneas horizontales y verticales en la última matriz resultante, a fin de cubrir todas las entradas que tengan el valor
de cero.
79
ii.Seleccionar la entrada mínima no cubierta y restarla de cada entrada
no cubierta y posteriormente a cada entrada con intersección de
dos líneas, sumarle esta entrada mínima.
iii.Intentar hacer la asignación, si no es posible, repetir los pasos i, ii
y iii.
Solver
Solver es un programa de cómputo desarrollado para Excel, el cual resuelve
problemas lineales y enteros utilizando el método más simple con límites
en las variables y el método de ramificación y límite, los cuales fueron propuestos por John Watson y Dan Fylstra de Frontline Systems, Inc [7].
La búsqueda de estos desarrollos surge en ciertos problemas que se presentan en las ciencias administrativas y principalmente en las áreas de ciencias
sociales, ingeniería, y en cualquiera de las carreras universitarias que tengan
como objeto de estudio: Estadística, Economía, Administración, entre otras.
La rama aplicada de las matemáticas que se denomina Investigación de
Operaciones, es el lugar donde se construyen modelos para el análisis y la
toma de decisiones, regularmente dentro de la administración, decisiones
que en tiempos anteriores al desarrollo tecnológico, eran resueltas por algoritmos muy complejos, entre ellos el método simplex y el dual, técnicas
manualmente complejas.
Solver se utiliza actualmente para determinar el valor máximo o mínimo
de una celda modificando otras celdas; por ejemplo, el beneficio máximo
que puede generarse al cambiar los gastos de publicidad. Las celdas que
se seleccionen deberán estar relacionadas mediante fórmulas en una hoja
de cálculo. Si no están relacionadas, cuando se actualice una celda, no se
modificará la otra.
Con Solver puede variarse el valor óptimo para cierta celda, denominada
“celda objetivo”. Solver ajustará los valores en las celdas cambiantes que
se especifiquen, las cuales llamaremos “celdas ajustables” para generar el
resultado especificado en la fórmula de la celda objetivo. Pueden aplicarse
restricciones para limitar los valores del modelo, pudiendo éstas hacer referencia a otras celdas a las que afecte la fórmula de la “celda objetivo”.
80
Modelo
Modelo de Asignación de Profesores
Esencialmente estamos interesados en optimizar [8], en este caso maximizar
la función objetivo con base a la evaluación de los profesores, la ecuación
(1) tomará la forma siguiente:
(2)
donde Pij es la evaluación de los profesores i (en una escala de 1 a 10) por
dictar el curso j. Xij representa las variables de decisión, en nuestro caso representan los cursos que se ofertaran en el semestre.
Y tenemos las siguientes restricciones:
(3)
Para toda i dado que un profesor no puede tener más de 3 cursos como política de la universidad
(4)
Para toda j debido a que cada curso debe contar con un maestro. De manera
generalizada tendremos la matriz que se presenta en la Tabla 2
81
Tabla 2. Matriz del modelo de asignación inicial, para el caso de profesores y cursos por
asignar.
Profesores
1
2
3
……….
n
C1
X11
X12
X13
……….
X1n
C2
X21
X22
X23
……….
X2n
C3
X31
X32
X33
……….
X3n
…….
…….
…….
…….
…….
Cursos
…….
Cn
Xn1
Xn2
Xn3
……….
Xnn
La suma en los renglones deberá ser igual a 1 para que a cada curso se le
asigne un profesor y la suma total en las columnas como máximo deberá dar
3, lo que representa las materias a impartir por cada profesor.
De manera similar se tendrá una matriz, que llamaremos de evaluación la
cual deberá desglosarse en todos los rubros con los que el profesor deberá
contar desde su contratación y durante el tiempo de permanencia dentro de
la institución.
Figura 2: Graficas de los rubros de evaluación para la planta docente de la licenciatura en
Negocios internacionales de la UAP Izcalli, A) Evaluación de clase metodológica, B) Apreciación estudiantil, C) Entrega de cumplimientos a la coordinación, D) Visita a Clase por la
subdirección académica.
82
Tomamos como base el ejercicio de evaluación que se realiza en la Unidad Académica Profesional Cuautitlán Izcalli. Para cada una de las carreras,
existen al menos dos procesos certificados para evaluar al personal docente,
así como una serie de tareas que se solicitan durante el periodo semestral,
estas actividades van desde la entrega puntual de los exámenes de evaluación, hasta la entrega puntual de las actas de calificaciones en la oficina de
control escolar. La matriz de la evaluación de profesores Cij estará determinada bajo los siguientes rubros de evaluación de los profesores:
• Evaluación de la clase metodológica del profesor.
• Evaluación de vivista a clase
• La apreciación estudiantil. Donde se evalúan los siguientes rubros:
a) Planeación didáctica
b) Conocimiento de la disciplina
c) Atención al alumno
d) Preparación didáctica
e) Evaluación del alumno
• Entrega y cumplimiento de requerimientos durante el semestre ( exámenes, planeación, temarios actividades diversas)
En la figura 2 presentamos los histogramas de los resultados de las 4 evaluaciones que se hacen al profesor, estos histogramas son generados para
28 profesores que forman la planta docente de la licenciatura en Negocios
Internacionales.
La figura 3 muestra la función de distribución normal para cada una de las
evaluaciones practicadas a los 28 profesores, lo que nos permite observar
que la información generada por los procesos certificados, así como por
aquellos mecanismos de evaluación propios de la Unidad Académica, nos
permitirá presentar una buena asignación en función del modelo planteado,
ya que hemos de considerar toda la información disponible del profesor,
tanto en su desempeño académico, como por su habilidad como profesor.
83
Figura 3. Funciones de distribución normal para cada una de las evaluaciones practicada a
la planta docente de la licenciatura en Negocios Internacionales, de izquierda a derecha:
cumplimiento con la coordinación, clase metodológica, apreciación estudiantil, visita a
clase.
Para asignar una calificación al docente, que cubra todos los aspectos considerados en los cuatro apartados descritos anteriormente, se propone la
siguiente ponderación:
Datos: Y = {Y1, Y2, Y3, Y4}, donde Y1 = Clase Metodológica, Y2 = Visita a clase,
Y3 = Apreciación Estudiantil, Y4 = Evaluación de la coordinación.
Pesos: W = {w1, w2, w3, w4}, donde w1 = 0.15, w2=0.55, w3=0.35, w4=0.1
son los pesos que proponemos dándole el mayor peso a la vista a clase,
posteriormente a la apreciación estudiantil, luego a la clase metodológica,
hacemos la observación, de que tal clase se realiza sólo una vez, y finalmente al cumplimiento de las tareas asignadas por la coordinación, con ello
podemos obtener una media ponderada de la siguiente manera:
(5)
En la figura 4, mostramos la gráfica de la distribución normal de las calificaciones obtenidas por el conjunto de profesores de la planta docente
de la licenciatura en Negocios Internacionales. De las medias ponderadas
obtendremos la matriz de evaluación para todos los profesores y los cursos
84
ofertados. Con un mínimo de calificación de 85 para poder ser aceptado,
este es un parámetro que se ha impuesto en el sentido de mejorar la calidad
de la enseñanza, el cual estará marcado en la matriz de resultados, es decir
como restricción adicional tenemos:
Xij ≥85
(6)
Figura 4: Función de distribución normal para la evaluación final de los 28 profesores de
la planta docente de la licenciatura en Negocios Internacionales, la línea vertical está en
el promedio con un valor de 9.22, bajo la hipótesis de que las calificaciones se comporten
de manera normal, el 3.6% de los profesores, se quedará sin trabajo, por no cumplir la
restricción (6)
Simulación
Presentamos nuestra propuesta, siguiendo la dinámica descrita en la sección
1 de la teoría, primero se presenta la matriz de evaluación de profesores,
en la Tabla 3. Las casillas sin valor corresponderían a ceros en la matriz de
evaluación. Hemos cuadrado el número de cursos igual al número de profesores y como se puede observar todas las calificaciones son superiores a 8.5,
cumpliendo de esta manera la restricción impuesta en (6).
85
Tabla 3. Matriz del modelo de asignación inicial, con el valor de la calificación asignada a
cada profesor, en los cursos que ha impartido.
86
Esta matriz se resuelve con Solver, en principio, si se programa y se proporcionan las instrucciones adecuadas, Solver realiza la resolución de la matriz.
Sin embargo, encontramos inconvenientes, ya que Solver está programado
para resolver a lo más 200 variables de decisión en la función objetivo, este
problema que estamos presentando, en la matriz inicial corresponde a un
total de 784 variables de decisión en la función objetivo, razón por la cual
no se puede resolver toda la matriz en una sola simulación.
Debido a que se consideran dos grupos para el semestre para el cual se está
buscando la asignación de profesores, entonces se dividió la simulación
completa en cuatro partes, los primeros 14 profesores junto con los 14 cursos de un grupo y los segundos 14 profesores con sus respectivos 14 cursos,
teniendo que realizar un total de 4 simulaciones, esto por el inconveniente
que presentó Solver. Los resultados son presentados en la tabla 4, donde se
puede observar que todos los profesores tienen a lo más tres cursos, también
es de resaltar el caso de los profesores P19 y P20 que no tendrían curso
asignado el próximo semestre, sin embargo debido a que hay profesores que
se les asignará más de un curso, la demanda de los cursos queda cubierta
completamente.
87
Tabla 4 Matriz del modelo de asignación resultante, con el valor de 1 si se asigna el curso y
0 si no se asigna el curso.
88
Conclusiones
Hemos presentado un modelo de asignación de profesores a los distintos
cursos que puede ofertar una institución, en principio de cualquier nivel
educativo, siempre buscando contar con los mejores profesores, es decir
con el personal mejor calificado.
Este modelo de asignación está basado en programación lineal, y puede ser
adaptado a cualquier institución educativa que tenga criterios objetivos de
evaluación de su personal docente.
El modelo de asignación bajo la matriz de evaluación de profesores, brinda
la mejor asignación de las materias para los profesores, lo que quiere decir
que contaremos con el mejor docente de la institución impartiendo el curso
en donde resulta ser más hábil.
Esta propuesta de asignación garantizará la optimización del personal docente y al mismo tiempo se reflejará en un mayor aprovechamiento del estudiante.
Es posible que este mecanismo pueda ser utilizado de igual forma en la
asignación de trabajo colaborativos dentro de cada institución. Sin embargo,
existen detalles técnicos que hay que resolver como el problema que enfrentamos con Solver.
Se deben incorporar algunas modificaciones, debido a que en esta propuesta no se considera la posibilidad de que el profesor cuente con por primera
ocasión con su contrato, lo cual no se consideró en el presente modelo,
este hecho arrojaría resultados ilógicos si se considera esta posibilidad junto
con profesores que ya tiene un historial en la institución. Por lo que se ve
la necesidad de explorar todas las posibilidades a fin de enfocar el modelo.
Agradecimientos
Los autores agradecemos a la dirección y subdirección académica de la
Unidad Académica Profesional Cuautitlán Izcalli, las facilidades otorgadas,
así como la información proporcionada que nos fue de gran utilidad.
89
Referencias
[1] Fredierick S. Hillier, Gerald J. Lieberman, (2006), Introducción a la Investigación de operaciones, Mc Graw Hill, pp 59-67, México D. F., Octava Edición.
[2] Hamdy A. Taha, (2012) Investigación de operaciones, Pearson, pp 200-203, México D.F.,
Novena Edición.
[3] Formato de evaluación del desempeño profesional docente, (2014), Unidad Académica
Profesional Cuautitlán Izcalli, Departamento Académico, Selección de personal docente
de asignatura. DODA.
[4] Anexo 2: Instrumento Evaluador, (2014), Sistema de Gestión de Calidad, Unidad Académica Profesional Cuautitlán Izcalli, Departamento Académico, DODA
[5] Reporte de Evaluación de Apreciación Estudiantil, (2014), UAEM.
[6] Gabriela Gaviño Ortiz, M. Liliana Antonia Mendoza Gutiérrez, Rodolfo Espíndola Heredia and Enoc Gutiérrez Pallares, (2014), Some practical issues on modeling transport.
Revista Investigación Operacional VOL. 35, NO. 2, 104-109.
[7] Zuñiga Sergio, (2004), Introducción a la Optimización Usando Excel, Universidad Católica del Norte, Coquimbo Chile, Fecha de consulta: 10 de septiembre de 2014. URL:
http://www.sergiozuniga.cl/03/docum_docentes/Optimizacion%2021.pdf
[8] S. V. Medina León, K. Raya Díaz, M. R. Contreras Orendain, Utilización del modelo de
transporte para la asignación de trabajos a máquinas considerando prioridades, Ingeniería, vol. 11, núm. 2, mayo-agosto, 2007, pp. 47-65
90
Modelo de Personalización para el Desarrollo de Herramientas de
Software: Revisión Sistemática de la Literatura
Claudia Isabel Martínez Alcalá, José Antonio Calvo Manzano.
Departamento Lenguajes y Sistemas Informáticos e Ingeniería de Software
Universidad Politécnica de Madrid, ETS de Ingenieros Informáticos, 28660
Boadilla del Monte, Madrid, España
[email protected], [email protected]
Resumen
A lo largo del tiempo el desarrollo de software ha contado con diferentes
enfoques que han evolucionado y se han enriquecido tanto en sus tareas
como en la variedad de las posibles técnicas a aplicar. Desafortunadamente
no todos estos enfoques son utilizados de manera correcta, debido a la falta
de conocimiento, pues en muchas ocasiones no se sabe qué técnicas, procedimientos y métodos se deben elegir para cada etapa de desarrollo. Este
artículo presenta un modelo de personalización para afrontar el diseño y
desarrollo de herramientas software basadas en web que apoyan a las PyMEs
en la implementación de mejoras en sus procesos software. Para establecer
el modelo propuesto se ha llevado a cabo la integración de conceptos y
enfoques de diseño centrado en el usuario y técnicas de personalización.
Asimismo se identificaron las herramientas software basadas en web que
han sido desarrolladas para brindar soporte a las PyMEs durante la implementación y seguimiento de iniciativas de mejoras de procesos.
Palabras clave: Personalización, Diseño Centrado en el Usuario, Herramientas Software, Mejora de Procesos Software, PyMEs, Revisión Sistemática.
Abstract
Overtime, several approaches on software development have appeared,
evolved and improved, along with a variety of tasks and possible techniques to apply in this field. Unfortunately, not all the approaches are used
properly. This is due to a lack of knowledge on which techniques, procedures and methods are appropriate for each stage of the development process.
This article presents a personalization model to design and develop web-based software tools that support SMEs in the implementation of their software
process improvement. In order to conceive the proposed model, a number
of user-centered design concepts and approaches, as well as personaliza91
tion techniques, were integrated. Likewise, web-based software tools that
support SMEs were identified during the implementation and monitoring of
process improvement initiatives.
Key words: Personalization, User-Centered Design, Software Tools, Software
Process Improvement, SMEs, Systematic Review.
Introducción
El éxito de un entorno web depende en gran medida de los métodos de
adaptación y personalización utilizados para su desarrollo. Es decir, cuando un entorno y/o aplicación web es capaz de adaptar las necesidades del
usuario al entorno y con ellos sugerir información útil y relevante, sin duda
el usuario volverá a elegirla como herramienta de trabajo. En este contexto,
mejorar los enfoques utilizados por los desarrolladores y diseñadores para
el desarrollo de herramientas software es un tema clave para obtener herramientas eficaces y de calidad [1].
Actualmente las organizaciones, principalmente las pequeñas y medianas
empresas (PyMEs), se han convertido en una pieza clave para la economía
mundial [2]. Con el fin de tener éxito en la economía actual, las PyMEs deben
enfrentar diversos retos. El primer reto al que se enfrentan las PyMEs es la
adopción de nuevas tecnologías de la información (NTIC) para llevar a cabo
eficazmente sus actividades. El segundo reto es capacitar a sus miembros
para que les sea más fácil interactuar con la tecnología y que pueda acceder
e interactuar con todas las fuentes de información y ser más productivos. Y
por último, el tercer reto es tener que ser capaces de mejorar y actualizar
sus herramientas y aplicaciones empresariales con el objetivo de presentar
una visión más amplia de sus procesos de negocio [3]. Estos retos son muchas veces difíciles de superar por que muchas veces las herramientas que
se adoptan no cubren todas sus necesidades, y tienen que hacer uso de 1 o
más herramientas para poder culminar su trabajo con éxito.
En este contexto, dentro de la industria del software, sobre todo en las PyMEs
la mayoría de las iniciativas de mejora de procesos no son implementadas
con éxito o tienen éxito limitado. Esta problemática se presenta sobre todo
porque no las empresas no pueden invertir en la implementación de programas de mejora muy costosos. Asimismo de que las herramientas software
que actualmente se desarrollan para facilitar la implementación de mejora
no proporcionan una solución eficaz [4]. Por lo tanto, no existe duda de
la necesidad de desarrollar herramientas software capaces de apoyar a las
92
empresas a implementar iniciativas de mejora de manera fácil y eficiente.
Hoy en día, desarrollar dichas herramientas dentro de un entorno web es la
mejor opción, debido a que han facilitado significativamente el intercambio
y distribución del conocimiento, convirtiéndose en herramientas fáciles de
usar y gestionar para usuarios con pocos conocimientos.
El objetivo de este artículo es presentar un modelo de personalización para
afrontar el diseño y desarrollo de herramientas software basadas en web que
apoyan a las PyMEs en la implementación de mejoras en sus procesos software. Conjuntamente identificar las herramientas software basada en web
que apoyen a las PyMEs en la implementación de mejoras en sus procesos.
Este artículo está estructurado de la siguiente manera. En la sección II se describen el estado del arte del estudio. En la sección III se identifican y comparan las herramientas software que apoyan la implementación de mejoras de
procesos. En la sección IV presenta el modelo propuesto. En la sección V se
describen las ventajas y barreras del modelo. Finalmente en la sección VI se
mencionan las conclusiones del estudio y trabajos futuros.
Estado del arte
a. Las PyMEs y la implementación de mejora de procesos de software.
Desde hace dos décadas, algunos expertos vienen prediciendo la consolidación de la llamada “nueva economía, economía digital o economía del conocimiento”; conceptos todos que hacen referencia al instrumentación digital con la que actualmente se cuenta. Sin embargo poca es la literatura que
pueda indicarle a los empresarios PyMEs, como sobrevivir o desarrollarse en
este escenario “de futuro”, muchas de cuyas características ya están siendo
implantadas actualmente. De tal manera, uno de los retos más importantes
que enfrenta hoy día el sector de las PyMEs se relaciona con las decisiones a
tomar para definir las estrategias y los instrumentos a utilizar para implementar sus mejoras de procesos [5]. De acuerdo con el autor [6], el mayor error en
la implementación de mejora de procesos es las PyMEs se da por la falta de
seguimiento de los planes de acción y de los planes de implantación, debido fundamentalmente a que estas actividades son muy costosas de realizar
en todos los sentidos, ya que consumen mucho tiempo y recursos. Según
el autor [5], para las PyMEs el reto más difícil es ir modificando los procesos
para ir adaptándose a las circunstancias cambiantes. Los autores [7], indican
que las limitantes de las PyMEs con respecto a la implementación de ciclos
de mejora son: a) escasez de personal calificado, tanto a nivel de empleados
como directivos; b) el tamaño de la empresa, lo cual limita la disponibilidad
93
de personal especializado; c) no hay una utilización frecuente y sistemática
de tecnologías de información para apoyar procesos administrativos y de
producción; y por ultimo d) problemas en la infraestructura. En general, se
puede afirmar que casi todos los autores están de acuerdo en que las características de las PyMEs hacen que la implementación de mejora de procesos
software deban aplicarse en un modelo particular y visiblemente diferente a
como se hace en las grandes organizaciones. Es por eso que la mayoría de
las veces la implementación de mejoras en las PyMEs resulta muy complicada y completamente caótica. Con respecto a lo anterior, se puede concluir
que para que las PyMEs puedan llegar a tener éxito en la implementación
de mejoras deben enfrentar diversos retos. El primer reto al que se enfrentan
las PyMEs es la adopción de nuevas tecnologías de la información (NTIC)
para llevar a cabo eficazmente sus actividades. El segundo reto es capacitar
a sus miembros para que les sea más fácil interactuar con la tecnología y que
pueda acceder e interactuar con todas las fuentes de información y ser más
productivos. Y por último, el tercer reto es tener que ser capaces de mejorar
y actualizar sus herramientas y aplicaciones empresariales con el objetivo
de presentar una visión más amplia de sus procesos de negocio.
En este contexto, es importante proponer un modelo que permita el desarrollo de herramientas software que apoyen a las PyMEs en la implementación
de mejoras. Además este modelo debe garantizar que la herramienta modelada permita al usuario interactuar de manera eficaz.
b. Criterios de personalización esperados para una herramienta software
basada en web
Para establecer los criterios de personalización esperados para una herramienta software basada en web se ha llevado a cabo una revisión sistemática. Las revisiones sistemáticas hacen referencia al proceso análisis metodológico de estudios relevantes, mediante criterios de inclusión y exclusión
con el objetivo de establecer el estado del arte de un tema concreto.
Esta revisión sistemática se enfoco en identificar los criterios de personalización que debe cumplir una herramienta web. Para esto se llevo a cabo una
revisión sistemática de las diferentes técnicas, procedimientos y métodos
que se utilizan para desarrollar herramientas personalizadas. De acuerdo
con esto, se ha podido identificar un conjunto de técnicas, procedimientos
y métodos que se utilizan actualmente para desarrollar herramientas que
requieren ser personalizadas. Estas técnicas y métodos son: filtrado colaborativo, filtrado basado en contenidos, filtrado basado en reglas de decisión,
minería de datos, ontologías.
94
Como resultado de la revisión sistemática realizada, los criterios de personalización esperados han sido identificados, tomando en cuenta aspectos
como: personalización de contenidos, personalización de interfaz y personalización del usuario. Los criterios de personalización esperados son:
Diseño intuitivo. Proporciona una interfaz grafica intuitiva con el objetivo
de guiar al usuario en las actividades que se debe realizar. Además,
proporciona al usuario una definición clara de sus funciones y sus actividades.
Navegación intuitiva. Proporciona apoyo al usuario para facilitar la interacción con las interfaces. Una navegación intuitiva sugiere la información o el contenido de inmediato. Además, proporciona asistencia al
usuario en todo momento. En otras palabras, reduce la carga cognitiva
del usuario al interactuar con la herramienta web.
Proporcionar información adecuada. Proporciona al usuario información
clave de las tareas y actividades para la toma de decisiones adecuadas.
Los usuarios tienen que estar seguros de que sus acciones han tenido
éxito.
Soporte en la comunicación entre los usuarios. Proporciona comunicación
e interacción efectiva entre las partes involucradas. Además, permite el
intercambio de información y conocimientos de manera efectiva.
Aumento de la satisfacción del usuario. Permite a los usuarios alcanzar sus
objetivos específicos, actividades y tareas con facilidad y eficacia. Esto
proporciona una experiencia positiva para el usuario.
Capacidad de adaptación a las necesidades específicas del usuario. Permite gestionar y coordinar los contenidos, las actividades y tareas de
acuerdo a las necesidades específicas del usuario.
Usuarios autónomos. Proporciona un ambiente agradable y de fácil comprensión en la que el usuario no necesita soporte técnico para navegar
o para realizar sus actividades, lo que permite al usuario centrarse en
sus tareas y no en el uso del sistema.
Facilitar la colaboración. Permite el intercambio de conocimientos de manera efectiva, en cualquier momento y en cualquier lugar.
Reducción de los costos de desarrollo. Permite la participación activa de
todos los agentes (usuarios, diseñadores y desarrolladores) evitando el
rediseño de la herramienta y la reducción de los cambios posteriores.
Esto conlleva una reducción importante en los costos de desarrollo.
La identificación de estos criterios tiene como objetivo conocer las ventajas
de la personalización en las herramientas basadas en la Web
95
Herramientas software desarrolladas
En esta sección se presenta una comparativa de las herramientas que apoyan
la implementación de mejora de procesos software que existen actualmente.
Cabe mencionar que estas herramientas fueron encontradas a través de la
revisión sistemática realizada en este estudio. Es importante resaltar que
para este análisis se han considerado solo aquellas herramientas que están
desarrolladas en la web, debido a que estás ya contemplan más aspectos de
personalización al momento de ser desarrolladas.En la tabla 1 se presenta
una comparativa de las herramientas analizadas con respecto a los criterios
de personalización esperados. En donde X significa que las herramientas No
cumple el criterio y significa que la herramienta Si cumple con el criterio
SPIALS [8]
Kuali [9]
AsistenteHIM [10]
MDM [11]
A Six Sigma Framework [7]
METvalCOMPETISOFT [6]
Tabla 1. Comparativa de las herramientas analizadas con respecto a los criterios de personalización esperados.
Diseño intuitivo
X
X
X
X
X
X
Navegación intuitiva
X
X
X
X
X
X
Proporciona retroalimentación adecuada
X
Da soporte para la comunicación entre usuarios
X
X
X
X
X
X
Aumento en la satisfacción del usuario.
X
X
X
X
X
X
Habilidad para adaptar las necesidades especificas del usuario
X
X
X
X
X
X
Usuarios mas autónomos
X
X
X
X
X
X
Facilita la colaboración
X
X
X
X
X
X
NA
NA
NA
NA
NA
NA
Criterios de personalización esperados
Desarrollado en ambiente web
Reducción de costos de desarrollo
96
x
Como se puede observar en la tabla 1, las herramientas SPIALS y METvalCOMPETISOFT[6] no cubren ningún criterio de personalización esperado.
Esto se debe principalmente a que ambas herramientas se encuentran en
etapas iniciales o de desarrollo, por lo tanto existe muy poca información
de casos de estudio en los cuales se han aplicado y de los resultados obtenidos de la aplicación de las mismas. Por su parte, las herramientas Kuali,
AsistenteHIM, MDM y A Six Sigma Framework cubren un criterio de personalización: proporcionar retroalimentación adecuada. Por lo tanto, se puede
afirmar que no existe ninguna herramienta que cubra todos los criterios de
personalización esperados, y por consiguiente ninguna de estas herramientas representa una herramienta de apoyo completo para las empresas interesadas en la implementación de mejoras de procesos.
Propuesta del modelo
La conceptualización de este articulo parte de proponer un modelo de personalización que permita desarrollar herramientas software basadas en la
web que apoyen a las PyMEs en la implementación de mejoras. De acuerdo
con la revisión sistemática realizada en las anteriores secciones, es importante crear un modelo que haga énfasis en el diseño centrado en el Usuario
que se muestra en la figura , el cual se caracterizan por un enfoque en el
usuario y en la incorporación de la perspectiva del usuario en todas las fases
del proceso de diseño. Otro aspecto que se debe contemplar es la personalización el cual es un método de gran alcance que ha dado lugar a la difusión de sistemas capaces de sugerir información relevante de acuerdo a las
características y preferencias de los usuarios finales.
La originalidad del modelo presentado en este trabajo de investigación es
que vincula 3 aspectos importantes: a) el enfoque de diseño centrado en el
usuario, b) el proceso de representación esquemática de las interfaces y, c)
las evaluaciones de funcionalidad y usabilidad, que en conjunto permiten
considerar un entorno web con aspectos funcionales y satisfactorios para los
usuarios.
El modelo de personalización es denominado, DeCU (Diseño y enfoque
centrado en el usuario) el cual permite el establecimiento de directrices para
el desarrollo de herramientas basadas en la Web personalizadas. El modelo
DeCU consta de 4 fases (análisis, diseño, implementación y lanzamiento)
que se relacionan de forma iterativa y crean un diálogo entre usuarios, diseñadores y desarrolladores. Estas fases pueden ser vistas tanto de forma lineal
como iterativa. El resultado de estas fases se materializa con un entorno
completamente funcional.
97
Fase de Análisis
Esta fase se divide en 3 pasos, las cuales engloban en si el estudio y entendimiento del usuario y su contexto.
a) Requerimientos del usuario: Durante esta paso se trata de identificar las
necesidades, preferencias y experiencias del usuario con respecto a la
herramienta a desarrollar.
b) Requerimientos de la organización: en este paso se trata de identificar
las necesidades y preferencias de la organización. Las actividades, tareas, procedimientos, técnicas y normas en las cuales se rigen cada uno
de los perfiles y miembros que componen a la organización.
c) Requerimientos tecnológicos. en este paso se trata de identificar la infraestructura tecnológica con la que cuenta la organización, así como
sus limitantes. Con el objetivo de plantear el desarrollo de una herramienta viable y funcional.
Fase de diseño
En esta fase se plasman los resultados obtenidos de la fase anterior ahora
con todos los requerimientos técnicos. En esta fase se crean prototipos en
los cuales se especifican la arquitectura de la información 1 y diseño de
interacción 2. En la figura 1 se muestran las actividades que se realizan principalmente en esta fase.
En esta fase se plasman los resultados obtenidos de la fase anterior ahora
con todos los requerimientos técnicos. En esta fase se crean prototipos en
los cuales se especifican la arquitectura de la información1 y diseño de
interacción2. En la figura 1 se muestran las actividades que se realizan principalmente en esta fase.
Figura 1. Representación de actividades de la fase de disño.
1 Arquitectura de la información (AI), es la disciplina y arte encargada del estudio, análisis, organización, disposición
y estructuración de la información en espacios de información.
2 Diseño de interacción, define la estructura y el comportamiento de productos y servicios para que estos resulten
útiles a las personas.
98
a) Categoría 1- Prototipos de baja fidelidad: se realizan bocetos realizados en papel y lápiz en donde se define la estructura de la herramienta
(taxonomía y diagramas de organización)
b) Categoría 2- Prototipos de fidelidad intermedia: se realizan Wireframes3
en donde se define los componentes y funcionalidad que tendrá dentro
de la herramienta.
c) Categoría 3- Prototipos de alta fidelidad: se realizan Wireframes que
representen la estructura visual y funcional de manera más clara y con
mayor definición.
Cada uno de estos prototipos son evaluados por los usuarios mediante la
realización te test.
Fase de implementación
En esta fase se realiza el proceso denominado “maquetación” que consiste
en construir la herramienta y programar las funcionalidades de cada uno de
los elementos que la integran. En esta fase la herramienta se implementa en
un entorno de pruebas para que los usuarios puedan interactuar con esta
y detectar errores visuales y funcionales. Las pruebas se realizan tanto con
usuarios como con expertos. Con los usuarios con el objetivo de saber si se
han logrados los objetivos y demandas planteados al inicio. Con los expertos
con el objetivo de saber si la herramienta es realmente una solución ideal
para el problema planteado.
Fase de Lanzamiento
En esta etapa se presenta la herramienta tecnológica en un entorno real complemente funcional y es puesta a disposición de los usuarios para su uso.
La figura 2 ilustra el funcionamiento del modelo DeCU y la iteración entre
sus fases.
3 Wireframes, representación esquemática de una interfaz web sin elementos gráficos que muestran contenidos
y comportamiento de la interfaz. Sirve como herramienta de comunicación y discusión entre diseñadores y
desarrolladores.
99
Figura 2. Modelo DeCU basado en el Diseño Centrado en el Usuario. Adaptación del
modelo.[12]
El modelo DeCU se caracteriza por establecer las pautas que permitan diseñar y desarrollar una herramienta software de calidad, garantizando que
la herramienta modelada permita al usuario interactuar de manera eficaz.
Igualmente, este modelo cumple con objetivos específicos como: a) identificar las características más relevantes de los usuarios y de la organización;
b) analizar y diseñar prototipos que apoyen al desarrollador a crear entornos
más aceptables para cada tipo de usuario; c) proporcionar una solución
genérica a cada necesidad particular y general del usuario, y de la organización; y d) establecer los instrumentos necesarios que permitan evaluar y
validar la herramienta desarrollada [12]; y con ello establecer una herramienta software basada en la web que facilite la implementación de mejora de
procesos software.
Ventajas y barreras del modelo
Como se puede observar en la sección anterior, el modelo DeCU propone
el uso de instrumentos específicos para analizar y desarrollar productos, en
este caso particular “herramientas”, que satisfagan las necesidades y preferencias del usuario final. Alguna de las ventajas que presenta el modelo son:
•
•
•
•
100
Productos fáciles de usar y comprender
Aumento de la usabilidad
Optimización en el diseño.
Participación activa de los usuarios.
• Disminución en el mantenimiento y asistencia técnica.
• Proporciona una solución genérica a cada necesidad particular y general del usuario.
• Disminución de costes.
Sin embargo así como proporciona ventajas al equipo, también se deben
considerar ciertas barreras (ajenas al modelo) que pueden presentarse al momento de aplicarlo en el desarrollo de una herramienta. A continuación se
describen las barreras identificadas que se presentan al momento de aplicar
el modelo.
• Barrera 1. Dificultad para concebir ideas: Implicar la participación de
los usuarios en todo el proceso de desarrollo de un producto es un hecho significativo, que contempla en todo momento el modelo propuesto, pues gracias a este hecho es posible la detección de oportunidades
de mejora. Sin embargo, esta tarea a menudo se torno difícil, ya existe
diversidad de usuarios, con puntos de vistas diferentes y necesidades
diferentes. Lo que dificulta la concepción de ideas y soluciones al momento de levantar los requerimientos. Es entonces cuando los diseñadores y desarrolladores etiquetan al usuario como “problemáticos” o
“indecisos” en vez de visualizarlo como un co-creador capaz de aportar soluciones e ideas novedosas.
• Barrera 2. Comunicación deficiente: La falta de comunicación por lo
general ocurre cuando el usuario malinterpreta, o bien, su participación
en la lluvia de ideas es simplemente ignorada. En ocasiones este hecho
se debe a que no existe nadie a cargo de la gestión de cambios. Es por
ello que las decisiones se hacen ambiguas, lo que implica que las soluciones no cubran con las expectativas del usuario y por ende el usuario
está insatisfecho. También es cierto que es imposible satisfacer a todos
los usuarios, pero lo que sí es posible, es crear un producto accesible
y adecuado para su uso a largo plazo, por lo que al final, los usuarios
estarán de acuerdo con la solución que se les proporciona.
• Barrera 3. Falta de compromiso: Esta barrera se presenta cuando los
usuarios no están informados sobre la importancia de su contribución
en el proceso de desarrollo del producto. Debido a esto, los usuarios
comienzan a perderse de las evaluaciones y sesiones de trabajo, lo que
provoca que se desarrollen productos sin valor o inconclusos. Por otro
lado, la falta de compromiso por parte del equipo de trabajo a menudo
se deriva debido a que no quieren cambiar su forma de trabajar. Esto
es muchas veces no están acostumbrados a trabajar con los usuarios de
manera directa.
101
Es importante indicar que estas barreras podria eliminarse con una planificación adecuada. Además de que estas barreras no son exclusivas del modelo
descrito en este estudio, por que las empresas deben tomar en cuenta estas
sugerencias al momento de adoptar el modelo propuesto o cualquier otra
metodología centrada en el usuario.
Conclusiones
La revisión sistemática realizada en este estudio ha permitido establecer el
estado del arte de los criterios de personalización esperados y la identificación las herramientas software basadas en la web que apoyan la implementación de mejoras de procesos en las PyMEs. Mediante este estudio se
han podido identificar que las herramientas software actuales no cubren con
los criterios de personalización esperados para una herramienta basada en
la web. Además se ha identificado que el principal problema en la implementación de mejorar en las PyMEs es que los programas de mejora no son
apropiados para PyMEs, debido al tamaño y número de recursos con los que
se cuenta. Por lo que es necesario adecuar las herramientas de acuerdo a las
necesidades del usuario y de la organización.
Este artículo presenta un modelo de personalización para afrontar el diseño
y desarrollo de herramientas software basadas en web que faciliten a las
PyMEs la implementación de mejoras en sus procesos software. La adopción del modelo DeCU permitirá diseñar una herramienta software basada
en la web aceptable y usable que permita implementar mejora de procesos.
Asimismo este modelo trae consigo ventajas importantes como: a) usabilidad; b) disminución de costes; y c) proporciona una solución genérica. No
obstante, este modelo exige el compromiso de los usuarios y del equipo
de trabajo, para poder así, desarrollar herramientas software eficaces y de
calidad. Es importante mencionar que como trabajo a futuro se está desarrollando una herramienta cuyo objetivo es facilitar la implementación de
mejora de procesos software en las PyMEs mediante la adopción del modelo
propuesto en este estudio.
Agradecmientos
Este trabajo ha sido patrocinado por el Consejo Nacional de Ciencia y Tecnología (CONACYT) y la Universidad Politécnica de Madrid (UPM) a través
de la “Cátedra de Mejora del Proceso Software en el Espacio Iberoamericano.
102
Referencias
[1] P. Bharatia and A. Chaudhury, “An empirical investigation of decision-making satisfaction in web-based decision support systems,” Decis. Support Syst., vol. 37, no. 2, pp.
187–197, 2004.
[2] M. Muñoz, J. Mejia, J. A. Calvo-Manzano, G. Cuevas, and T. San Feliu, “Evaluación de
los Procesos Software de una Organización Enfocando en la Disminución de la Resistencia al Cambio,” Comput. Sci. Eng., pp. 66–73, 2012.
[3] M. H. Nizam, A. Rodina, and H. Noor Hafizah, “Resistance Factors in the Implementation of Software Process Improvement Project in Malaysia,” J. Comput. Sci., vol. 1, no. 3,
pp. 211–219, 2008.
[4] M. Muñoz, J. Mejia, A. De Amescua, J. A. Calvo Manzano, G. Cuevas, and T. San Feliu,
“Software Tools to Implement Software Process Improvement in SMEs,” Proceeding la 7a
Conf. Ibérica Sist. y Tecnol. Inf., vol. I, pp. 82–87, 2012.
[5] H. Ongory and S. O. Migiro, “Information and communication technologies adoption in
SMEs: literature review,” J. Chinese Entrep., vol. 2, no. 1, pp. 93 – 104, 2010.
[6] F. J. Pino, C. Pardo, F. García, and M. Piattini, “Assessment methodology for software
process improvement in small organizations,” Inf. Softw. Technol., vol. 52, no. 10, pp.
1044–1061, Oct. 2010.
[7] Z. Pan, H. Park, J. Baik, and H. Choi, “A Six Sigma Framework for Software Process
Improvements and its Implementation,” in 14th Asia-Pacific Software Engineering Conference, IEEE, 2007, pp. 446 – 453.
[8] D. Homchuenchom, C. Piyabunditkul, H. Lichter, T. Anwar, A. Methawachananont, C.
Krootkaew, and T. Krisanathamakul, “A light-Weight Software Process Improvement SelfAssessment Tool (SPIALS),” Int. J. Digit. Content Technol. its Appl., vol. 6, no. 21, pp.
16–26, Nov. 2012.
[9] C. Strevel, “Kuali: Herramienta Auxiliar para implementación de MoProSoft,” in DevDays, Intellekt, 2005.
[10]H. Oktaba, S. Guardati, A. Laureano, and E. Cárdenas, “Herramienta de Guía y Supervisión para el Uso Automatizado del Modelo de Procesos MoProSoft,” in Presented in VII
Encuentro Nacional de Computación, México, 2006.
[11]D. A. Caballero de la Villa, “Manejador de Documentos de MoProSoft.,” 2005.
[12]C. I. Martinez Alcala, “Model customized views to content management in communities
I+D+i (Doctoral thesis) - Modelo de vistas personalizadas para la gestión de contenido
en comunidades I+D+i,” 2012.
103
Las Álgebras de Funciones Cb(X,A) y Cp(X,A)
Alejandra García García
Estudiante de Pos-doctorado en la Universidad Autónoma Metropolitana.
Área de especialidad: Análisis Matemático (Algebras de funciones, Algebras Localmente Convexas y Localmente Pseudo-convexas).
[email protected].
Resumen
Dados X un espacio completamente regular de Hausdorff y A un álgebra
topológica localmente convexa, podemos definir a Cb(X,A)(Cp(X,A), respectivamente como el álgebra de todas las funciones A- valuadas, continuas y
acotadas (continuas y con la cerradura de su imagen compacta, respectivamente) definidas en X . A Cb(X,A) y Cp (X,A) . las podemos dotar de distintas
topologías, entre estas nos interesan la topología estricta β y la topología
localmente convexa dada por la topología localmente convexa de A. Nos
preguntamos sobre propiedades que cumple A y que se pueden heredar a
Cb (X,A) y Cp(X,A). En este trabajo presentamos ejemplos de álgebras de este
tipo que heredan la propiedad de ser Q- álgebra: es decir, el conjunto de
elementos invertibles es abierto.
Palabras clave: álgebra de funciones, topología estricta, m-convexa e ideal
máximo.
Abstract
This is a presentation of examples of functions algebras Cb(X,A)(CP(X,A), respectively), since Cb(X,A)(Cp(X,A) respectively) is defined by the algebra of
all A-valued continuous and bounded (continuous and compact imagen)
functions on X Here X is a completely regular space and A a topological locally convex algebra. On these algebras we defined the strict topology β and
the localmente convex topology defined by the topology of A, if A is a locally
convex algebra. These examples shows that if A is Q-algebra, then C b ( X , A )
and Cp(X,A) are Q-algebras; i. e. the set of invertible elements is open.
Key words: functions algebras, strict topology, m-convex and maximal ideal.
104
Introducción
Muchas de las álgebras de funciones tienen aplicaciones más concretas en
ecuaciones diferenciales, en nuestro caso nos interesan las algebra C(X,A)
de todas las funciones continuas definidas en X con valores en A donde X es
un espacio completamente regular y de Hausdorff, y A es un álgebra topológica localmente convexa, conmutativa y unitaria. Por lo que en el presente
trabajo trabajaremos con este tipo de espacios y álgebras.
Así, decimos que (A, ) es un álgebra topológica si tiene dos estructuras, la
de álgebra y la de el espacio vectorial topológico tales que la topología de
A, hace continuo en ambas entradas (conjuntamente continuo) a su producto visto como la función.
(1)
donde A x A es dotado de la topología producto.
Si las operaciones de álgebra y de espacio vectorial definidas en A son conmutativas, decimos que (A, ) es un álgebra topológica conmutativa. Si además, A tiene unidad diremos que (A, ) es un álgebra topológica con unidad.
En lo que sigue, consideraremos sólo álgebras topológicas conmutativas con
unidad.
Decimos que un álgebra topológica (A, ) es localmente convexa si su topología está dada por una familia de seminormas {|| ||α}αϵ∆ tales que para
cada α∈∆ existe β ∈ ∆,β ≤ α, tal que cumple la desigualdad.
(2)
para todo a , b ∈ A. Si el índice β en (2) coincide con α para todo α∈∆, entonces decimos que (A, ) es un álgebra localmente m-convexa. En este
caso, tenemos lo siguiente:
105
(3)
para todo a y b en A. Además, decimos que un álgebra topológica con unidad A es Q-álgebra si el subconjunto formado por todos sus elementos invertibles G(A) es abierto en A.
Por otro lado, por un álgebra normada (A,|| || ) consideramos a un álgebra
topológica cuya topología está dada por una norma ( || || ). Si el álgebra
en cuestión, ( A,|| || ), es completa como espacio topológico, decimos que
( A , | | | | ) es un álgebra de Banach.
Las álgebras Cb(X,A) y Cp(X,A).
En esta sección definimos las álgebras de funciones que nos interesan y
mencionamos propiedades que se cumplen en dichas álgebras.
Por Cb(X,A) denotamos a la subálgebra de C(X,A) formada por todas las
funciones continuas y acotadas definidas de X en A, mientras que Cp (X,A)
denota al álgebra de todas las funciones continuas y con la cerradura de su
imagen compacta en A.
Ahora nos preguntamos sobre propiedades que cumple A y que se pueden
heredar a Cb(X,A) y (Cp(X,A) , por ejemplo ser localmente convexa, Q-álgebra, m-convexa, etc.; donde A no necesariamente es álgebra de Banach.
Sea (A,|| ∙ || ) un álgebra normada. Entonces, a estas dos subálgebras, Cb(X,A)
y Cp(X,A) , las podemos dotar de distintas topologías, entre estas nos interesan la topología estricta β y la topología normada dada por la topología
normada de A. La topología estricta β está definida por la familia de seminormas
(4)
donde B0 es el conjunto de todas las funciones definidas en X que se anulan
al infinito. Esta topología estricta define en Cb(X,A) y Cp(X,A) una topología
localmente convexa; es decir, cumplen (2)
106
Por otro lado, si (A,|| || ) es un álgebra normada, entonces en las álgebras
Cb(X,A) y (Cp(X,A) podemos definir la norma infinito o del supremo dada por
(5)
la cual está bien definida ya que, en ambos casos, estamos considerando
sólo funciones acotadas. Si (A,|| || ) es un álgebra de Banach, la norma del
supremo define una topología normada y completa en Cb(X,A) y (Cp(X,A)
(es decir, las hace álgebras de Banach, ver [3]).
Como sabemos, las álgebras de Banach cumplen muchas propiedades interesantes, entre estas sabemos que toda álgebra de Banach es Q-álgebra. Por
lo que (Cb(X,A) ,|| ||∞) y (Cp(X,A),|| ||∞) son álgebras de Banach, siempre
que (A,|| || ) lo sea. Así, en este caso, si (A,|| || ) es una álgebra de banach
(entonces se heredan las propiedades de ser álgebra normada, álgebra de
Banach y Q-álgebra a Cb(X,A) y Cp(X,A)
Ahora, si (A,) es un álgebra localmente convexa, podemos considerar las
topologías localmente convexas (m-convexas, respectivamente) en Cb(X,A) y
(Cp(X,A) dadas por la topología de (A, )=(A,{|| ||α}αϵ∆) y estas quedan determinadas por la familia de seminormas.
(6)
En ambos casos, se cumple (2) ( (3), respectivamente) y obtenemos topologías localmente convexas (localmente m-convexas, respectivamente) en
Cb(X,A) y Cp(X,A), ver [3]. “De donde, ser localmente convexas (localmente
m-convexa, en su caso) también se hereda de A si consideramos la familia
de seminormas como en (6).
Por lo que ser localmente convexa o m-convexa son propiedades que se heredan a las álgebras Cb(X,A) y Cp(X,A) dotadas con las topologías anteriores
Ejemplos
En esta sección mostramos dos ejemplos donde se cumple que si A tiene
la propiedad de ser Q-álgebra ó álgebra de Banach, entonces Cb(X,A) y
Cp(X,A) también la tienen.
Ejemplo 1: Sea (A, )=(Cb ( ),β) el álgebra de todas las funciones de en
continuas y acotadas, dotada con la topología estricta dadas por la regla
107
(7)
Esta es un álgebra localmente convexa completa y no metrizable. Ahora,
consideramos a X como el espacio [0,Ω), dotado con la topología del orden.
Entonces, X es un espacio pseudocompacto y completamente regular.
Así, podemos definir las álgebras
(8)
Y
(9)
donde las familias seminormas están definidas por
(10)
Donde, ya que [0,Ω) es pseudocompacto y de las propiedades de su topología, podemos deducir que si f∈C([0,Ω),Cb( ,β)) y φϵB0 ([0,Ω)), entonces la función gφ:[0,Ω)→ definida como gφ (α)=‖fα ‖φ, αϵ[0,Ω), para
cada φϵB0 ([0,Ω)), es eventualmente constante, por tanto acotada, y además Cb ([0,Ω),Cb ( ,β))=C([0,Ω),Cb ( ,β)). Esto implica que las seminormas ‖f‖φ,∞, φϵB0 ([0,Ω)), están bien definidas. Con esta familia de seminormas, las álgebras en (8) y (9) son álgebras localmente convexas y ya
que el álgebra Cb ( ,β) lo es.
Ejemplo 2: Sea (A, )=(Cb (R),|| ||∞) el álgebra de todas las funciones de R en
R continuas y acotadas, dotada con la topología del supremo definida como
(11)
108
Esta es un álgebra normada completa (de Banach), conmutativa y con unidad. Ahora, consideramos a X como el espacio [0,Ω), dotado con la topología del orden. Entonces X es un espacio pseudocompacto y completamente
regular.
Así, podemos ras
(12)
y
(13)
donde en este caso tenemos definida la norma
‖f‖∞=sup{‖fα ‖∞αϵ[0,Ω)} ┤=sup{sup{|fα (t)|:tϵR}αϵ[0,Ω)} }.
(14)
Donde , ya que [0,Ω) es pseudocompacto y de las propiedades de su topología, al igual que en el ejemplo 1, podemos deducir que si f ϵ C ([0,Ω),Cb
(R,|| ||∞ )) y φϵB0 ([0,Ω)), entonces la función g:[0,Ω)→ definida como
g(α)=‖fα ‖∞, para cada αϵ[0,Ω), es eventualmente constante y por tanto
acotada. Esto último implica que la norma ‖f‖∞, están bien definida y que
además Cb ([0,Ω),Cb ( ,|| ||∞ ))=C([0,Ω),Cb ( ,|| ||∞ )). Con esta norma, las
álgebras en (12) y (13) son álgebras de Banach y por tanto Q-álgebras ya
que el álgebra Cb ( ,|| ||∞ ) lo es.
También hacemos notar que en el ejemplo 2 el subconjunto de elementos
invertibles es abierto y si f ∈Cb ([0,Ω),Cb ( ,||∙||∞ )) es invertible, entonces
cada fα , αϵ[0,Ω), es invertible en Cb ( ,||∙||∞ ) para cada αϵ[0,Ω).
Conclusiones
Al parecer se cumplen varias propiedades para algunos espacios especiales,
pero no es cierto en general que dichas propiedades siempre se pueden
heredar. Además, existen muchos ejemplos interesantes pero estos dos en
particular nos han ayudado mucho y nos han llevado a plantearnos diferen109
tes cuestiones sobre distintas propiedades y tratar de analizar en qué casos
es posible heredar estas mismas propiedades a las álgebras Cb(X,A) y Cp(X,A).
Agradecimientos
Agradezco el apoyo a los miembros de CONACYT y del Departamento de
Matemáticas de la UAM-I por todo el apoyo otorgado durante mi estancia
pos-doctoral en dicha institución.
Bibliografía
[1] Arizmendi-Peimbert H. , Carrillo Hoyo A., García-García A., On algebras of Banach algebra-valued bounded continuous functions, Rocky Mountain Journal of Mathematics,
volume forthcoming, Number forthcoming (2014).
[2] Balachandram V. K., Topological Algebras, North Holland Mathematics Studies 185. Elsevier, 2000.
[3] García-García A., Tesis Doctoral: Sobre ideales cerrados y finitamente generados en álgebras topológicas de funciones continuas, Facultad de Ciencias, UNAM, 2011.
[4] Gillman, M. Jerison, Rings of continuous functions, Springer Verlag, New York, 1960.
[5] W. Rudin, Functional analysis, McGraw-Hill. 1973.
110
Sistema de Aprendizaje Cooperativo Mediado por Tecnologías de la
Información y Comunicaciones
Blanca Rafaela Silva López, Iris Iddaly Méndez Gurrola, Rosa Elena Cruz Miguel,
Hugo Pablo Leyva, Carlos Barrón Romero
Universidad Autónoma Metropolitana Azcapotzalco
{rbsl,iimg,recm,hpl,cbarron}@correo.azc.uam.mx
Resumen
En la Unidad Azcapotzalco de la Universidad Autónoma Metropolitana
(UAM), para atender la creciente demanda académica se propone el modelo
de Sistema de Aprendizaje Cooperativo(SAC) que junto con las Tecnologías
de la Información y las Comunicaciones (TIC), son parte importante para
lograr que la enseñanza llegue a más alumnos, rompiendo los paradigmas
de tiempo-lugar, con gran atención a la calidad del proceso de enseñanza
aprendizaje y bajo el compromiso de la UAM de mantenerse a la vanguardia de las instituciones de investigación y de educación superior. La División
de Ciencias Básicas e Ingeniería (DCBI) se ha caracterizado desde su creación por ofrecer alternativas en las modalidades de conducción del proceso
enseñanza-aprendizaje para lo cual creó el Sistema de Aprendizaje Individualizado (SAI), que ha evolucionado a partir de la experiencia de docentes
de la DCBI hasta llegar a la nueva propuesta el SAC basado en un modelo
pedagógico denominado Ciclo de Supervisión de Excelencia.
Palabras clave: proceso enseñanza-aprendizaje, sistemas de aprendizaje,
aprendizaje cooperativo, b-learning.
Abstract
In Universidad Autónoma Metropolitana (UAM)-Azcapotzalco, to meet the
growing academic demand a model Cooperative Learning System (SAC) are
proposed, which together with the Information and Communication Technologies (ICT) are an important part for ensure that education reaches more
students, breaking the paradigms of time-place, with great attention to the
quality of the teaching-learning process, and under the UAM’s commitment
to remain at the vanguard of research institutions and higher education. Division of Basic Sciences and Engineering (DCBI) has been characterized since its creation by providing alternatives to driving modalities of the teaching111
learning process, which created the Individualized Learning System, which
has evolved from the experience teacher of DCBI up to the new proposal the
SAC, based on a pedagogical model called Excellence Monitoring Cycle.
Key words: teaching-learning process, learning systems, cooperative learning, b-learning.
Introducción
La propuesta de modelo para la enseñanza-aprendizaje con TIC, requiere
de una revisión de distintas propuestas educativas y de interacción hacia el
aprendizaje que resumimos en la sección 1. Marco teórico. En la sección 2
se da una breve descripción de las modalidades de conducción del proceso
de enseñanza aprendizaje. En la sección 3, se expone con detalle el SAC, su
implementación y los beneficios que se esperan de él. La sección 4 describe
la metodología experimental, los experimentos realizados y los programados, así como el análisis de los resultados preliminares. En la última sección
se dan las conclusiones y trabajo futuro.
Marco teórico
Los trabajos de Piaget establecen las bases de la eficacia en las relaciones
entre pares, mismas que son desarrolladas posteriormente por la Escuela de
Ginebra. Autores como Mugny y Pérez (1988); Mugny y Doise (1983); Ames
y Muray (1982); Perret-Clemont y Schubauer-Leoni (1988); Doise, Deschamps y Mugny (1980) entre otros, indican que la importancia es hacia la
construcción social de la inteligencia que depende de la interacción social
y de la actividad cooperativa entre iguales. Este es un fundamento de nuestra
propuesta que enaltece la cooperación entre los alumnos.
Por otro lado, el trabajo de Vygotsky establece que los procesos mentales
superiores son inherentemente sociales y dependen del contexto cultural
en el que se desarrollan los seres humanos, por tanto, para entender el desarrollo individual se debe referir el medio social en el que el individuo se
encuentra. En su ley genética general de desarrollo cultural enfatiza que
“toda función en el desarrollo cultural del niño aparece dos veces o en dos
planos. Primero aparece en el plano social y luego en el plano psicológico”
(Vygotsky, 1981: 163). En contraposición de Piaget, para Vygotsky la unidad
de análisis debe ser la actividad social. En efecto, considerar la actividad
social, fortalece el desarrollo de la empatía con el otro, de las relaciones
interpersonales.
112
Es por ello que en el modelo propuesto se incluya la actividad social como
eje fundamental de cooperación entre alumnos.
Modalidades de conducción del proceso de enseñanza y aprendizaje
En la DCBI existen dos modalidades de conducción del proceso de enseñanza y aprendizaje desde la creación de la UAM: la modalidad tradicional y
el Sistema de Aprendizaje Individualizado (SAI). Ambas desarrollan diversas
habilidades en los alumnos más allá de su formación profesional. Sin embargo, es común que los alumnos de ingeniería tengan problemas serios de
socialización para integrarse y trabajar en grupos disciplinarios e interdisciplinarios, se han olvidado valores fundamentales como compartir lo que
tienen y lo que saben, ayudar a los demás y viendo la enseñanza como una
oportunidad de aprender, compartir y socializar.
En éste contexto surge la propuesta de una nueva modalidad de conducción
del proceso de enseñanza y aprendizaje, que recupera lo mejor del Sistema
de Aprendizaje Individualizado y lo incorpora con la filosofía del aprendizaje cooperativo, dando origen al Sistema de Aprendizaje Cooperativo.
En la figura 1 se muestran las principales diferencias entre las modalidades de conducción del proceso de enseñanza y aprendizaje en la DCBI,
incluyendo el SAC. Por ejemplo, la organización del contenido temático
de un curso en la modalidad presencial se divide en 3 partes, cada una se
evalúa de manera independiente estableciendo una fecha, hora y lugar. En
la modalidad SAI el contenido se organiza en pequeñas secciones llamadas
unidades, el número de unidades depende del curso y del profesor, cada
unidad se evalúa de manera independiente, el alumno realiza su autoestudio y presenta su examen, si no lo aprueba tiene oportunidad de repetirlo
hasta aprobarlo para poder continuar con la siguiente unidad. Mientras que
la modalidad SAC retoma la filosofía del SAI en cuanto a la organización
del contenido del curso, con la variante de considerar de 7 a 10 unidades.
113
Figura 1. Características de las modalidades de conducción del proceso de enseñanza y
aprendizaje en la DCBI.
El SAC rompe el paradigma de tiempo-lugar, facilita la atención al alumno
de manera no presencial y cooperativa (apoyándose por medios electrónicos), mientras que el SAI y la modalidad tradicional o presencial requieren
de un espacio físico para la atención del alumno.
En cierta forma, el aprender es una serie homogénea de conductas y de
acciones clásicas para la modalidad tradicional, en el SAI se centra en el
autoaprendizaje, pero una de las innovaciones del SAC es atender la diversidad considerando los estilos de aprendizaje y pensamiento del alumno.
Fundamento pedagógico y filosófico del Sistema de Aprendizaje Cooperativo
Sin importar el curso que se imparta, un profesor puede orientar sus clases para que
el alumno: a) tenga que competir con sus compañeros para demostrar quién es el
mejor; b) trabaje de manera independiente, individualmente para alcanzar los objetivos establecidos, a su propio ritmo y en su propio espacio; o c) que trabaje de manera colaborativa en grupos pequeños, donde todos se esfuerzan para que el grupo
domine el material del curso y todos colaboren (Deutsch, 1962), (Johnson,1991).
114
En la modalidad tradicional se aplica por lo general el aprendizaje por competencia, obliga a los alumnos a trabajar más rápido y con mayor precisión
que los demás. Los alumnos más hábiles se convierten en los que merecen
pasar y los menos aptos en los que seguramente van a reprobar. Esta estrategia genera una interdependencia negativa entre los logros puesto que la
única forma de alcanzar sus metas es a partir de que los demás alumnos
fracasen (Deutsch, 1962), (Johnson,1991).
En el SAI se aplica el aprendizaje individualista, se enfoca en el trabajo individualizado del alumno y la atención personalizada, cada estudiante cuenta
con su material y trabaja a su propio ritmo. El alumno valora sólo sus propios
esfuerzos y logros, no se enfocan en el éxito de los demás; los logros de los
demás son autónomos. Los alumnos distinguen que el logro de sus metas
de aprendizaje no tiene nada que ver con lo que hacen otros estudiantes
(Deutsch, 1962), (Johnson,1991). Esta estrategia permite que el alumno conozca sus propias habilidades y destrezas, lo habilita para el autoestudio.
En el SAC la filosofía gira en torno al aprendizaje cooperativo, trabajar juntos
para lograr metas comunes. Para Johnson y Johnson: “Los individuos buscan
resultados benéficos tanto para ellos como para todos los demás integrantes
del grupo. El aprendizaje cooperativo es el uso didáctico de grupos pequeños que permite a los estudiantes trabajar juntos para maximizar su propio
aprendizaje y el de los demás” (Johnson,1991).
La importancia del aprendizaje cooperativo radica en el beneficio mutuo, en
compartir lo que saben y lo que aprenden, en preocuparse por los demás.
Este es el fundamento pedagógico y filosófico del Sistema de Aprendizaje Cooperativo. Más aún, la cooperación debe llevarse a cabo de manera
consciente hasta que se vuelva un hábito y sea la forma cotidiana de actuar
e interactuar.
Definición del Sistema de Aprendizaje Cooperativo
Los lineamientos para la definición y operación de los cursos bajo el Sistema
de Aprendizaje Cooperativo mediado por Tecnologías de la Información y
Comunicaciones (TIC), fueron aprobados por el Consejo Divisional de Ciencias Básicas e Ingeniería, en su sesión 513 ordinaria, celebrada el día 16 de
Octubre de 2012, por acuerdo 513.5. Entran en vigor junto con las modificaciones de los planes y programas de estudio de las diez licenciaturas de
ingeniería en el trimestre 13-O.
115
Implementación del SAC
Para la implantación del modelo del sistema de aprendizaje cooperativo es
necesario que: a) el alumno obtenga una calificación aprobatoria en todas
las actividades de evaluación que realice durante el curso; b) el alumno sea
informado con precisión sobre lo que tiene que hacer, la forma en que se
van a realizar las actividades individuales y colectivas, para demostrar que
aprendió el tema; c) el profesor elabore material didáctico de apoyo que
facilite al alumno el aprendizaje a excelencia en un tiempo razonable.
El alumno se puede comunicar con el profesor (si la tecnología existente lo
permite) de manear ubicua aprovechando las TIC, a través de mecanismos
síncronos como: chat, videoconferencia, entre otros; y asíncronos: foros,
blogs, facebook, entre otros.
A los alumnos se les proporciona una planeación de actividades, con la libertad de trabajar a su propio ritmo, poniendo a su disposición sesiones en
línea en tiempo real y un sistema de asesoramiento mediado por TIC en el
que se le atiende de manera personal o colectiva.
Un elemento clave para que se logre un aprendizaje de excelencia es la motivación, para fomentarla se aplican refuerzos positivos, con el objetivo de
que el alumno se sienta importante, perciba la preocupación por su rendimiento y aprendizaje. El error es un mecanismo fundamental para el aprendizaje, donde la corrección debe ser continua y personal para el alumno. Al
mismo tiempo la felicitación es permanente para que el alumno se motive y
siga avanzando, con la satisfacción de adquirir nuevos conocimientos.
Con el objetivo de realizar una supervisión y monitoreo de la calidad educativa de los cursos impartidos, se aplica el ciclo de supervisión de excelencia
en el que intervienen cuatro actores: profesor, alumno, alumno de servicio
social y ayudante de profesor, como se muestra en la figura 2.
116
Figura 2. El ciclo de supervisión de excelencia promueve la calidad educativa en los cursos
impartidos en el SAC.
El ciclo de supervisión de excelencia permite que alumnos de servicio social
interactúen con los alumnos inscritos en el curso, fungiendo como termómetros que equilibran la armonía en el ambiente cooperativo. Mientras que
los ayudantes son los termómetros que miden el aprendizaje a través de la
verificación de actividades que realizan los alumnos, identifican los errores
recurrentes, notifican al profesor para que explique nuevamente el tema o
realice más ejercicios, entre otras acciones correctivas. El ciclo de supervisión de excelencia crea un círculo virtuoso y por consecuencia una sinergia
positiva que fomenta la mejora continua durante el proceso de enseñanzaaprendizaje.
Beneficios del Sistema de Aprendizaje Cooperativo
El SAC tiene como objetivo fomentar el desarrollo de habilidades como el
pensamiento crítico, el pensamiento complejo, así como un compromiso
por compartir y ayudar a los que nos rodean para alcanzar juntos el éxito.
Bajo este contexto se propone construir de manera conjunta un paradigma
educativo que resulte inclusivo, que no se anteponga a ningún planteamiento teórico en particular, que permita cumplir con la misión de la Institución
en cuanto a formar profesionales y ciudadanos aptos y responsables en correspondencia con las necesidades de la sociedad y que optimice los recursos físicos y humanos con los que cuenta la DCBI.
117
Experiencia y trabajo empírico
El modelo propuesto es el resultado del trabajo empírico realizado durante
los trimestres 11-O al 14-P, en grupos CNP (Curso No Presencial) y SAC
(Sistema de Aprendizaje Cooperativo) de la UEA Métodos Numéricos en
Ingeniería (uno de los cursos de mayor demanda en el Departamento de
Sistemas). Con una prueba de la aplicación de la modalidad SAC durante
los trimestres 13-O al 14-P.
Metodología
El diseño de los experimentos que se implementaron consideraron un conjunto de variables que se fueron modificando hasta obtener buenos resultados en el aprendizaje, disminución de la deserción e incremento en la
aprobación.
Cada experimento se realizó en un trimestre distinto, se fueron adecuando
las variables involucradas con el objetivo de optimizar los recursos necesarios para atender los grupos en modalidad SAC, así como mejorar el aprendizaje del alumno. Con base en los resultados de la experiencia empírica, se
define el modelo de supervisión de excelencia (que se muestra en la figura
2).
Un segundo bloque de experimentos en los que se implementa la modalidad SAC durante los trimestres del 13-O al 14-P.
Experimentos programados
Los experimentos inician desde el trimestre 11-Otoño y se concluyen en
14-Primavera, lo que permite realizar 9 repeticiones, con diferentes valores
en las variables involucradas como se muestra en la tabla 1.
La primera variable considerada es la formación de las comunidades de
aprendizaje, considerando la conformación libre a decisión del alumno,
aleatoria y acorde con su perfil de aprendizaje (primero manteniendo diversidad y segundo entre alumnos con el mismo estilo de aprendizaje).
118
Tabla 1. Experimentos de campo
Variable
11-O
12-I
12-P
12-O – 14-P
Formación comunidades aprendizaje
Libre
Aleatoria
Acorde con el perfil
de aprendizaje (diversidad)
Acorde con el perfil
de aprendizaje
(homogéneo)
Actividades de
evaluación
Exámenes
Programas
Ejercicios
Incrementales
Mapas mentales
programas
Mapas mentales
Programas
Autoevaluación
Exámenes
Mapas mentales
Programas
Autoevaluación
Exámenes
Seguimiento
Jerárquico
Jerárquico
Ciclo de Supervisión
de Excelencia
Ciclo de Supervisión de Excelencia
Herramientas
cognitivas
Aula virtual
Colaboratorio
Colaboratorio
Colaboratorio
Apoyos: REM
Presentaciones
Texto
Asesoría
presencial
Problemas
Videoclases
Asesoría presencial
Clase en videoconferencia
Problemas
Capsulas de conocimiento
Asesoría presencial
Ejercicios en videoconferencia
Problemas
Capsulas de conocimiento
Asesoría presencial
Ejercicios en videoconferencia
La segunda variable corresponde a los tipos de actividades de aprendizaje
que apoyan la evaluación.
La tercera variable determina los recursos humanos necesarios y el mecanismo de acompañamiento para los alumnos. El modelo jerárquico en el que
se requiere un alumno de servicio social por cada 50 alumnos, un ayudante
y el profesor, se conforman las comunidades con un máximo de 5 alumnos.
En el caso del ciclo de supervisión de excelencia se considera un alumno de
servicio social, un ayudante y el profesor para atender hasta 294 alumnos.
La cuarta variable está asociada con las herramientas para facilitar el aprendizaje, utilizando inicialmente aula virtual y después utilizando colaboratorios que apoyan las actividades cooperativas.
La quinta variable se relaciona con el tipo de recursos educativos multimedia utilizados para apoyar la enseñanza y autoestudio del alumno.
119
Análisis de resultados
Los experimentos se realizan en la UEA de tronco general: Métodos Numéricos en Ingeniería.
La UEA de Métodos Numéricos en Ingeniería puede ser la primera o la segunda vez que el alumno cursa bajo las consideraciones de los experimentos programados, lo que implica para el alumno que toma una UEA en ésta
modalidad, un mayor esfuerzo dado que se enfrenta a una nueva forma de
conducción del proceso de enseñanza y aprendizaje, debe comprender el
uso de la plataforma, además de aprender el tema disciplinar de la UEA que
le permite desarrollar un pensamiento creativo. Esto produce que el alumno
adquiera nuevas habilidades cognitivas durante el trimestre y le demanda
gran esfuerzo. En la figura 3 se muestran los resultados obtenidos durante
los nueve trimestres respecto al índice de aprobación.
Figura 3. Índice de aprobación de la UEA Métodos Numéricos en Ingeniería.
El índice de aprobación de la UEA de Métodos Numéricos en Ingeniería de
la figura 3, presenta un patrón de comportamiento, en el que durante los
trimestres de otoño presenta los valores mínimos de aprobación en cada
ciclo anual. Mientras que el índice de aprobación sube en invierno y llega
a su máximo en primavera, para después repetir el patrón al siguiente año.
Se observó que a pesar de atender un mayor número de alumnos (comparado con los grupos tradicionales con un total de 40 a 50 alumnos) con un
mínimo de recursos humanos como se muestra en la figura 4 el porcentaje
de aprobación es similar que en grupos tradicionales (aproximadamente del
120
50%), sin embargo el número de alumnos atendidos en grupos SAC triplica
el cupo, por tanto un mayor número de alumnos aprueba el curso.
Figura 4. Alumnos atendidos en modalidad SAC en la UEA Métodos Numéricos en Ingeniería durante los experimentos.
Conclusiones y trabajo futuro
Dada la alta demanda de alumnos que solicitan su inscripción en UEA de
tronco general, es necesario tener alternativas de atención a partir de los
recursos físicos y humanos existentes en el Departamento de Sistemas de la
DCBI. Para lo cual se propone la modalidad de conducción del proceso de
enseñanza y aprendizaje SAC, que habilita la atención a grupos masivos que
van de 50 y hasta 294 alumnos.
Se logró observar que la implementación de la modalidad SAC permite atender un mayor número de estudiantes con un profesor, un ayudante y un
alumno de servicio social, comparativamente con un grupo en modalidad
SAI que atiende hasta 30 alumnos o uno en modalidad presencial donde se
atienden entre 40 y máximo 50 alumnos.
La aprobación de alumnos en grupos SAC comparados con los aprobados
en grupos presenciales también es mayor.
Es evidente que tener diversidad en las modalidades de conducción del proceso de enseñanza y aprendizaje (presencial, SAI y SAC) permite ofrecer
a los alumnos diversas opciones que les permiten desarrollar habilidades
cognitivas que van más allá de la temática disciplinar.
121
Hay un gran trabajo por delante, la permanente evaluación, la búsqueda de
las correctas motivaciones y la difusión del SAC para lograr una mayor incorporación de profesores y alumnos es un reto por abordar para diversificar
la implementación de la modalidad SAC en otras UEA.
Referencias
[1] Ames, G.J., Murray, F.G. (1982). When two wrongs make a right: Promoting cognitive
change by social conflict. Developmental Psychology, 18, 894-897
[2] Deutsch, M. (1962). Cooperation and trust: Some theoretical notes. In M. R. Jones (Ed.),
Nebraska symposium on motivation, 275-319. Lincoln, NE: University of Nebraska
Press.
[3] Doise, W., Deschamps, J.C., Mugny, G. (1980). Psicología social experimental. Barcelona:
Hispano Europea.
[4] Johnson, D. W. (1991). Human relations and your career (3rd. ed.). Englewood Cliffs, NJ:
Prentice-Hall.
[5] Mugny, G., Pérez, J.A. (1988). Psicología social del desarrollo cognitivo. México: Trillas
[6] Mugny, G., Doise, W. (1983). La construcción social de la inteligencia. México Trillas.
[7] Perret-Clemont, A.N. (1988). Interagir et connaitre: Enjeux et régulations sociales dans le
développement cognitif. Neuchatel: Delachaux et Niestlé.
[8] Vygotsky, L.S. (1981). The genesis of higher mental functions. En J.V. Wertsch (Comp.), The
concept of activity in Soviet psychology (144-188). Armonk, NY: Sharpe.
122
Ventajas Sobre el Uso del Quitosano como Coagulante en el
Tratamiento de Aguas Residuales
Icela D. Barceló Quintal1, Mónica L. Salazar Peláez1, Gustavo A. Martínez Pérez1,
Triana C. Cervantes Pérez1, Julisa García Albortante1, Elba Castillo Borges2
Área de Química y Fisicoquímica Ambiental
División de Ciencias Básicas e Ingeniería. Universidad Autónoma Metropolitana–Azcapotzalco, Av. San Pablo 180, Col. Reinosa Tamaulipas, Azcapotzalco, México, D.F., C.P. 02200, Mexico.
1
Universidad Autónoma de Yucatán. Facultad de Ingeniería. Av. Industrias
No Contaminantes por Periférico Norte s/n, Mérida, Yucatán, México
2
Resumen
La problemática de la escasez mundial de agua, ha generado que se realicen
grandes esfuerzos a la búsqueda de soluciones que permitan el tratamiento y
la disposición de aguas residuales de distintas procedencias y la posibilidad
de ser reutilizadas en diversos usos. Entre las etapas de tratamiento de las
diferentes aguas residuales, se encuentra la coagulación, proceso mediante
el cual las partículas se aglutinan formando pequeñas masas, cuyo peso específico superior al del agua les permite sedimentar y puedan ser separadas
mediante decantación, causando en el agua una remoción de la turbidez orgánica y/o inorgánica, eliminación de color, en algunos casos la eliminación
de bacterias, virus y organismos patógenos y eliminación de sustancias productoras de sabor y olor, y de sólidos suspendidos, entre otros. La mayoría
de los procesos de tratamiento del agua emplean sulfato de aluminio como
coagulante. La principal consecuencia de la aplicación de este material es la
generación de una importante cantidad de lodos ricos en aluminio. Durante
mucho tiempo el aluminio fue considerado no tóxico y, en especial, inocuo
para los seres humanos; sin embargo, se ha demostrado que puede producir
efectos adversos en plantas, animales acuáticos y seres humanos, cuando se
libera al ambiente. En México, la NOM-127-SSA1-1994 establece un límite
máximo de aluminio en el agua potable de 0.2 mg/L considerando que niveles más elevados pueden afectar la salud humana. En los últimos años se
ha observado un creciente interés en el desarrollo de coagulantes naturales,
como el quitosano, que proviene de la síntesis de la quitina de crustáceos.
En este trabajo se presenta el aprovechamiento de la cáscara de camarón,
que es un desecho que puede ser utilizado para la obtención de este compuesto, para su uso como coagulante en el tratamiento de aguas municipales. Además su uso como coagulante natural resulta ser muy atractivo debido a su menor costo en comparación con los agentes sintéticos, además es
123
biodegradable y no afecta las cepas bacterianas cuando se requiere la estabilización de los lodos en los tratamientos aerobios y pueden ser utilizados,
por ejemplo en la adecuación de suelos por su alto contenido de materia
orgánica. Además con pruebas en el laboratorio se ha demostrado que el
uso del quitosano mejora las propiedades de sedimentación de los lodos de
origen municipal, sustituyendo a los coagulantes sintéticos..
Palabras clave: Coagulante, sulfato de aluminio, quitina, quitosano
ABSTRACT
The issue of global water scarcity has led to great efforts to finding solutions
to the treatment and disposal of wastewater from different backgrounds and
the ability to be reused in different applications. Among the processing steps
in treatment of wastewater; coagulation process is important, this consist
whereby the particles coalesce into small masses, where specific gravity
greater than water allowing sediment, they can be separated by decanting
causing turbidity removal of inorganic and organic substances, color, suspended solids, removal in some cases bacteria, viruses and pathogens and
eliminating substances producing bad taste and odors from waste waters.
Most water treatment processes employ aluminum sulfate as a coagulant.
The main consequence of the application of this material is the generation of
a significant amount of sludge rich in aluminum. Long aluminum was considered non-toxic and, especially, harmless to humans; however, it has been
shown to produce adverse effects on plants, aquatic animals and humans,
when released to environment. In Mexico, the NOM-127-SSA1-1994 sets a
maximum limit of aluminum in drinking water of 0.2 mg / L whereas higher
levels can affect human health. In recent years there has been an increasing
interest in the development of natural coagulants, such as chitosan, which
comes from the synthesis of crustacean chitin. In this work is presented the
utilization of shrimp shell, which is a waste product, can be used for the
preparation of this compound for to use as a coagulant in municipal water
treatment. Besides its use as a natural coagulant is very attractive due to its
lower cost compared with the synthetic agents, it is biodegradable and does
not affect the bacterial strains as the stabilization of sludge in the aerobic
treatment and the sludge generated is required can be used for example in
matching soil for its high content of organic matter. In addition to laboratory
tests demonstrated that the use of chitosan improved settling properties of
the sludge from municipal sources, replacing the synthetic coagulants.
Keywords: Coagulant, aluminum sulfate, chitin, chitosan
124
Introducción
Debido a la creciente problemática de la escasez mundial de agua, la comunidad científica internacional dedica grandes esfuerzos a la búsqueda de
soluciones que permitan el tratamiento y la disposición de aguas residuales
de distintas procedencias y la posibilidad de ser reutilizadas en diversos
usos. Entre las etapas de tratamiento de las diferentes aguas residuales, se
encuentra la coagulación (Hernández, 1990), proceso mediante el cual las
partículas coloidales que no sedimentan debido a que forman coloides estables, es necesario mediante ciertas sustancias desestabilizarlas y permitir
que se aglutinen para formar pequeñas masas, y microflocs, de manera que
por gravedad puedan tender a la sedimentación figuras 1a y 1b. Del proceso
de coagulación depende en gran porcentaje la mayor o menor eficiencia
del proceso subsiguiente: el de la separación de sólidos por sedimentación
y filtración. La remoción de turbidez en los sedimentadores y en los filtros
así como la calidad del agua que se obtenga en ellos, se relacionan directamente con la manera como las partículas sean desestabilizadas y con la
intensidad de las fuerzas que las aglutinan.
(a)
(b)
Figura 1. (a) Formación de microfloc a partir de coloides estables. (b) Esquema de como se
encuentran las cargas para una desestabilización de los coloides para lograr que formen los
flocs.
En la actualidad, la mayoría de los procesos de tratamiento del agua emplean
sulfato de aluminio como coagulante, cuyas cantidades usadas dependen
del contenido de sólidos presentes en el agua. La principal consecuencia de
la aplicación de este material es la generación de una importante cantidad
de lodos ricos en aluminio. Estos lodos se caracterizan por presentar entre
125
0.1 a 27.0% de sólidos totales, de 4.0 a 40.0% de aluminio y valores de
pH entre 5.5 y 8.0 (Panizza, 2006). Estas condiciones pueden contribuir de
manera importante a la contaminación de los suelos, por lo cual es necesario tratarlos o buscar alternativas al uso del sulfato de aluminio. Durante
mucho tiempo el aluminio fue considerado no tóxico y, en especial, inocuo
para los seres humanos; sin embargo, se ha demostrado que puede producir
efectos adversos en plantas, animales acuáticos y seres humanos, cuando
se libera al ambiente. Las concentraciones a las cuales el aluminio genera
efectos adversos en los seres vivos dependen del tipo del ser vivo, de la
biodisponibilidad del metal y del tiempo de exposición al mismo (Panizza,
2006, Panizza et al, 2008). En México, la NOM-127-SSA1-1994 establece
un límite máximo de aluminio en el agua potable de 0.2 mg/L considerando
que niveles más elevados pueden afectar la salud humana (DOF, 1996).
Históricamente, los primeros coagulantes fueron de origen mineral o vegetal, pero la falta de conocimiento científico de sus mecanismos de acción
llevó a su remplazo por sustancias químicas, (Poumaye, et al, 2012). En los
últimos años se ha observado un creciente interés en el desarrollo de coagulantes naturales, Mediante el uso de coagulantes naturales se puede alcanzar
considerables ahorros en sustancias químicas y en el tratamiento de lodos
(Bina et al, 2010). Actualmente en el área de la ciencia de los biomateriales,
los científicos se han enfocado al estudio de coagulantes que sean biodegradables para una posterior utilización de los lodos. Entre estos biomateriales
se encuentra la quitina y el quitosano. La quitina es un biopolímero que
se encuentra presente en el exoesqueleto de artrópodos como: langostas,
cangrejos y camarón; insectos y también se encuentra en la pared celular
de las diatomeas, y otras algas, y hongos; este material no es tóxico y es
relativamente fácil de degradar, por lo que su aplicación es ambientalmente
aceptable (Crini, 2005, Rinaudo, 2006). La quitina tiene por nombre sistemático poli-N-acetil-D-glucosamina, es el segundo polímero natural más
abundante en la tierra después de la celulosa. Es un polímero lineal de alto
peso molecular y se estima que por lo menos, 10 gigatoneladas (1x1013 kg)
de quitina son producidas e hidrolizadas cada año en la biosfera (Shahidi y
Abuzaytoun, 2005). La palabra quitina viene del griego tunic, túnica (Lárez,
2003; Shahidi y Abuzaytoun, 2005; Synowiecki y Al-Khateeb, 2003). La estructura química de la quitina, figura 2b es muy parecida a la de la celulosa,
figura 2a, sólo que en la posición C2 de cada hexaciclo, se tiene un grupo
acetamida, figura 2b, encerrados en los círculos, que está reemplazando a
un grupo hidroxilo en el caso de la celulosa (Shahidi y Abuzaytoun, 2005),
por lo que existió una controversia sobre las diferencias entre la celulosa y la
quitina, debido a que se pensaba que la presencia de nitrógeno reportada en
algunas investigaciones se debía a residuos de proteínas que no podían ser
126
completamente eliminados de las muestras y no a las diferencias descritas
(Lárez, 2003). Dependiendo de su origen, la quitina puede presentarse en
dos formas, llamadas α y β, figuras 3a y 3b.
Figura 2. (a). Estructura de la celulosa. (b) Estructura de la quitina.
Donde ambas estructuras pueden distinguirse por espectroscopia infrarroja,
por lo que se han desarrollado diversos estudios (Rinaudo, 2006) para la
interpretación del espectro infrarrojo como el que se muestra en la figura 3,
que es típico de los polisacáridos, encontrándose una diferencia interesante
en la región de estiramiento del enlace C=O y las vibraciones de deformación del enlace del grupo amida entre 1600 y 1500 cm-1.
Para la α-quitina, la banda de la amida I está en 1656 y 1621 cm-1, mientras
que para la β-quitina sólo hay una banda en 1626 cm-1. En contraste, la
banda de la amida II es única para ambas formas de quitina, 1556 cm-1 para
α-quitina y 1560 para β-quitina. El hecho de que se presenten dos bandas
para la amida I de la β-quitina es motivo de discusión, pero la hipótesis más
aceptada es que la banda en 1621 cm-1 se trata de un enlace específico de
hidrógeno del C=O con el grupo hidroximetil del siguiente residuo de quitina de la misma cadena (Brugnerotto et al., 2001).
127
Figura 3 Espectro infrarrojo (a) de la α-quitina. (b) de la β-quitina.
Como materia prima del quitosano, la quitina es el segundo biopolímero de
mayor importancia en nuestro planeta (sólo después de la celulosa), figuras
4a y 4b. A diferencia del sulfato de aluminio, el quitosano es un floculante
completamente biodegradable (Poumaye et al, 2012). El quitosano a través
de la quitina, se obtiene típicamente de los artrópodos, caparazones de crustáceos y de algunas levaduras (Fabris, 2010). Los grupos funcionales NH2
presentes en la estructura del quitosano hacen que su molécula esté cargada
positivamente, lo cual facilita la interacción con materiales coloidales y con
materiales aniónicos suspendidos. El quitosano, como agente coagulante, es
eficiente a concentraciones mucho menores en comparación con las sales
metálicas convencionales, y no deja metales residuales después de la coagulación (Zonoozi, 2011).
(a)
(b)
Figura 4. (a) estructura de la quitina. (b). Estrutura del quitosano.
En este trabajo se presenta la obtención primero de la quitina como materia
prima para la obtención del quitosano de la cáscara de camarón figura 5 y
probar su capacidad como coagulante, para su uso posterior en aguas re128
siduales con alto grado de material en suspensión y alta carga orgánica. Es
importante considerar algunos aspectos básicos sobre el camarón, debido a
la calidad de quitina y por lo tanto del quitosano. Aun cuando en el ámbito
mundial existen 342 especies de camarón con valor comercial, son unas
cuantas las especies que son importantes en el mercado. Esas especies se
pueden clasificar en tres grupos básicos: a) El camarón tropical, b) El camarón de río o de aguadulce, y c) El camarón de agua fría.
Figura 5. Cáscara de camarón para la extracción de la quitina como materia prima del
quitosano.
a) El camarón tropical, constituye el tipo de camarón más popular y abundante en el mercado. La mayoría se caracteriza por el color de su cáscara
cuando están crudos: blanco, café, rosa y tigre negro. Otro tipo de camarón
de aguas tropicales es el camarón de roca, y se le conoce así debido a su
cáscara dura. El camarón blanco tiene la cáscara de color blanco-grisáceo,
la cual se torna rosada al cocinarse. La cáscara del camarón blanco de cultivo es de un tono blanco-grisáceo más claro y son más delgadas que las silvestres. La cáscara más delgada de éstos últimos es consecuencia tanto de la
composición del alimento, como del crecimiento en cautiverio. El camarón
cultivado tiene un sabor más delicado y una textura más suave, esto se debe
a que el camarón silvestre se alimenta de crustáceos y algas marinas, lo que
enriquece su sabor y fortalece su cáscara, (Hernández-Núñez et al, 2008). El
camarón rosa es capturado en el Golfo de México, el Caribe y Centroamérica. Su cáscara de color rosa claro, muestra una textura nacarada y algunos
presentan una mancha distintiva rosada en la cabeza.
En cuanto a la floculación, es un proceso mediante el cual las partículas se
aglutinan formando pequeñas masas, cuyo peso específico superior al del
agua les permite precipitar y puedan ser separadas mediante decantación,
causando en el agua una remoción de la turbidez orgánica y/o inorgánica,
129
eliminación de color, en algunos casos la eliminación de bacterias, virus
y organismos patógenos, destrucción de algas y eliminación de sustancias
productoras de sabor y olor, y de precipitados químicos suspendidos entre
otros (Rodríguez et al, 2005).Ver figuras 6a y 6b, en el primer caso 6a, se observa como las partículas coloidales no sedimentan y en el caso de la figura
6b con una previa coagulación las partículas se aglutinan y por gravedad
sedimentan.
Figura 6. (a)Principio de la floculación de partículas coloidales s. (b)que previa coagulación
permiten que sedimenten.
Muchos coagulantes requieren posteriormente de alguna sustancia que les
permita flocular. La floculación es la aglomeración de partículas desestabilizadas en microflóculos y después en los flóculos más grandes que tienden a depositarse en el fondo de los recipientes construidos para este fin,
denominados decantadores. El proceso de floculación es precedido por el
de coagulación, por eso suele hablarse de procesos de coagulación - floculación. Los floculantes (o coadyuvantes de coagulación) son productos que
favorecen el proceso de formación del flóculo, actuando de puente o unión
para captar mecánicamente las partículas en suspensión. La diferencia básica entre coagulante y floculante reside en que el coagulante anula las
fuerzas repulsivas entre las partículas coloidales, iniciando la formación de
microflóculos figura 7, en cambio el floculante engloba estos microflóculos
aumentando su tamaño y densidad de modo que sedimenten más fácil y
rápidamente, figura 7. Se pueden utilizar polímeros de alto peso molecular, naturales o sintéticos. Entre lo floculantes naturales se encuentran los
almidones y sus derivados, polisacáridos de compuestos celulósicos, como
ciertos compuestos proteínicos, alginatos que dan precipitados voluminosos
130
que sedimentan rápidamente. Su uso es, en ciertos casos, ventajoso pues
pese a ser necesarios en dosis más elevadas generalmente tienen un costo
inferior al de lo polielectrolitos sintéticos.
Figura 6. Se observa el papel importante de un floculante que une los coloides desestabilizados y sirve de puente para aumentar el floc y sedimente más rápidamente.
En la actualidad, la mayoría de los procesos de tratamiento del agua emplean sulfato de aluminio como coagulante (Pacala et al, 2009), donde estas
condiciones pueden contribuir de manera importante a la contaminación de
los suelos, por lo cual es necesario tratarlos o buscar alternativas al uso del
sulfato de aluminio. Durante mucho tiempo el aluminio fue considerado no
tóxico figura 8.
Figura 8. aluminio y su efecto en los peces de la laguna de Laguna de Cajititlán en Jalisco.
Metodología
Preparación de coagulante de Sulfato de Aluminio
Se utilizó como coagulante de comparación el aluminio, para cuya preparación se utilizó la sal de Sulfato de Aluminio Baker grado analítico. Se pesó 1
gramo del reactivo y se disolvió en agua desionizada; la solución resultante
131
fue aforada a 100 mL, con una concentración final de 10 mg/mL, con el
objeto de facilitar la dosificación del mismo durante las pruebas de jarras.
Síntesis de Quitosano a partir de cáscara de camarón
Se seleccionó la cáscara que no contenía residuos cárnicos, se lavó la cáscara previamente pesada con extrán neutro al 30%, se enjuagó varias veces
con agua desionizda, se secó parcialmente la cáscara a 50°C durante dos
horas, se pesó y se complementó la elimininación de la humedad por liofilización previa congelación en una liofilizadora Virtis Benchtop, hasta peso
constante, este paso es importante, ya que no es conveniente usar mucho
tiempo de calor debido a que se puede degradar el caparazón afectando
las propiedades fisicoquímicas de la quitina y quitosano que se sintetizarán
de la cáscara. Las cáscaras se molieron en un molino Bel Art Micro Mill y
se tamizarán a malla tipo Tyler 100, en un tamizador sónico ATM Products
Sonic Sifter. A 200 gramos de la cáscara molida se le efectuó una desmineralización, tratando la cáscara de camarón HCl 0.5N, Baker grado analítico,
durante 4 hrs. a 25 ºC, con agitación en un equipo Orbit Shaker Lab-Line,
después de este tiempo en contacto con el ácido se lavó hasta neutralidad
con agua destilada. El paso siguiente fue el de una desproteinización; para
ello se trató el material con una solución de NaOH al 0.5N durante 6 horas
a 100°C, obteniéndose la quitina, siguiendo la técnica de Martínez. 2008
y para el control de la eficiencia se efectuó con el método de Mohammad
(2008), tomado de Hernández-Núñez et al, 2008, mediante espectrometría
infrarroja en un equipo Nicolet modelo iS10 Thermo Scientific, se renovó
el NaOH cada 3 horas y al final del tiempo se lavó a neutralidad con agua
destilada con centrifugación a 500 rpm durante 30 min, en una centrífuga
Centrifuga Allegra 21 dejándose reposar y eliminándose el agua por decantación, se le volvió agregar agua al sólido, repitiéndose la operación hasta
que el pH del agua eliminada fue cercano a 7. La quitina producida se sometió a desacetilación por la adición de NaOH al 50% a 100 ºC durante 2
horas. El residuo obtenido se lavó hasta neutralidad con agua destilada y el
producto se congeló y se sometió a liofilización.
132
Metodología de la prueba de jarras para la determinación de la dosis óptima
Se determinó la temperatura del agua cruda que se iba a tratar por los dos coagulantes (sulfato de aluminio y quitosano), así como el color, la turbidez, el
pH y la alcalinidad.Mediante el equipo de prueba de jarras VIRTIS Scientifica
JLT 6 se añadieron en diferentes juego de seis jarras el agua y los coagulantes en dosis progresivas, haciéndolos funcionar a 200 rpm, con una mezcla
rápida, se disminuyó la velocidad de rotación de las paletas a 25 rpm y se
dejó flocular el agua durante 15 minutos, para permitir que las partículas coloidales ya desestabilizadas incrementaran el tamaño del floc. Después de
concluido el tiempo, se observó una floculación, se extrajeron las paletas del
equipo de jarras y se dejó sedimentar durante 20 minutos. Posterior al proceso
de sedimentación, se extrajeron los sobrenadantes para la determinación de
turbidez residual. Se compararon los resultados con diferentes dosis para la
selección de la dosis óptima de cada coagulante. Se utilizó la espectroscopía
de infrarrojo para el seguimiento del quitosano, en el equipo Nicolet modelo
iS10 Thermo Scientific.
Resultados Experimentales
Como coagulante patrón se utilizó el sulfato de aluminio y mediante la titulación para medir su acidez superficial con KOH (0.3 M) se construyeron
las siguientes gráficas, las cuales proporcionaron de manera preliminar, el
intervalo del pH, para hallar el óptimo y tener la operación adecuada de
cada uno de los coagulantes preparados con quitosano, ver figura 9 a y 9ab,
donde en la figura 9a se indican los dos pH importantes en el barrido de pH,
neutralizado con KOH 0.3M.
Figura 9. (a) Barrido de la neutralización del pH del sulfato de aluminio. (b) Se tomó la
primera derivada del pH vs Volumen gastado de KOH = 0.3M.
133
Tomando en cuenta que el aluminio es un ácido Lewis acepta en su esfera
de coordinación seis moléculas de H2O, [Al(H2O)6], hidrolizándose mediante la pérdida de tres H+, así el coloide tiene la fórmula [Al (H2O)3(OH-)3],
esto significa que por cada Al3+ existen tres H+, como se indica en la reacción siguiente:.
[Al(H2O)6]3+ → [Al (H2O)3(OH-)3]
Posteriormente fue importante determinar la superficie ácida del quitosano
a través de la construcción de la Curvas de Gran, donde los mínimos se
determinaron mediante la primera derivada del pH vs volumen del titulante
(KOH 0,3M). En cuanto al quitosano su estructura contiene seis H+ por cada
monómero que se forma, como se representa en la estructura:
A continuación se presenta la curva de titulación y la determinación de los
mínimos mediante las curvas de Gran y la primera derivada del pH vs Volumen del KOH = .3M
134
Figura 10. (a) Barrido de la neutralización del pH del quitosano. (b) se tomó la primera
derivada del pH vs Volumen gastado de KOH = 0.3M.
Analizando al coagulante sulfato de aluminio con el coagulante quitosano,
se observó que el quitosano presentóa una superficie más ácida, ya que
contiene por monómero 6H+. Se caracterizó el quitosano obtenido de la
quitina, por espectroscopía IR, y se compararon los espectros con tres quitosanos comerciales de viscosidad alta, media baja respectivamente. La determinación del espectro IR para cada una de la variedades de quitosano (alta,
media y baja viscosidad) proporciona información para conocer los grupos
funcionales que integran la estructura molecular de cada variedad, esto permitió determinar que el obtenido se acercó más al de viscosidad media. En
la figura 11 se muestran los espectros IR de cada variedad de quitosano, en
los cuales:
Figura 11. Espectros IR de Quitosano de viscosidad alta (QVA), viscosidad media (QVM) y
viscosidad baja (QVB).
135
• Pueden observarse los picos característicos del enlace N-H para la banda de aminas primarias con vibración de flexión y una intensidad de
absorción fuerte en 1592.01 cm-1.
• En el caso del enlace C-N, se presentan picos para la banda de aminas
alifáticas en 1024.11 cm-1 con una vibración de tensión y una intensidad de absorción de débil a media,
• Para el enlace O-H se ensancha con picos para la banda de alcoholes
entre 3360.15 cm-1 y 3342.02 cm-1 con una vibración de tensión y una
intensidad de absorción fuerte,
• El enlace C-O presenta un pico característico de la banda de los alcoholes primarios en 1058.42 cm-1 con una vibración de tensión y una
intensidad de absorción media,
• El enlace -C-H presenta un pico característico en 2871.32 cm-1 con una
vibración de tensión y una intensidad de absorción media a fuerte,
• Para el enlace –CH3 presenta un pico en 1374.24 cm-1 con una vibración de flexión y una intensidad de absorción media a fuerte,
• El enlace C-N presenta un pico en 1313.12 cm-1 con una vibración de
tensión y una intensidad de absorción débil a media,
• El caso del enlace –CH2, presenta un pico en 1419.58 cm-1 con una
vibración de flexión y una intensidad de absorción media a fuerte, en la
banda del Alcohol secundario en 1149.81 cm-1,
• Para el enlace C-C presenta un tipo de enlace conjugado en 1653.62
cm-1.
Resultados de la dosis óptima del sulfato de aluminio como coagulante
En la figura 12 se presenta la obtención de la dosis óptima vs turbidez residual del sulfato de aluminio, donde se observa siguiendo la gráfica del
promedio de las corridas que se requiere una dosis de 160 mg/L. Si bien este
coagulante da una buena eficiencia, requiere de un floculante.
136
Figura 12. (a) Obtención de la dosis de Al2(SO4)3. (b) Determinación de % de eficiencia.
Resultados de la dosis óptima del quitosano como coagulante
En la figura 13 se observan dos zonas de interés: una disminución de la turbidez residual con dosis prácticamente entre 5 y 5.5 mg/L, y una disminución con dosis superiores a 45 mg/L. La dosis de 5 mg/L alcanzó una eficiencia de remoción de la turbidez de alrededor del 32%, figura 14. Como se
puede apreciar en la gráfica, con una dosis de 60 mg/L la turbidez residual
continúo disminuyendo, por lo que fue necesario realizar pruebas con dosis
mayores, como se presenta en la gráfica de la figura 12.
Figura 13. Turbidez residual con quitosano como coagulante.
137
Figura 14. Eficiencia de remoción de turbidez vs dosis de coagulante.
Con el objeto de estudiar mejor el intervalo de dosis donde se observa el
punto de la figura 13, se realizaron pruebas con dosis menores, figura 15.
Figura 15. Turbidez residual vs dosis de quitosano
Figura 16. Eficiencia de remoción de turbidez vs dosis de quitosano.
138
De acuerdo a lo mostrado en la figura 15, la dosis óptima de quitosano
resultó entre 5 y 5.2 mg/L, con lo cual se alcanzó una eficiencia de remoción de la turbidez del 28%. Para estudiar la segunda parte de la figura 12
fue necesario realizar pruebas con dosis mayores para encontrar la máxima
eficiencia de remoción de turbidez con una mayor de dosis de coagulante,
figuras 17 y 18.
Figura 17. Turbidez residual vs dosis de quitosano.
Figura 18. Eficiencia (%) de remoción de turbidez vs dosis de quitosano.
En las figuras 17 y 18 se puede observar que la dosis óptima de quitosano
es de 250 mg/L, con lo cual se alcanzó una eficiencia de remoción de la
turbidez de alrededor del 90%.
139
Conclusiones
Derivado de la determinación de la acidez superficial del quitosano respecto al sulfato de aluminio, se observó que este presentó menos acidez que
el quitosano ya que este último tiene cinco iones H+ por cada monómero.
Respecto al análisis de las gráficas presentadas en los resultados, se observó
que el sulfato de aluminio como coagulante, genera mejor rendimiento, sin
embargo para el proceso de floculación se necesita de un floculante, que
normalmente es un polímero comercial sintético y de difícil degradación. En
cuanto al quitosano, se determinó que el intervalo en el que se encuentra el
pH óptimo para el proceso de coagulación–floculación fue de alrededor de
5. Esto se confirmó mediante una prueba de jarras, misma que se realizó al
encontrar la dosis óptima para el quitosano, se observó al efectuar pruebas
con dosis mayores para encontrar la máxima eficiencia de remoción de la
turbidez con una mayor de dosis de coagulante, donde se encontró que
la dosis óptima fue de 250 mg/L, con la cual se alcanzó una eficiencia de
remoción de la turbidez alrededor del 90% y además de que este biopolímero actúa también como floculante, lo que es un ventaja sobre el sulfato
de aluminio.
Referencias
[1] Bina, B.; Mehdinejad M.; Dalhammer, G.; Rajarao, G.; Nikaeen M.; Movahedian, H.
(2010).Effectiveness of MoringaoleiferaCoagulant Protein as Natural Coagulant aid in
Removal of Turbidity and Bacteria from Turbid Waters. World Academy of Science, Engineering and Technology 67.
[2] Bragnerotto, J., Lizardi, J., Goycoolea, F. M., Argüelles-Monal, W., Desbrieres, J., Rinaudo, M. (2001). An infrered investigation in relation with chitin and chitosan characterization. Polymer. Vol.42, (3559 – 3580).
[3] Crini, G. (2005). Recent developments in polysaccharide-based materials used as adsorbents in wastewater treatment. Prog. Polym. Sci. Vol.30, (38–70)
[4] D.O.F, 1996. NOM-127-SSA1-1994, Salud ambiental, agua para uso y consumo humano-Límites permisibles de calidad y tratamientos a que debe someterse el agua para su
potabilización. Disponible en: http://www.economia-noms.gob.mx/.
[5] Fabris, R.; Chow, C.; Drikas, M. (2010). Evaluation of chitosan as a natural coagulant for
drinking water treatment. Water Science & Technology (61.8).
[6] Hernández, A. (1990). Depuración de aguas residuales. Cap 6, 369-394. Ed. Paraninfo,
S. España.
[7] Lárez, C. V., (2003). Algunos usos del quitosano en sistemas acuosos. Revista Iberoamericana de Polímeros. Vol.4(2), (91 – 109).
140
[8] Martínez G.S. (2008). Adsorción de Cu (II), Cd (II) Y Co (II) como contaminantes disueltos
en sistemas acuosos mediante quitosano obtenido a partir de la Daphnia pulex, Tesis de
Maestría en Ciencias e Ingeniería Ambientales. Universidad Autónoma MetropolitanaAzcapotzalco. México
[9] Pacala A.;Vlaicu, I.; Radovan, C. (2009).Application of several aluminiumprehydrolysed
coagulants in surface water treatment for potabilization.Environ. Eng. Manage. J. Vol.8
(6), (1371–1376)
[10]Panizza, A. (2006). Evaluación de dos alternativas de tratamiento para lodos con sulfato
de aluminio provenientes de la potabilización del agua. Tesis de Maestría en Ciencias e
Ingeniería Ambientales. Universidad Autónoma Metropolitana- Azcapotzalco. México.
[11]Panizza, A.; Aldama, A.; Chacalo, A.; Vaca, M.; Grabinsky, J.; Márquez, C.; Durán, C.
(2008). Evaluación del compost elaborado a partir de lodos con alto contenido de sulfato de aluminio. Revista Latinoamericana de Recursos Naturales, Vol. 4 (3), 342-348.
[12]Poumaye, N.; Mabingui, J.; Lutgen, P.; Bigan, M. (2012). Contribution to the clarification
of surface water from the Moringaoleifera: Case M’Poko River to Bangui, Central African
Republic. Chemical Engineering Research And Design Vol.9, (2346-2352.
[13]Rinaudo, M. (2006). Chitin and chitosan: properties and applications. Progress in Polymer Science. Vol. 31, (603 – 632)
[14]Rodríguez S.; Muñoz, R.; García, O.; Fernández, E. (2005). Empleo de un producto
Coagulante Natural para Clarificar Agua.Revista CENIC Ciencias Químicas, Vol. 36, No.
Especial, 2005.
[15]Shahidi, F. y Abuzaytoun, R. (2005). Chitin, chitosan, and co-products: chemistry, production, applications, and health effects. Advances in Food and Nutrition Research. Vol.,
(49. 93 – 135).
[16]Synowiecki, J., Al-Khateeb, N. A. (2003). Production, properties, and some new applications of chitin and its derivatives. Critical Reviews in Food Science and Nutrition. Vol.
43(2),.(145 – 171).
[17]Zonoozi, M.; Moghaddam, M.; Arami, M. (2011). Study on the removal of acid dyes
using chitosan as a natural coagulant/coagulant aid. Water Science & Technology, Vol. 9,
(63.3).
141
Determinar el Grado de Degradación de un Suelo Agrícola
Convencional en una Zona Aguacatera Mediante su Comparación
con un Suelo Agrícola Orgánico y Otro con Vegetación Original
Icela D. Barceló Quintal1, Yosinia Martínez Méndez1, Victor M. Cetina Alcalá2,
Julisa García Albortante1, Mónica L. Salazar Peláez1
Área de Química y Fisicoquímica Ambiental,
División de Ciencias Básicas e Ingeniería.
1
Universidad Autónoma Metropolitana–Azcapotzalco, Av. San Pablo 180,
Col. Reinosa Tamaulipas, Azcapotzalco, México, D.F., C.P. 02200, Mexico.
Colegio de Postgraduados (COLPOS), Campus Texcoco, Estado de México
2
[email protected],[email protected]
RESUMEN
La degradación del suelo, es el resultado de la combinación de varias causas, tales como las actividades agrícolas no adecuadas, la fragilidad de los
ecosistemas, contaminación, urbanización, además de un clima variable y
agresivo. En 1999 se estimó que 15% del territorio mexicano estaba degradado, mientras que 49% podía considerarse dentro del área de influencia
a los procesos de degradación. Las principales causas de la degradación
de los suelos en el país son la deforestación, el cambio de uso del suelo,
el sobrepastoreo y las prácticas agrícolas ineficientes. En los últimos años,
el estado de Michoacán ha mostrado un incremento en la conversión de
bosques templados a huertos de aguacate, lo que ha tenido consecuencias
importantes en las características físicas, químicas y biológicas de los suelos, ya que estos presentan un grado de degradación y pérdida de fertilidad
edáfica debido a las prácticas de manejo inapropiadas, tales como la agricultura intensiva basada en el monocultivo, la agricultura de subsistencia
que se practica en laderas o tierras frágiles, prácticas como la tumba, roza
y quema, la deforestación, y el uso excesivo de maquinaria, fertilizantes y
agroquímicos, siendo este último facilitan la vulnerabilidad de los cultivo.
En este trabajo se presenta una evaluación a través del nitrógeno y carbono
orgánico que presenta cada suelo, indicando el estado de la degradación
a causa de las malas prácticas agrícolas que se realizan y el uso excesivo
de agroquímicos de algunos suelos de los municipios que abarcan la zona
aguacatera en el estado de Michoacán y que está afectando la producción
142
del aguacate, se utilizó como testigo un suelo con vegetación original y uno
con manejo orgánico sin agroquímicos.
Palabras clave: Aguacate, suelo agrícola tradicional, suelo orgánico, suelo
forestal
ABSTRACT
Land degradation is the result of a combination of several causes, such as
inadequate agricultural activities, the fragility of ecosystems, pollution, urbanization, considering the variations and aggressive climate. In 1999 it presented one 15% of Mexico’s territory degraded, while 49% could be considered within the zone in degradation process. The main causes of land
degradation in the country are deforestation, changing land use, overgrazing
and inefficient agricultural practices. In recent years, Michoacán has shown
an increase in the conversion of its temperate forests at avocado orchards,
which has had a significant impact on the physical, chemical and biological
soil characteristics, as these have a degree of degradation and loss of fertility
due to inappropriate practices, such as intensive agriculture based on monoculture management, subsistence farming is practiced on slopes and fragile
soils, practices such as slash and burn, deforestation, and excessive use of
machinery, and agrochemicals, the latter facilitated the vulnerability of crop.
In this paper presents an evaluation through the nitrogen and organic carbon
having each soil, indicating the state of degradation due to poor agricultural
practices carried out and the excessive use of agrochemicals in some soils of
the municipalities that comprise the area of avocado producing in the state
of Michoacán and that is affecting its production. Was used as control in the
investigation, one soil with native vegetation and one organic soil without
agrochemicals
Keywords: Avocado, traditional agricultural soil, organic soil, forest soil
INTRODUCCIÓN
En la década de los noventa se realizó una evaluación las actividades humanas que degradan el suelo en México y se observó que había un problema
grave en el que existía un total de la degradación de los suelos en el país
que abarcaba cerca del 64%. La degradación causada por el hombre reveló un total del 45.2% de los suelos del país y que nivel de degradación
predominante iba de ligero a moderado. Una de las principales causas de
degradación que se identificaron es el cambio de uso del suelo para fines
143
agrícolas (17.5%). Según Peter, et al., (2007), la agricultura intensiva basada
en el monocultivo, uso excesivo de maquinaria, fertilizantes y agroquímicos, la deforestación, agricultura de subsistencia, además dela tumba, roza
y quema, donde se pierden nutrientes en lo suelos, es decir el mal manejo
de la agricultura en el país, figura 1.
Figura 1. (a) Agricultura de subsistencia y monocultivo, (b) Tumba, (c) Roza y quema, (d)
Usos excesivo de fertilizantes.
Según Cottenie, (1984), así como estudios de Cairo et al, (2008), bajo actividades antropogénicas pierden un 50 % de su productividad, asimismo el
deterioro de las propiedades físicas, químicas y biológicas de los suelos, la
disminución de los rendimientos agrícolas y más importante aún el deterioro
del medio ambiente, es una situación que cada día se hace más evidente,
muchos estudios preocupados por el alto grado de deterioro, como San Martín,1995; Restrepo, 1995; Arteaga et al., 1995; Rosset, 1999; García, 2000,
León et al., 2005, comentan que la reducción drástica de los nutrientes,
materia orgánica y disminución de la actividad de los microorganismos del
suelo y la biomasa vegetal, se debe al uso inadecuado de los suelos y a su
sobreexplotación, lo que conduce a una pérdida importante de los suelos
útiles en México.
En 1997, surge la Red Mexicana de Esfuerzos contra la Desertificación y la
Degradación de los Recursos Naturales (RIOD-Méx), cuyo objetivo fue el
preparar un Mapa de Evaluación de la Degradación del Suelo (SEMARNAT
144
y COLPOS, 2003). Por otro lado en el año 2001, se evaluó la degradación
de los suelos causada por el hombre en la República Mexicana utilizando
la metodología ASSOD (Assessment of the Status of Human-induced Soil
Degradation, donde se indica que cada minuto se pierden 23 hectáreas de
tierra productiva a causa de la degradación del suelo, lo que en un año
equivale a una pérdida de 12 millones de hectáreas y más del 50% de las
tierras agrícolas se encuentran en situación de moderada a severamente degradadas. En 1999 siguiendo la metodología GLASOD (Global Assessment
of Soil Degradation) se preparó nuevamente un mapa, donde indican que no
solo la erosión hídrica o eólica, sino incluyen la degradación por procesos
químicos, físicos y biológicos, (SARH, 1994; SEMARNAT, 1996; Bocco et
al, 2001; Mas, 2005; INEGI,2006; Chávez, et al., 2009; APROAM, 2011),
también incluye el cambio del uso del suelo en terrenos forestales de manera irregular, que son además causas que modifican las propiedades de los
ecosistemas.
Un típico caso es el de Michoacán (Alcalá et al., 2001) donde las malas
prácticas agrícolas y el uso excesivo de agroquímicos degradan y contaminan los suelos de las huertas aguacateras, en el que existe un incremento en
la conversión de bosques a huertos de aguacate, lo que tiene consecuencia
en la modificación de las características físicas, químicas y biológicas de estos suelos, El cultivo del aguacate genera crecimiento económico y empleos,
sobre la franja aguacatera michoacana (FAM), (APEAM, 2011; APROAM,
2011, FAO, 1994), figura 2
Figura 2. Se presenta en el mapa del Estado deMichoacán la franja aguacatera (FAM).
145
Metodología
Se realizaron muestreos en tres tipos de suelos, suelos forestales o de vegetación original, suelos agrícolas convencionales o tradicionales y suelos con
agricultura orgánica, en los sitios Ario, Los Reyes, Nuevo Parangaricutiro,
Peribán, Tancítaro, Tingüindín, Tocumbo, Uruapan y Ziracuaretiro. Suelos
forestales, suelos agrícolas con manejo tradicional y suelos orgánicos, en
estos últimos no se utilizan agroquímicos. La zona presenta un clima A w1
(w), la temperatura 20-22ºC, con una precipitación anual 800-1200mm, humedad relativa 70-90%, 1-4 granizadas anuales y de 0-10 heladas anuales.
Son suelos de naturaleza andosol (92,7%), luvisol (5,8%), cambisol (0,63%),
acrisol (0,44%), vertisol (0,43%). Ver figura 3
Figura 3. Mapa del Estado de Michoacán y la franja aguacatera (FAM).
Muestreo en suelos forestales o de vegetación original
Estos suelos que no han sido alterados por la agricultura, son suelos boscosos con vegetación forestal, se muestrearon en nueve municipios a una
profundidad de 0 a 40 cm de profundidad, sirviendo como patrón y denominándose TRATAMIENTO 1 (T1), en la figura 4 se presenta un caso.
Figura 4. Suelos con vegetación forestal (T1).
146
Muestreo en suelos con agricultura convencional o tradicional
Se muestrearon suelos con agricultura tradicional en los mismos municipios
que en el caso anterios, donde se utilizan agroquímicos para el cultivo de
aguacate y se ha sobreexplotado con el tiempo. Estos suelos se muestrearon
también a una profundidad de 0 a 40 cm. Este sistema de uso de la tierra con
agroquímicos, se denominó TRATAMIENTO 2 (T2), ver figura 5.
Figura 5. Huertos de aguacate con manejo convencional (T2).
Muestreo en suelos con agricultura orgánica
Finalmente con las mismas condiciones de muestreo se tomaron muestras
en el suelos orgánicos, que se están también trabajando en los municipios
que conforman la llamada zona aguacatera, en donde no se utilizan agroquímicos, sino composta mezclada con el suelo. Se denominó TRATAMIENTO 3 (T3), en la figura 6, se presenta un caso de muestreo.
147
Figura 6. Huertos de aguacate con manejo orgánico,TRATAMIENTO 3 (T3).
Para llevar un mejor control del trabajo de muestreo de los tres tipos de
suelos, se construyó una malla imaginaria sobre los municipios como se
muestra en la figura 7. Los puntos rojos son los suelos destinados al cultivo
de aguacate, tanto con agricultura convencional, como orgánica donde en
cada municipio de la franja aguacatera también existe bosque que no ha
sido alterado y fueron los sitios de muestreo en general de los tres tipos de
suelo. Se observa que son nueve municipios de los más importantes económicamente que se encuentran en la franja aguacatera.
Figura 7. Malla para el control del muestreo en los municipios aguacateros, los puntos rojos
indican los sitios de muestreo de los tres tipos de suelo.
Teniendo lo anterior se continuó con un muestreo aleatorio estratificado
aleatorio considerando 208 sub-muestras para las huertas de aguacate del
suelo T2, 63 sub-muestras para las huertas de aguacate del suelo T3 y 102
sub-muestras para las áreas con vegetación forestal, suelo T1. Este muestreo
aleatorio consistió en separar las áreas de muestreo en estratos que presenten cierta homogeneidad en sus características topográficas y edáficas,
una vez teniendo la identificación de estratos, dentro de cada uno de estos
se realizó un muestreo aleatorio simple. En la figura 8, se puede observar
148
un esquema que representa una parcela con diferentes estratos (pendiente,
ondulado y plano), así como se almacenaron las muestras iniciales que se
denominaran sub-muestras.
Figura 8. Se presentan las muestras y un plano para indicar las zonas de muestreo y las
pendientes de la zona.
Primero cada conjunto de sub-muestras de suelo por cada tratamiento (T1,
T2 y T3) se mezclaron con cada suelo equivalente por municipio (9 municipios en total, formando 9 muestras compuestas primarias), posteriormente se
mezclaron cada conjunto de tratamientos/municipio entre si, formando una
nueva mezcla compuesta para cada zona de estudio mediante la técnica de
cuarteos diagonales, en la figura 9 se muestra como se efectuó para cada
tratamiento el cuarteo para formar las muestras compuestas finales por zona
= 1 kg
1
k
g
Figura 9. Técnica de cuarteo para preparar 1 kilo de muestras compuestas de varios sitios de
cada suelo.
Se realizaron las siguientes pruebas, para cada muestra compuesta por zona
de cada tipo de suelo: pH, conductividad eléctrica, potencial redox, utilizando un potenciómetro Hannah instruments HI 98150.
El color del suelo es una propiedad que refleja la composición, así como
las condiciones pasadas y presentes de óxido-reducción del suelo. FAO,
para ello se determinó in situ el color de los tres tipos de suelo (T1,T2 y T3),
149
bajo condiciones uniformes de humedad, los colores se determinaron sin
la incidencia directa de los rayos solares y mediante la comparación de un
agregado (ped) recientemente quebrado para cada tipo de suelo (vegetación
convencional, tr, usando las notaciones para matiz, valor y croma como
se da en la Carta o Tabla de Colores de Suelo Munsell (Munsell, 1975). La
determinación del color del suelo se realizó in situ, bajo condiciones físicas
uniformes y de humedad, los colores se determinaron sin la incidencia directa de los rayos solares y mediante la comparación de un agregado (ped)
recientemente quebrado, usando las notaciones para matiz, valor y croma
como se da en la Tabla de Munsell, como se indica en la figura 10.
Figura 10. Tabla de colores de Munsell y forma de determinar del color en los suelos.
Para la determinación de nitrógeno total de cada muestra compuesta por
zona, se utilizó la técnica de Kjeldahl. Se obtuvo relación C/N con el fin de
evaluar la calidad de cada suelo, determinándose previamente el carbono
orgánico, el inorgánico y el total con un equipo Analitykal Jena. Se preparó
un diseño de experimentos, donde se presenta en la figura 11 el esquema.
150
Diseño de experimentos
Bloques al azar
3 tratamientos
Tratamiento
Suelo
3 repeticiones
TI
T2
T3
Suelo
Agricultura
convencional
Agricultura
orgánica
Forestal
Prueba de Dunnett α= 0.05,
Comparando el tratamiento uno con respecto a los otros
dos
Interpretacion de resultados
T2
T3
T2
T1
Agricultura
convencional
Agricultura
orgánica
Agricultura
convencional
Sin agricultura
(suelo forestal)
SAS 9. 1.3
Figura 11. Esquema seguido mediante un diseño de experimentos.
En el siguiente diagrama, figura 12, se presenta la metodología para la valoración de los tres tipos de suelos, para la granulometría se utilizaron cedazos
Tyler y por la técnica de Bouyoucus el tipo de suelo a través del tríangulo de
texturas, el carbono orgánico con un analizador de carbono Analityca Jena
y el nitrógeno por el método de Kjeldahl, como se indicó anteriormente:
151
Muestreo de los tres suelos
Granulometría de cada
suelo
Determinación de carbono
orgánico
Determinación de nitrógeno
orgánico
Determinación de la calidad de cada suelo
mediante la relación C/N
Figura 11. Metodología seguida para valorar cada tipo de suelo.
RESULTADOS
Respecto al pH y la conductividad se obtuvieron los siguientes valores como
se indica en la tabla 1.
Tabla 1. Resultados en cada suelo del pH y la Conductividad eléctrica.
Conductividad Ms/Cm
T3
T2
T1
0
50
100
150
200
250
R3
T1
59
T2
134
T3
204
R2
58
129
198
R1
64
117
201
Se puede observar que el suelo forestal (T1) presentó la mayor acidez y el
suelo orgánico la menor muy cercano a la neutralidad lo cual se debe a su
152
contenido menor de carbono orgánico. En la tabla 2 se representa la variación del potencial redox en cada suelo, donde el suelo forestal (T1) presentó
el mayor valor del potencial redox lo que significa que mayor oxigenación
en el mismo. El suelo orgánico presentó el menor potencial redox con menor oxigenación, sin embargo los tres presentaron potenciales positivos, que
significa una oxigenación creado por las lombrices presentes que permiten
en sus excavaciones esta oxigenación.
Tabla 2. Valores del potencial redox en los tres suelos.
Tratamiento 1
Suelo forestal
Tratamiento 2A.
convencional
Tratamiento 3
A. Orgánica
T3
T2
T1
200
210
220
230
240
R3
T1
238.7
T2
228.8
T3
217.8
R2
235.7
228.9
217.3
R1
236.4
226.9
216.9
250
POTENCIAL REDOX (mV) EN
SUELOS
Considerando el triángulo de texturas, la clasificación de cada suelo resultó:
• T1(Forestal): Franco-arcilloso, debido a la presencia de más material
limoso
• T2(Convencional): Arcilloso arenoso, este suelo resultó con más arcilla
• T3(orgánico): Franco- arcilloso-arenoso, presentó los tres casos con la
diferencia del T2 es su contenido de más carbono.
Por otro lado si se toma en cuenta la consideración de Moreno, 1978, ver
tabla 3, se puede evaluar cada suelo como:
153
Tabla 3. Relación de la calidad de un suelo en función de su contenido en nitrógeno.
• T1 (Forestal):
se determinó que su contenido en % de nitrógeno orgánico (NO) fue de 0.0304, si se considera la tabla 3, resulta un suelo pobre
en nitrógeno.
• T2 (Convencional): su valor en % de nitrógeno orgánico fue de 0.0588,
considerado menos pobre que el anterior, debido al uso (NO) de fertilizantes nitrogenados.
• T3 (Orgánico): tuvo un valor en % de NO de 0.1058, en el cual se ha
utilizado nitrógeno que proviene de la composta, donde esta a su vez
contiene una cantidad de excreta de ganado.
En la tabla 4 se presentan los valores de nitrógeno orgánico determinado en
cada suelo, a su vez la cantidad de carbono medido como carbono orgánico (CO) en el analizador de carbono indicado en la metodología, se puede
observar que:
• T1(Forestal) presentó un % de CO de 5.3, lo cual indica una escasez de
material húmico
• T2(Convencional) presentó un ligero valor más alto que el anterior sin
embargo se observa que por su explotación agrícola la presencia de
material húmico también es escaso.
• T3(Orgánico), este presentó alto valor de CO, esto es justificable por el
uso del compost que proviene del material composteado.
Pasando a la relación C/N, que normalmente se maneja en los trabajos de
suelo en la misma tabla 4 se dan los diferentes valores, así:
154
• En T1(Forestal), se obtuvo una relación de 174.457 que es un valor
aceptable a pesar de su pobreza en nitrógeno.
• En T2(Convencional), el valor obtenido fue de 95.238, que indica que
aún el suelo puede ser explotado un poco más pero pudiera estar en
riesgo de ser empobrecido de seguirse usando cada vez más fertilizantes.
• En T3(Orgánico), el valor que se determinó fue el más alto ya que su
contenido en CO y NO, lo cual demuestra que la calidad es buena,
pero es recomendable cuanto tiempo soportaría la explotación aguacatera y cada cuando se agregaría el material proveniente de un composteo.
Tabla 4. Resultados en los tres suelos de la región aguacatera de Michoacán.
Suelos
%C
%N
C/N
T1
5.3
0.0304
174.457
T2
5.6
0.0588
95.238
T3
15.5
0.1058
146.447
Conclusiones
Se observó que en general los suelos forestales (T1) son muy pobres en nitrógeno, los de agricultura tradicional o convencional (T2) resultaron pobres en
este elemento y los orgánicos (T3) fueron considerados término medio. Esto
se puede explicar mediante la consideración de que las plantas con mucho
follaje como es el caso del aguacate requieren cantidades elevadas de nitrógeno que hacen que disminuya este del suelo y en el caso de la agricultura
tradicional utilizan un uso inmoderado de material nitrogenado a través de
agroquímicos, esto genera una pobreza en el suelo de este elemento. En
cuanto a la relación C/N el forestal y el orgánico resultaron de mejor calidad, es decir presentan un material húmico mayor
Referencias
[1] Alcalá de Jesús, M., Ortiz Solorio C.A., Gutiérrez Castorena M. del C, (2001), clasificación de los suelos de la meseta tarasca, Michoacán, Terra volumen 19 núm. 3.
[2] APEAM, Asociación de Productores y Empacadores Exportadores de Aguacate de Michoacán (2011) Sistema de Información Meteorológica. Disponible en www.apeamclima.org (Febrero 2012).
155
[3] Arteaga, O.; L. Ojeda.; Hernández, C.; Brunet, E. & Espinosa, W (1995): Agricultura
orgánica en Cuba. Estudios Agrarios. Revista de la Procuraduría Agraria 1: 154-156 pp.
[4] Asociación Agrícola de Productores de Aguacate en Michoacán APROAM (2011). Boletin Aguacatero # 63.
[5] Bocco, G.; Velázquez, A. & Torres, A. (2001). Comunidades indígenas y manejo de recursos naturales: Un caso de investigación participativa en México. Interciencia 25:9-19
[6] Cairo, P.; Vargas, S.; Díaz, v.; Nodal, E.; Torres, P.; Jiménez R.; Davila, A.; Rodriguez, O.
& Rodriguez A. (2008) Influencia del manejo de los suelos pardos sialíticos sobre sus
propiedades físicas, químicas y biológicas bajo condiciones de producción Ganadera y
Agrícola. II taller nacional de fertilidad de los suelos de la ganadería. Instituto de Ciencia
Animal. La Habana, Cuba.
[7] Chávez, L.; Alcantar, R.; Bustos, T.; & Contreras, J.; (2009). Expansión del cultivo del
aguacate y deforestación en Michoacán. Ponencia. Conferencia de Usuarios de SIGSA
ESRI. México, D.F., 27-29 de agosto de 2008.
[8] Cottenie, A. 1984. Los análisis de suelos y plantas como base para formular recomendaciones sobre fertilizantes. Boletín de suelos de la FAO 38/2.
[9] García, S. (2000). Fisiología reproductiva del aguacate. Pp. 57 - 83. In: Téliz, D. (Ed.). El
Aguacate y su Manejo Integrado. Ediciones Mundi-Prensa, México
[10]INEGI.(2006). Carta de Uso del Suelo y Vegetación. Serie I. Serie II. Serie III. México
[11]León, G.; Hernández, C.; Peña, F.; Valentí, M.; & Bernal, Y. (2005) Efectos de los sistemas
de manejo sobre el estado físico de un suelo pardo grisáceo (Inseptisol) del Escambray.
Centro Agrícola, año 32, no. 1.
[12]Mas, P. (2005). Características de crecimiento de seis especies mexicanas de pino con
gran futuro para reforestaciones artificiales. En: Memoria de la Primera Reunión Nacional de Plantaciones Forestales. Dirección General de Investigación y Capacitación
Forestal 1970. SARH. México. D. F. pp: 27-72
[13]Moreno, D. (1978) Clasificación de pH del suelo, contenido de sales y nutrimentos asimilables. INIA, SARH. México, D.F. 22 p.
[14]Munsell Color Co. (1980). Munsell book of color. Macbeth, a Division of Kollmorgen
Corp., Baltimore, MD
[15]Organización de la Naciones Unidas para la Agricultura y la Alimentación FAO (1994),
El estado mundial de la Agricultura y la Alimentación Roma Italia. Colección FAO: Agricultura No 27 ISBN 92-5-303550-1
[16]Peter E.V. Charman and Brian W. Murphy (2007) Soils: their properties and management
/ edited by Peter E.V. Charman and Brian W. Murphy. 3rd Ed. 461 pp., Oxford University
Press.
[17]Restrepo, J. (1995): Notas sobre agricultura orgánica y una crítica del modelo convencional. Agricultura Orgánica año 1, no. 2, 23 pp,
[18]Rosset, P. M. (1999): La crisis de la agricultura convencional, la sustitución de insumos
y el enfoque agroecológico. Agroecología y Agricultura Sostenible. Módulo 1. CEAS,
UNAH, ACTAF, pp.2-12.
156
[19]San Martín, J. (1995): Agroforesteria y cultura Andina. En Bosque y desarrollo, no. 14,
Perú, nov., pp. 34-37.
[20]SARH. (1994) Inventario Nacional Forestal Periódico. Memoria Nacional. Subs Forestal
y de Fauna Silvestre. México 81pp.
[21]SEMARNAT y Colegio de Postgraduados C.P. (2003). Evaluación de la Degradación de
los Suelos Causada por el Hombre en la República Mexicana, escala 1:250 000. Memoria Nacional 2001-2002. México.
[22]SEMARNAT (1996) Convención, lucha contra la desertificación Programa de las Naciones Unidas para el Medio Ambiente (PNUMA).
157
Estrategia de Aprendizaje Basado en Problemas para el Laboratorio
de Ingeniería I de la Licenciatura en Ingeniería Biológica
Maribel Hernández Guerrero, Alejandra García Franco
Investigación Educativa Departamento de Procesos y Tecnología. División
de Ciencias Naturales e Ingeniería. Universidad Autónoma Metropolitana
Unidad Cuajimalpa. Av. Vasco de Quiroga 4871, Colonia Santa Fe Cuajimalpa, Delegación Cuajimalpa de .Morelos, México, Distrito Federal, C.P.
05300. México.
[email protected], [email protected]
Resumen
En este trabajo se presenta un estudio exploratorio de diseño e implementación de un enfoque de aprendizaje basado en problemas para la UEA de
Laboratorio de Ingeniería I de la licenciatura en Ingeniería Biológica. Particularmente se planteó a los estudiantes la necesidad de diseñar y construir
un prototipo de tanque de suministro de agua para lo cual se requirió la
aplicación de conocimientos de mecánica de fluidos. Se presentan el marco
conceptual y la forma en la que se implementó la estrategia la cual consistió en plantear el problema, guiar a los alumnos hacia la solución, evaluar
mediante una presentación pública, auto y co-evaluaciones y la aplicación
de un cuestionario para recopilar las reflexiones de los alumnos. Se recogen
también las reflexiones de la profesora (primera autora) y algunos comentarios de los estudiantes que permiten dar cuenta de la percepción en la efectividad de la implementación de la estrategia y de aspectos que requieren
mejorarse.
Palabras clave: laboratorio de ingeniería, ingeniería biológica, mecánica de
fluidos, heurística de escritura, desarrollo de proyectos.
Abstract
This work presents the results from the design and implementation of an
exploratory study of a problem based learning approach for the Engineering
Laboratory I of the major of Biological Engineering. The problem consisted
in the design and construction of a prototype of water tank and it required
the use of concepts from fluid mechanics. The work presents the conceptual
framework and the implementation strategy which consisting on stating the
problem, guiding the students towards the solution, evaluation and grading
158
through a public presentation, auto and co-evaluation of team work and a
survey to recover the impressions of the students. The impressions of the
teacher (first author) are also considered together with comments from the
students to highlight the efficiency of the implementation of the strategy and
the aspects to improve.
Key words: Engineering lab, biological engineering, fluid mechanics, writing
heuristic, project development.
Introducción
El Laboratorio de Ingeniería I es una unidad de enseñanza aprendizaje (UEA)
de la licenciatura en Ingeniería Biológica que forma parte del bloque de
formación profesional. Se encuentra situada en el octavo trimestre y se desarrolla en sesiones semanales prácticas de 5 horas. Con base en el diseño
flexible de la licenciatura en Ingeniería Biológica, la UEA de laboratorio de
Ingeniería I no tiene seriación. Sin embargo, es requisito una autorización
para que el alumno pueda cursarla. La autorización se otorga a los alumnos
que hayan cursado las UEA: Balance de Energía, Mecánica de fluidos, Transferencia de Calor y Masa I.
Usualmente, la UEA se imparte de manera ‘tradicional’ mediante la realización de prácticas de laboratorio que, en la mayoría de las ocasiones, consisten en un protocolo en el que los estudiantes siguen una ‘receta’ en la que
ni los objetivos, ni la metodología, ni los resultados están determinados por
ellos. Como ya se ha documentado ampliamente, (Mills y Treagust, 2003) la
realización de estas experiencias de laboratorio no promueve el desarrollo
de habilidades requeridas por los científicos e ingenieros, y promueven una
versión distorsionada de las ciencias y las ingenierías.
Desde sus inicios, la UAM Cuajimalpa se basa en un modelo educativo considerado innovador puesto que, de acuerdo con un enfoque constructivista,
pone en el centro del proceso de enseñanza-aprendizaje al estudiante. Así,
en el trimestre 14-I se decidió modificar la forma en la que se imparte el
Laboratorio de Ingeniería I y se planearon, diseñaron y evaluaron proyectos
de laboratorio en concordancia con el modelo educativo.
En este trabajo describimos un proyecto en el que los estudiantes debían
diseñar y construir un prototipo de tanque de suministro de agua con tres
diferentes tipos de tuberías: recta, con reducción de diámetro y doblada en
90º. La actividad se planteó tomando como base la lectura de una tesis de
maestría en educación ambiental (Lim, 2010). La evaluación de la activi159
dad se realizó de manera objetiva a través de una heurística de escritura (a
diferencia de los laboratorios convencionales en donde se evalúa a partir
de reportes de laboratorio) calificada mediante una rúbrica, exposiciones y
auto y co-evaluaciones del trabajo en equipo. En este trabajo describimos
la forma en la que se realizó el proyecto y se recogen las opiniones de los
alumnos, así como las reflexiones de la profesora del curso respecto al desarrollo del proyecto. Este trabajo muestra una primera aproximación a la
transformación de las prácticas comunes de enseñanza en el laboratorio y
se sitúa en una perspectiva de investigación-acción (Latorre, 2003), en la
que una profesora decide emprender y documentar acciones para mejorar
su práctica docente.
Antecedentes
El aprendizaje basado en problemas (ABP) surgió a finales de la década de
los sesenta del siglo pasado en la Universidad de McMasters en Canadá
en donde se busca cambiar de la enseñanza al aprendizaje basado en experiencias prácticas. Desde entonces el ABP se ha posicionado como una
estrategia educativa en distintos campos disciplinares en todo el mundo
(Overton, Byers y Seery, 2009).
En el campo de la ingeniería desde principios de la década de los ochenta
del siglo anterior, se han hecho estudios de corte cualitativo que describen
aproximaciones a la enseñanza basada en problemas y proyectos, y también
estudios cuantitativos que buscan determinar las ventajas de esta aproximación en la formación de los ingenieros (Faland y Frenay, 2006). Estos últimos
han mostrado que cuando los estudiantes aprenden en un enfoque como el
ABP no necesariamente desarrollan un mayor nivel de conocimientos. Sin
embargo, sí logran un mayor desarrollo de habilidades al compararlos con
sus pares que estudian en un enfoque más tradicional.
Inscrito en una perspectiva constructivista, el aprendizaje basado en problemas permite a los estudiantes poner en juego una serie de habilidades y
conocimiento integrándolos en la resolución de un problema y pensando en
generar un producto específico. Este producto tiene parámetros evaluables
y aunque el ABP tiene muchas versiones y formas de implementarse sus características más fundamentales son (Mills y Treagust, 2003, Overton, Byers
y Seery, 2009; Du, de Graaff y Kolmos, 2009):
• Está centrado en el estudiante.
• Se realiza de manera colaborativa en pequeños grupos.
160
• Los maestros actúan como facilitadores.
• Los problemas son el foco y estímulo para el aprendizaje.
• Los problemas son vehículos para el desarrollo de las habilidades de
solución.
• Se adquiere nueva información a través del aprendizaje auto dirigido.
Utilizando este enfoque, se espera que los estudiantes sean más capaces
de pensar críticamente y de reconocer y resolver problemas complejos del
mundo real encontrando y evaluando recursos, a la vez que demuestran
habilidades de comunicación y usan el contenido y las habilidades intelectuales para aprender para la vida. que han adquirido en la universidad
Objetivos
Diseñar e implementar una experiencia de aprendizaje bajo el enfoque de
ABP en el laboratorio de Ingeniería I de la Licenciatura en Ingeniería Biológica.
Explorar las percepciones de los estudiantes sobre la efectividad de la estrategia y hacer una reflexión docente sobre las ventajas de esta forma de
trabajo en el laboratorio.
Metodología
El problema que presentamos surgió de compartir con los estudiantes una
tesis de Ingeniería Ambiental (Lim, 2010) en la que se discute la necesidad
de desarrollar experimentos y prototipos de laboratorio para realizar prácticas de mecánica de fluidos en las dos principales universidades de Timor
Oriental en el sureste asiático. La falta de clases prácticas en dichas universidades se ve limitada por el presupuesto económico de la Universidad y la
poca disponibilidad de materiales en el país. En la tesis se plantea el desarrollo de dos prototipos para realizar experimentos de mecánica de fluidos y
percolación con los cuales se pretende que los alumnos, además de reforzar
conceptos teóricos, desarrollen conocimientos prácticos en el área de agua
y sanitización.
Debido a ello, se decidió tomar el estudio de Lim en la parte de mecánica
de fluidos para que los alumnos pudieran desarrollar un prototipo cubriendo
los dos primeros temas del contenido del curso de Laboratorio de Ingeniería
I: propiedades mecánicas de fluidos y movimiento de fluidos. Al inicio de
161
la sesión se explicó la actividad que consistía en desarrollar un prototipo
de suministro de agua a escala laboratorio que permitiera estudiar el flujo
de agua en tuberías con 3 variantes: tubería recta, tubería con reducción de
diámetro y tubería doblada en 90º (en “U”) (Figura1). El prototipo debería
ser construido con materiales económicos y accesibles. Se proporcionó la
tesis (en inglés) como base para el diseño del prototipo.
Los alumnos, integrados en tres equipos de trabajo, tuvieron dos sesiones
para hacer una lluvia de ideas, adquirir materiales, ensamblar y probar físicamente el prototipo. Se brindó asesoría a los alumnos dentro del horario
de la UEA. La referencia de la tesis de Lim permitió a los estudiantes tener
datos comparativos de flujo de agua y de ventajas y desventajas de cada uno
de los prototipos.
Para la presentación de resultados, se solicitó a los alumnos presentar sus datos experimentales comparando la velocidad de flujo en cada tipo de tubería
tomando en cuenta pérdidas por fricción en tuberías, válvulas y conexiones
aplicando el principio de Bernoulli, diagrama de Moody y el número de
Reynolds para determinar si el flujo obtenido era laminar o turbulento. Además, se pidió a los alumnos listar los materiales utilizados, calcular costos
de su prototipo así como documentar el proceso de ensamble y pruebas con
el prototipo. Para la evaluación de la actividad, los alumnos hicieron una
presentación de su prototipo ante la profesora y su grupo, así como frente a
dos profesionales externos a la clase quienes fungieron como observadores
y dieron su opinión y crítica constructiva a los alumnos. De igual manera, se
solicitó la entrega de una heurística de escritura (Greenbow y Hand, 2005)
que fue calificada con una rúbrica previamente compartida con los estudiantes. En dicha rúbrica se calificaron 6 puntos: planteamiento del problema (20 puntos), introducción (10 puntos), método (5 puntos), observaciones
y evidencias (calidad y presentación 20 puntos), análisis (30 puntos) y conclusiones (15 puntos).
También se pidió a los estudiantes que evaluaran su trabajo en equipo y coevaluaran el desempeño de sus compañeros. Las evaluaciones consideraron
un promedio de calificaciones de la participación y aporte general, la parte
experimental y la puntualidad así como un apartado de comentarios generales.
Ocho semanas después de terminado el trabajo, se pidió a siete de los dieciocho estudiantes del curso que respondieran un cuestionario con siete
preguntas abiertas en las que describían lo que ellos consideraban los aspectos más importantes de la experiencia de aprendizaje y lo comparaban con
162
sus experiencias en UEA de laboratorio más tradicionales, como en las que
han participado a lo largo de su formación en la licenciatura. Las preguntas
del cuestionario consideraron lo siguiente:
• Percepción de la experiencia de los alumnos durante el proyecto.
• Comparación de si la participación de los miembros del equipo fue
mejor, igual o menor que comparada con lo observado en prácticas
tradicionales.
• Dada la oportunidad, la posibilidad y razones de preferencia de elección de trabajo por proyectos o de manera tradicional.
• Preferencia para reportar resultados mediante una heurística o mediante un reporte de laboratorio tradicional.
• La percepción de los alumnos acerca de lo que consideraron más importante y aprendido durante los proyectos.
• Sugerencias para la actividad.
La metodología de este trabajo se puede ubicar desde una perspectiva cualitativa de investigación-acción que busca contribuir en la documentación
de estudios de caso con detalle (Du, de Graaff y Kolmos, 2009). Lo que aquí
presentamos es la fase descriptiva y exploratoria del estudio. En una fase
posterior se planea estudiar la forma en la que estas estrategias impactan el
aprendizaje de los estudiantes tanto en lo conceptual, como en el desarrollo
de habilidades.
Resultados y Discusión
Desarrollo de los prototipos
Los alumnos de los tres equipos lograron diseñar prototipos diferentes con
materiales económicos y accesibles con un costo variable entre $686 y $208.
Un equipo integró en su prototipo las tres tuberías solicitadas, mientras que
los otros dos prototipos fueron diseñados con tuberías intercambiables. Todos los equipos lograron reafirmar conocimientos de mecánica de fluídos
al realizar cálculos de flujo en tuberías y caídas de presión. Se calcularon
las diferentes velocidades de flujo para cada tubería tomando en cuenta el
área de la tubería y pérdidas en tubería, válvulas y conexiones calculadas a
partir del Principio de Bernoulli, factores de fricción (diagrama de Moody)
y el tipo de flujo (laminar o turbulento) de acuerdo al número de Reynolds.
Finalmente, se comparó el flujo en cada una de las tuberías.
Durante las asesorías y la evaluación del curso se apreció una muy activa
163
participación de todos los alumnos. A diferencia de otros cursos, en donde
se logra distinguir la imagen de un líder, en esta actividad la participación
de todos los miembros del equipo fue equitativa. Las decisiones para el
diseño se basaron en las opiniones de todos los miembros del equipo y, en
algunos casos, en tablas de decisión en donde se le dio peso a factores de
diseño como durabilidad, practicidad, estética, costo y disponibilidad de
materiales.
Durante la exposición de resultados por parte de los alumnos se evidenció, a
través del dominio del tema, el uso de conocimientos de UEA previas como
mecánica de fluidos, cálculo diferencial, taller de matemáticas e introducción al pensamiento matemático. Todos los alumnos mostraron seguridad
al relatar cómo habían llegado a la solución del problema planteado y al
hablar de los fundamentos teóricos que respaldaron su diseño y sus cálculos. En general, se logró ver a los alumnos satisfechos de haber resuelto una
problemática.
A diferencia de otros cursos, al tener dos sesiones libres para el desarrollo
de la actividad, se pudo observar que aun cuando la tesis (literatura de base
para el diseño) proporcionada estaba redactada en un idioma extranjero, los
alumnos tomaron el material con naturalidad. En otros cursos, los alumnos
han expresado cierta dificultad o falta de tiempo para manejar literatura en
inglés.
A diferencia de las presentaciones orales, la escritura de la heurística fue
difícil para los alumnos al ser una comunicación de resultados más informal,
ya que por lo general en los laboratorios se les solicita escribir reportes más
estructurados. La mayor dificultad se encontró en el planteamiento del objetivo del problema que habían resuelto y en general en la expresión escrita
de sus resultados. Con base en la primera heurística redactada, se modificó
la estructura hasta que los alumnos comprendieron lo que se solicitaba.
Después de dicha modificación, la estructura de la heurística solicitada fue
muy similar a la de un reporte clásico de laboratorio.
Figura 1. Prototipos del tanque de suministro de agua Opiniones de los estudiantes
164
Opiniones de los estudiantes
8 semanas después de terminado el trimestre, pedimos a siete de los estudiantes que cursaron la UEA contestaran un cuestionario de siete preguntas
abiertas sobre su experiencia con el diseño del tanque de agua. A continuación resaltamos algunos aspectos relevantes surgidos a partir de las reflexiones de los estudiantes:
Algunos de los estudiantes reconocen que participar en este proyecto les
permitió desarrollar sus capacidades genéricas que son fundamentales en el
desarrollo de las y los ingenieros. En este sentido, algunas de las respuestas
de los estudiantes fueron:
“Fomenta un pensamiento crítico y amplio”
“Aprendí que siempre hay que ser flexible en tu pensamiento, cada persona
se acerca a los temas desde su propio enfoque”
“La capacidad de intercambiar ideas mejoró y nos permitió explotar distintas habilidades que poseemos y no siempre puedes poner en práctica”
“Lo que más aprendí fue organización, comunicación, tolerancia a nuevas
ideas y diferentes métodos para llegar a un mismo fin”
“… ser flexible en tu pensamiento, cada persona se acerca a los temas desde
su propio enfoque”
Algunos de los estudiantes reconocieron que el planteamiento de objetivos
resultó particularmente difícil, lo cual concuerda con el relato de la profesora y coincide con lo que se reporta en la literatura respecto al desarrollo de
competencias científicas (Chamizo e Izquierdo, 2007).
Al preguntar a los estudiantes si preferirían reportar sus resultados mediante
un reporte o una heurística, la gran mayoría (6 de 7), respondió que prefiere
un reporte puesto que es más estructurado, menos ambiguo y es más cercano a un reporte profesional. Esto nos permite identificar que este es un
aspecto al que se debe poner más atención en la siguiente implementación.
Otro de los puntos que resaltan varios estudiantes es que desarrollar este
proyecto les permitió “darse cuenta de que la teoría es diferente que la práctica”, y estar en contacto con materiales de para la construcción de suminis165
tro de agua. Algunos estudiantes también resaltan que realizar este proyecto
fomenta la creatividad puesto que reconocen “la capacidad de generar algo
nuevo”, “capacidad de innovar y mejorar lo ya hecho, incluso a partir de
cero.”
En general, los estudiantes realizaron la actividad de manera muy comprometida, y motivados. Por ejemplo, uno de los estudiantes comenta: “Desarrollar un proyecto es siempre excitante.”
Conclusiones y reflexión final
Esta fue la primera experiencia de la profesora con una aproximación de
enseñanza basada en problemas en el Laboratorio de Ingeniería I. A partir de
la documentación y el análisis de los productos de los estudiantes (presentación, evaluación, auto y co-evaluación) se apreció que todos los alumnos
participaron en la solución del problema planteado. Todos aportaron ideas
útiles para llegar al diseño del prototipo. A diferencia de otros cursos, durante la exposición del tema, todos los alumnos manejaron los conceptos
teóricos de UEA previa con mucho dominio. Al ser todos los prototipos diferentes, los alumnos tuvieron la oportunidad de notar que existen diferentes
enfoques para llegar a la solución de una problemática. A diferencia de los
protocolos de práctica convencionales, los proyectos han permitido crear
espacios propicios para que el alumno desarrolle un pensamiento crítico e
integre conceptos de UEA previas apropiándose del conocimiento al llegar
incluso a la etapa de diseño de prototipos a escala laboratorio que ahora
están disponibles como parte de la infraestructura experimental de la UAMCuajimalpa.
Queremos resaltar que dar a los estudiantes oportunidades para resolver
problemas cercanos a la realidad, donde puedan poner en juego su creatividad y sus conocimientos, así como las habilidades para trabajar en equipo y
comunicarse puede ser muy importante en el desarrollo profesional.
El aprendizaje basado en problemas ha demostrado tener mucho potencial para implementarse con los estudiantes de Ingeniería Biológica por lo
que continuaremos trabajando en este sentido, desarrollando la experiencia
con otros laboratorios y evaluando de manera más puntual las habilidades
que se desarrollan y la mejor forma de reportar estos aprendizajes. En la siguiente fase del estudio, buscaremos también comparar las aproximaciones
‘tradicional’ y basada en proyectos para dar mayor sustento a esta forma de
plantear las experiencias en el laboratorio de Ingeniería.
166
Finalmente, citamos a uno de los estudiantes quien sintetiza su experiencia
en la siguiente frase: “Fue interesante tener la posibilidad de construir cosas
con nuestras propias manos, para construir nuestro primer aparato como
ingenieros.”
Referencias
[1] Chamizo, J.A. e Izquierdo, M. (2007). Evaluación de las competencias de pensamiento
científico. Alambique, 51, 9-19.
[2] Du, X, de Graaff, E. y Kolmos, A. (2009) PBL – Diversity in Research Questions and
Methodologies En X. Du, de Graaff, E. y A. Kolmos (eds.), Research on PBL Practice in
Engineering Education, 1–7. Rotterdam: Sense Publishers.
[3] Faland, B. & Frenay, M. (eds.) (2006). Problem and Project Based Learning in High Education: Impact, Issues, and Challenges. Louvain-la-Neuve: Presses Universitaires de
Louvain.
[4] Greenbowe, T. J. y Hand, B. M. (2005) Introduction to the Science Writing Heuristic.
In; N. P. Pienta; M. M. Cooper; T. J. Greenbowe, Chemists’ Guide to Effective Teaching.
Prentice-Hall: Upper Saddle River.
[5] Latorre, A. (2003) Investigación-acción Conocer y cambiar la práctica educativa. Barcelona: Grao.
[6] Lim, W. (2010) Designing Fluid Mechanics Laboratory Experiments for the Universities
in East Timor. Thesis for the degree of Environmental Engineering, School of Environmental Systems Engineering, The University of Western Australia.
[7] Mills, J. y Treagust, D (2003) Engineering education – is problem based or project-based
learning the answer? Australasian Journal of Engineering Education, 2 -16.
167
Reducción de Psicofármacos en Aguas Residuales Después de la
Filtración con Membranas
Isabel Del Castillo1, Aurelio Hernández1, Ma. Estela Montes2
Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos de
la Universidad Politécnica de Madrid, España. Profesor Aranguren 3. Campus Ciudad Universitaria. C.P. 28040. Madrid, España. Tfno: 91 336 66 87.
1
2
Instituto de Ingeniería, Universidad Veracruzana. Boca del Río, Ver.
[email protected]
Resumen
Se analiza la presencia de diferentes psicofármacos en el agua residual y los
rendimientos de eliminación obtenidos en una depuradora convencional.
Los psicofármacos prácticamente no se eliminan en el tratamiento biológico. Sin embargo, se ha obtenido una biodegradación considerable debido
al tipo de compuesto y de la edad del fango. Además se estudian las retenciones de estos compuestos empleando tratamientos terciarios convencionales y plantas piloto de ultrafiltración y nanofiltración. Las eliminaciones
obtenidas no difieren demasiado de un tipo de membrana a otro a pesar del
diferente tamaño de paso entre ellas.
Palabras clave: Fármacos, psicofármacos, tratamiento terciario, ultrafiltración, nanofiltración.
Abstract
The presence of different psychotropic drugs in wastewater was analyzed, as
well as the removal efficiencies obtained in a conventional treatment plant.
The psychotropic drugs was no eliminated with the biological treatment.
However, we have obtained substantial biodegradation due to the type of
compound and the mud age. Besides the withholding of these compounds
using conventional tertiary treatment and ultrafiltration and nanofiltration in
pilot plants were studied. The deletions obtained with the membranes do not
differ greatly from one type to another, despite the different size each other.
Key words: Pharmaceuticals, psychotic drugs, tertiary treatments, ultrafiltration, nanofiltration.
168
Introducción
En los últimos años se han publicado bastantes estudios relativos a la presencia de fármacos y productos de higiene personal (PPCPs) en aguas residuales
y en aguas superficiales empleadas como fuentes para abastecimiento, debido a su posible riesgo sobre el hombre y vida acuática incluso a concentraciones traza (µg/l ó ng/l). Los PPCPs representan un gran grupo de compuestos que incluyen medicamentos y productos de cosmética e higiene
personal (fragancias, champús, cosméticos, protectores solares, etc.).
Los fármacos están formados por moléculas grandes y químicamente complejas, pero muy diferentes en peso molecular, estructura, funcionalidad,
forma, etc. Algunos de estos compuestos son polares y no volátiles por lo
que es difícil que se escapen del medio acuático. Su persistencia es variable
y pueden acumularse induciendo efectos adversos en los organismos vivos
incluso a concentraciones por debajo de los µg/l.
Los principios activos de los fármacos están diseñados para ser muy eficaces
e interaccionar con receptores específicos en el hombre y animales, o bien
para resultar tóxicos para organismos infecciosos como bacterias, parásitos,
etc. Estas características y la posible exposición continuada de los organismos acuáticos a este tipo de compuestos, los hacen potencialmente dañinos
o perjudiciales para la fauna y flora acuática.
Además aunque a corto plazo no se pueden detectar efectos graves sobre
la salud o sobre el medio ambiente, son probables efectos potencialmente
acumulativos de los fármacos a medio o largo plazo, proliferación de microorganismos resistentes a los antibióticos y alteración de la estructura de
las comunidades biológicas.
También parece posible que la combinación de diferentes metabolitos y
compuestos biológicamente activos produzcan efectos sinérgicos o aditivos,
aunque es un tema todavía bastante desconocido. La vía de exposición al
hombre puede ser la presencia en el agua potable de cantidades traza, el
consumo de peces que tengan acumulados fármacos o sus derivados o el
baño en aguas superficiales que estén contaminadas con estos compuestos.
Sin embargo las pequeñas cantidades a las que está expuesto el hombre no
parecen ser preocupantes a corto plazo.
Dentro de los fármacos pueden considerarse como más representativos los
grupos terapéuticos mostrados en la Tabla 1.
169
Tabla 1. Principales grupos terapéuticos.
Grupo terapéutico
Función
Principios activos
Antinflamatorios y
analgésicos
Combatir el dolor e inhibir la síntesis de compuestos
involucrados en la respuesta inflamatoria. Tienen propiedades analgésicas y antipiréticas.
Paracetamol, Ácido acetilsalicílico, Ibuprofeno, Diclofenac, Naproxeno
Antidepresivos y
sedantes
Aumentar la actividad de ciertos neutransmisores
inhibidores, produciendo disminución de la ansiedad y
relajación muscular.
Fluoxetina, Paroxetina, Venlafaxina, Diazepam,
Lorazepam, Bromazepam
Anticonvulsivos
Evitar la acumulación excesiva, rápida y repetitiva de
impulsos eléctricos, manteniendo normal la actividad
cerebral.
Carbamacepina
Antineoplásicos
Tratamiento del cáncer
Bisulfan, Ciclofosfamidas
Hipolipemiantes
Bajar los niveles de colesterol en sangre en personas
con arterioesclerosis. Reducen los niveles de triglicéridos y aumentan los niveles de HDL (fibratos) o
actúan sobre el LDL (estatinas).
Bezafibrato, Simvastatina, Atorvastatina, Pravastatina
Betabloqueantes
Bloquear los receptores beta del corazón, disminuyendo la necesidad de oxígeno, reduciendo el ritmo
cardíaco y la fuerza de contracción del corazón y
vasos sanguíneos.
Combaten la hipertensión arterial, angina de pecho,
arritmias cardíacas, etc.
Atenolol, Propanolol, Metoprolol, Amlodipina
Antiulcerosos
Bloquear los receptores H1 y H2 de la histamina,
reduciendo su unión a estos receptores y evitando así
la producción de ácido. Combaten la acidez de estómago, úlceras y otras alteraciones estomacales
Ranitidina, Omeprazol, Pantoprazol, Lansoprazol
Antiprostáticos
Antagonista de receptores a-adrenérgicos. Trata la
hiperplasia prostática benigna.
Tamsulosina
Antibióticos
Destruir o detener el crecimiento de organismos
infecciosos
Sulfonamidas, Trimetropin Fluoroquinolonas
Psicofármacos y
drogas de
abuso
Sustancias que alteran la mente sin una necesidad
médica y que con frecuencia son objeto de abuso
Cocaína, Metadona, Heroína, Anfetaminas
Presencia de fármacos en las aguas y eliminación en procesos de depuración
Los fármacos llegan al agua residual a través de la orina o residuos fecales
del hombre. Es decir el medicamento es absorbido por el paciente y es metabolizado por diversos mecanismos, excretándose en forma de conjugados,
como un metabolito principal, o como una mezcla de varios metabolitos. La
parte no absorbida, muchas veces una fracción significativa de la sustancia
original, puede ser excretada sin metabolizar a través de la orina o heces.
Las formas conjugadas de los fármacos (derivados más polares y solubles
en agua y menos tóxicos que el compuesto original), pueden convertirse
otra vez en sus formas activas por vía enzimática o por hidrólisis química
entre la recogida de las aguas residuales y la salida de las depuradoras. La
desconjugación ocurre en parte debido a la presencia de la bacteria Escher170
cihia coli en los desechos fecales, ya que esta bacteria sintetiza la enzima
β-glucuronidasa, responsable de la transformación anterior.
Gran parte de estas sustancias no son eliminadas totalmente en las depuradoras, lo que significa que los medios receptores están continuamente
expuestos a los fármacos que no han sido eliminados. Los principales mecanismos de eliminación de estos compuestos durante el tratamiento de las
aguas residuales son la biodegradación y la adsorción.
Además las concentraciones ambientales de los fármacos pueden diferir de
unos países a otros ya que depende de los patrones de consumo, así como
de los diferentes procesos de tratamiento de depuración de aguas.
Metodología
Fundamentado en lo expresado anteriormente se decidió realizar una investigación consistente en estudiar la concentración de diferentes fármacos en
agua residual, su grado de eliminación en un sistema de depuración convencional de fangos activos, y la eficacia en la retención de estos compuestos
utilizando tratamientos terciarios convencionales (coagulación-floculación
seguida de filtración rápida sobre arena) y sistemas de filtración con membranas con diferentes tamaños de paso. Esto permite predecir en función
de los distintos tratamientos, cuál es la reducción de estas sustancias y las
concentraciones vertidas a los cauces receptores.
Los fármacos a estudiar se seleccionaron de forma que aparecieran diferentes grupos terapéuticos y dentro de ellos los más empleados habitualmente.
De esta forma se decide evaluar el comportamiento de: Ibuprofeno y Naproxeno (analgésicos y antinflamatorios), Bezafibrato (hipolipemiante), Carbamacepina (anticonvulsivo), Propanolol (betabloqueante), Ranitidina (antiulceroso), Sulfametoxazol y Eritromicina (antibióticos), y benzodiacepinas,
opiáceos, cocaína y metadona (psicofármacos y drogas de abuso).
171
Tabla 2. Características de los penetrantes al sistema de membranas.
Compuesto
Fórmula
molecular
P.M.
log Kow
pKa
Acetaminofen
Ibuprofeno
Naproxeno
Bezafibrato
Mevastatina
Carbamazepina
Diazepam
Ranitidina
Atenolol
Propanolol
Eritromicina
Sulfametoxazol
Trimetroprim
Azitromicina
Cocaína
Metadona
C8H9NO2
C13H18O2
C14H14O3
C19H20ClNO4
C25H38O5
C15H12N2O
C16H13ClN2O
C13H22N4O3S
C14H22N2O3
C16H21NO2
C37H67NO13
C10H11N3O3S
C14H18N4O3
C38H72N2O12
C17H21NO4
C21H27NO
151
206
230
362
391
236
285
314
266
260
734
253
290
749
304
310
0.5
4.0
3.2
4.3
4.0
2.4
2.8
1.1
0.2
3.5
3.1
0.9
0.8
0.9
2.3
0.9
9.4
4.9
4.2
----13.9
3.3
8.2-2.7
9.2
9.4
8.9
5.8
7.1
8.7
8.6
8.3
La depuradora seleccionada dispone de los siguientes procesos básicos en la
línea de agua: pretratamiento-tratamiento primario con adición de reactivostratamiento biológico por fangos activos-tratamiento terciario (microfloculación y filtración sobre arena). Los puntos de la depuradora en los que se
efectuó la toma de muestras tres veces por semana están representados en
la figura 1.
Figura 1. Puntos de muestreo de la depuradora seleccionada.
172
La eficacia de los tratamientos de membrana en la separación de estas sustancias se realizó empleando dos plantas piloto con membranas que trabajaban en el rango de la ultrafiltración y de la nanofiltración. Las plantas se
alimentaban con el efluente del filtro de arena de la depuradora, y se operaban 3 días a la semana durante los cuales se tomaban muestras a la salida de
las dos plantas de membranas. En la figura 2 se muestran los puntos de toma
de muestra para evaluar el rendimiento de estos tratamientos.
Figura 2. Puntos de toma de muestra para evaluar el rendimiento de estos tratamientos.
La planta piloto de membranas de ultrafiltración utilizada es el modelo
M38HR-9-3 fabricada por Dow Danmark A/S. Tiene una capacidad máxima de 2500 l/h y está compuesta por un tanque de balance o depósito de
agua de 200 litros de capacidad, una bomba de alimentación con caudal de
2.5 m3/h y altura máxima de impulsión de 32.4 m, una bomba de recirculación, un módulo para membranas de ultrafiltración, un filtro de seguridad
de 100 micras, un termostato, un intercambiador de calor, y válvulas e instrumentos necesarios para la medición y operación de la planta. El nivel del
tanque se controla automáticamente por la apertura y cierre de las válvulas
de entrada, así mismo, cuenta con un control automático para calentamiento y enfriamiento del agua y un compresor de aire de 1.5 HP empleado
para los propósitos de regulación. Las especificaciones de las membranas
de ultrafiltración son: tipo DSS-GR95PP, tamaño del poro de 2000 Daltons,
rango de operación de pH de 1-13, temperatura de 0- 75ºC (30ºC), presión
de 1-10 bar (4 bar) y el material de la membrane de polietersulfona.
La planta a escala piloto de membranas de nanofiltración utilizada es modelo LabStak M20 fabricada por Alfa Laval Naksskov A/S. La planta piloto
de Nanofiltración es una planta que permite trabajar en todos los rangos de
filtración (Ósmosis inversa, Nanofiltración, Ultrafiltración y Microfiltración),
tiene una capacidad aproximada de 3.5 a 24 l/min.
173
Está compuesta por un tanque de 7 L., una bomba de alta presión, un filtro
de seguridad, un intercambiador de calor, válvulas y manómetros. Tiene una
bomba de alimentación con una capacidad de 8 l/min a una presión de 64
bar, con un motor de 3 KW. El área de membranas es de 0.036 a 0.72 m2,
con 0.018 m2 por membrana. El rango de temperatura al que trabajan es de
0 a 60ºC y el del pH de 1 – 14.
Especificaciones de las membranas de nanofiltración: tipo DSS-NFT-50, rechazo de MgSO4> 99% (Medido en 2000 ppm MgSO4, 9 bar, 25ºC), rango
de operación de pH de 2-10, temperatura de 0- 50ºC (25ºC), presión de 1-55
bar (38 bar), material de la membrana de poliéster. Especificaciones de las
membranas de ósmosis inversa: tipo DSS-HR98PP, rechazo de NaCl > 96%
(medido en 2000 ppm MgSO4, 9 bar, 25ºC), rango de operación de pH de
2-10, temperatura de 0- 50ºC (25ºC), presión de 1-55 bar (38 bar) y material
de la membrana de polipropileno.
Las muestras tomadas en cada punto fueron compuestas sobre 24 horas proporcionales al caudal tratado, tomándose las mismas por medio de muestreadores automáticos. En cada muestra se analizaron los fármacos anteriormente citados y las características del agua (DQO, SS, turbidez, nitrógeno
total y fósforo total).
A continuación aparecen las plantas piloto utilizadas y características de las
mismas.
Figura 3. Planta piloto de Ultrafiltración.
174
Figura 4. Planta piloto de Nanofiltración.
Los análisis de ibuprofeno, carbamacepina, bezafibrato, eritromicina, ranitidina, sulfametoxazol, propanolol y naproxeno se realizaron empleando
extracción en fase sólida (SPE) seguido de cromatografía líquida acoplada a
espectrometría de masas triple quadrupolo (LC-MS/MS) mediante ionización
electrospray. El límite de detección del método (MDL) varía entre 0.002 a
0.020 ng/mL. La precisión del método, calculada como desviación standard
relativa (RSD), oscila del 0.2 al 6% y del 1 al 11% en el análisis en días diferentes y en análisis en el mismo día, respectivamente.
Los análisis de benzodiacepinas, cocaína, metadona y opiáceos se realiza
por inmunoanálisis de polarización de la fluorescencia especialmente indicado para fármacos de pequeño tamaño molecular, basado en la generación
de especies altamente reactivas a partir de precursores estables sobre la superficie de un electrodo y la reacción de unas con otras con producción de
luz. Se fundamenta en la reacción del complejo [Ru(bpy)3]+2 con tripropilamina (TPA), cuyo producto quimioluminiscense final se forma durante la
fase de detección.
Resultados y discusión
Como puede apreciarse en la tabla 2 algunos de los compuestos seleccionados en este estudio tienen valores tan bajos que su concentración no ha lle175
gado ni siquiera en el agua residual bruta a alcanzar los límites de detección
del método analítico empleado para su análisis. Se trata de los antibióticos
(eritromicina y sulfametoxazol), el betabloqueante propanolol y el antiulceroso ranitidina.
Tabla 3. Concentraciones medias de fármacos detectadas en el proceso convencional de la
depuradora.
Principio activo
Entrada
EDAR (µg/l)
Salida tratamiento
Primario (µg/l)
Salida tratamiento
Biológico (µg/l)
Ibuprofeno
Naproxeno
11.78
2.80
8.76
2.42
2.80
1.37
Bezafibrato
0.41
0.13
0.08
Carbamacepina
0.18
0.15
0.17
Ranitidina
< 0.02
< 0.02
< 0.02
Sulfametoxazol
Eritromicina
< 0.02
< 0.006
< 0.02
< 0.006
< 0.02
< 0.006
Propanolol
< 0.007
< 0.007
< 0.007
Entrada
EDAR (ng/l)
Salida tratamiento
primario (ng/l)
Salida tratamiento
biológico (ng/l)
16.87
15.20
28.35
37.35
12.58
8.93
27.69
33.58
12.27
13.44
26.82
33.05
Psicofármacos
y drogas
Benzodiacepinas
Opiáceos
Cocaína
Metadona
Entre los medicamentos estudiados el principio activo que se ha encontrado
a mayor concentración en el agua residual ha sido, como era de esperar, el
ibuprofeno (analgésico y antiinflamatorio de uso generalizado muy común).
Las concentraciones observadas en la entrada a la planta han oscilado entre
4.23 y 20.11 µg/l con un valor medio de 11.78 µg/l.
También se han encontrado en el agua bruta concentraciones bastante significativas de naproxeno (otro analgésico de uso menos frecuente) y de bezafibrato (hipolipemiante). Las concentraciones de medias de naproxeno es
2.88 µg/l, habiendo oscilado sus valores entre 0.74 y 5.50 µg/l. En el caso
del bezafibrato las concentraciones de entrada a la planta se encontraron
entre 0.01 y 3.87 µg/l con un valor medio de 0.41 µg/l.
El principio activo que aparece en el agua residual en la concentración detectable más baja es la carbamacepina, con valores medios de 0.18 µg/l e
intervalos entre 0.01 y 0.34 µg/l.
176
Los valores de los psicofármacos y drogas de abuso analizados se han presentado en el agua residual bruta siempre en concentraciones mucho más
bajas que los fármacos anteriores, es decir a niveles de ng/l. Las mayores
concentraciones se han observado para la cocaína y metadona (valores medios de 28.35 y 37.85 ng/l respectivamente), con menores rangos de oscilación para la cocaína (entre 17.56 y 42.12 ng/l) que para la metadona (entre
2 ng/l y 60.08 ng/l). Las benzodiacepinas y opiáceos en el agua residual
han presentado concentraciones medias similares (16.87 ng/l y 15.20 ng/l
respectivamente) variando los valores detectados en 2 y 32.45 ng/l para las
benzodiacepinas y entre 4.69 y 24.24 ng/l para los opiáceos.
Los compuestos hidrofóbicos parece ser que pueden separarse por fenómenos de adsorción a los sólidos, por ello dependiendo del tipo de fármaco
pueden apreciarse eliminaciones más o menos grandes en el tratamiento
primario.
Algunos autores (Strenn, 2004; Clara, 2004) han indicado que la eliminación de bezafibrato (10-97%) e ibuprofeno (12-86%) en las depuradoras de
aguas residuales es variable, demostrándose que esta variación depende de
la edad del fango. Así con temperaturas de 10ºC y edades del fango de 5
días pueden observarse eliminaciones de ibuprofeno hasta mayores del 90%
(Tauxe-Wuersch, 2005).
En esta investigación, el bezafibrato e ibuprofeno presentan reducciones
medias globales altas (80% y 76% respectivamente), debido fundamentalmente a procesos de biodegradación en el tratamiento biológico (edad del
fango > 5 días). Estos datos concuerdan con los expuestos por los autores
citados anteriormente.
La bibliografía consultada no da resultados claros sobre las eliminaciones
de naproxeno en sistemas convencionales de depuración (66% en estudios
en Alemania, entre 40-55% en España, y entre 55-98% en Finlandia) y tampoco se muestra una clara influencia de la edad del fango. En este estudio
las eliminaciones medias para este analgésico han sido en torno al 50%,
bastante más baja que la obtenida para el ibuprofeno y bezafibrato.
Por último, la carbamacepina parece ser un compuesto claramente no biodegradable y persistente a los tratamientos biológicos de depuración, ya que
los resultados obtenidos en este estudio han mostrado rendimientos medios
de eliminación no significativos (aproximadamente un 5%). Gran parte de
la bibliografía consultada (Ternes, 1998; Heberer, 2002; Clara, 2004; Strenn,
177
2004) coincide en este hecho, achacando esta baja o nula reducción a la naturaleza hidrofíllica de este principio activo (log Kow < 3) y a su estabilidad
química (Tauxe-Wuersch, 2005).
En cuanto a las drogas y psicofármacos las eliminaciones globales son bajísimas, y prácticamente nulas en la etapa biológica del tratamiento lo que
indica su poca biodegradabilidad. Parece ser que la pequeña fracción que
se separa del agua residual es por adsorción a los sólidos en el tratamiento
primario.
Dado que la eliminación de estos compuestos era en unos casos muy baja,
en otros variable, pero nunca total en un proceso de depuración convencional, se estudió el efecto que podía tener el tratamiento terciario convencional existente en la depuradora (microfloculación y filtración sobre arena) y
los tratamientos avanzados de filtración con membranas ultra y nanofiltración a través de la operación de dos plantas piloto.
La tabla 3 muestra las concentraciones medias de los fármacos analizados a
la salida de cada tratamiento. Las plantas piloto de ultrafitración y la nanofiltración no se han ensayado en serie sino en ambos casos la alimentación
procede del filtro de arena del tratamiento terciario.
Tabla 4. Concentraciones medias de fármacos detectadas después de tratamientos terciarios
convencionales y membranas de ultra y nanofiltración.
Principio activo
Ibuprofeno
Naproxeno
Bezafibrato
Carbamacepina
Psicofármacos
y drogas
Cocaína
Metadona
Benzodiacepinas
Opiáceos
Salida trat. Terciario:
Microfloculacion +
Filtros de arena (µg/l)
2.31
1.79
0.09
0.18
Filtros de arena + ultrafiltracion
(µg/l)
0.93
0.49
0.02
0.09
Filtros de arena +
nanofiltracion (µg/l)
Salida trat. Terciario:
Microfloculacion +
Filtros de arena (ng/l)
25.56
34.66
15.40
13.84
Filtros de arena + ultrafiltracion
(ng/l)
23.08
24.06
10.51
7.83
Filtros de arena +
nanofiltracion (ng/l)
0.38
0.24
0.01
0.07
22.43
21.59
8.00
6.42
Los filtros de arena, como era predecible, no muestran ningún efecto significativo en la retención de fármacos.
178
En cuanto a los procesos de ultrafiltración y nanofiltración los efectos de los
dos tipos de membrana ensayados no son muy distintos a pesar de la diferencia de tamaño de paso.
Las membranas de ultrafiltración empleadas (MWCO 2000 Daltons) teóricamente no deberían separar los fármacos estudiados (su peso molecular se
encuentra entre 206 y 362) hasta que no se haya completado la etapa inicial
de adsorción. Sin embargo, la presencia de partículas, que tienen la capacidad de adsorber contaminantes, pueden aumentar el potencial de la ultrafiltración para eliminar estos compuestos. Por ello, con estas membranas
se han obtenido retenciones entre 48% y 76% para los principios activos, y
entre 9% y 43% para los psicofármacos y drogas.
Los mejores resultados de separación se han logrado para el ibuprofeno, naproxeno y bezafibrato (83-86%), mientras que para la carbamacepina puede
que las características de este principio activo, le impida llegar a separaciones tan elevadas (alrededor de 60%). En el caso de los psicofármacos y drogas de abuso las separaciones con la nanofiltración han sido bastante más
bajas que para los principios activos anteriores, llegando incluso retenciones
prácticamente nulas para la cocaína.
Conclusiones
Los principios activos de naturaleza más hidrofóbica pueden eliminarse por
adsorción a los sólidos en suspensión, por lo que en parte son separados
junto con el fango primario y con el fango en exceso del tratamiento biológico. La eliminación de algunos fármacos en los tratamientos biológicos como
fangos activos se debe a procesos de biodegradación. La biodegradación es
especialmente efectiva en la reducción de compuestos que no experimentan fácilmente fenómenos de adsorción. El ibuprofeno y el bezafibrato son
los dos principios activos estudiados que resultan ser más biodegradables,
ya que se han conseguido eliminaciones alrededor del 80%. El naproxeno
puede decirse que tiene una biodegradabilidad media y la carbamacepina
prácticamente nula. Por ello sería aconsejable que siempre que se pudiera
se emplearan principios activos más biodegradables (por ejemplo entre los
antinflamatorios preferiblemente ibuprofeno frente a diclofenac que es menos biodegradable).
Los tratamientos terciarios convencionales (coagulación-floculación y filtración sobre arena) no tienen ningún efecto en la retención de fármacos.
179
En cuanto a los procesos de membrana, tanto la ultrafiltración como la nanofiltración consiguen obtener reducciones apreciables en general para los
fármacos, no siendo demasiado significativas las diferencias apreciadas en
función del tipo de membrana estudiado. Es decir, el paso de la membrana
no es decisivo y en la separación de los medicamentos influyen otras características como la composición química y propiedades físicas de la membrana y del contaminante.
Los psicofármacos y drogas de abuso, si bien se encuentran a concentraciones mucho más bajas que los principios activos en el agua residual, han
resultado ser más problemáticos en cuanto a su eliminación, ya que prácticamente no son degradados en el tratamiento biológico y además con las
membranas estudiadas las retenciones son menores, quizás debido a la naturaleza de estos compuestos y el tipo de membrana utilizado.
La falta de legislación sobre el contenido de fármacos admisibles en los
vertidos de aguas depuradas impide decir con absoluta seguridad que los
resultados de salida tan bajos obtenidos con las membranas sean suficientes
para evitar daños a medio-largo plazo en los organismos vivos de los cauces
receptores.
Por último, no hay que olvidar que el mejor resultado es el que se puede
conseguir con el tratamiento biológico, ya que el compuesto se biodegrada
y elimina. El proceso de biodegradación es desconocido actualmente. En el
caso de los fármacos que han resultado algo biodegradables, el proceso ha
sido una depuradora biológica de fangos activos que funciona con una edad
del fango de 12 días. En el caso de las membranas el contaminante sólo se
separa del agua, por adsorción a la capa de suciedad que se genera sobre la
membrana, trasladándose el problema del agua al concentrado.
Los tratamientos con membranas no son la solución a la completa eliminación de fármacos, pero si se reducen sus valores apreciablemente, incluso
a valores por debajo del límite de detección del método utilizado para su
análisis.
Otra vía de eliminación de fármacos podrían ser los procesos de ozonización y oxidación avanzada, que pueden destruir los principios activos.
Independientemente de estos tratamientos existen algunas soluciones para
minimizar la llegada de fármacos a las aguas residuales, como por ejemplo
no medicarse innecesariamente, no verter restos de medicamentos a los sanitarios, etc.
180
Agradecimientos
Esta investigación se ha podido desarrollar gracias a la subvención concedida por la Dirección General de Política Tecnológica del Ministerio de Ciencia y Tecnología de España en la convocatoria PROFIT 2004-2007.
Referencias
[1] Boleda, M.R., Galceran, M.T., Ventura F. (2011) Behavior of pharmaceuticals and drugs
of abuse in a drinking water treatment plant (DWTP) using combined conventional and
ultrafiltration and reverse osmosis (UF/RO) treatments Environmental Pollution, 159(6)
1584-1591.
[2] Castiglioni, S., Bagnati, R., Fanelli, R., Pomati, F., Calamari, D., Zuccato, E. (2006a)
Removal of pharmaceuticals in sewage treatment plants in Italy. Environmental Science
Technoogy, 40, 357-363.
[3] Clara M., Strenn B., Ausserleitner M. and Kreuzinger N. (2004a) Comparison of the behaviour of selected micropolluntants in a membrane bioreactor and a conventional wastewater treatment plant. Water Science and Technology, 50 (5). 29-36.
[4] Clara M., Strenn B. and Kreuzinger N. (2004b) Carbamazepine as a possible anthropogenic marker in the aquatic environment: investigations on the behaviour of Carbamazepine in wastewater treatment and during groundwater infiltration. Water Research, 38
(4) 947-954.
[5] Heberer T. (2002a) Tracking persistent pharmaceutical residues from municipal sewage
to drinking water. Journal of Hidrology , 266 (175-189).
[6] Kümmerer (2004) Pharmaceuticals in the environment: source, fate, effects and risks. 2a.
Edition. Edit. Springer-Verlag.
[7] Kümmerer, K. (2009) The presence of pharmaceuticals in the environment due to human
use – present knowledge and future challenges. Journal of Environmental Management,
90 (2354-2366).
[8] Santos, J.L., Aparicio, I., Alonso, E. (2007) Occurence and risk assessment of pharmaceutically active compounds in wastewater treatment plants. A ces study: Seville city (Spain).
Environment International, 33, 596-601.
[9] Strenn B., Clara M. Gans O. and Kreuzinger N. (2004) Carbamazepine, diclofenac, ibuprofen and bezafibrate-investigations on the behaviour of selected pharmaceuticals during wastewater treatment. Water Science and Technology, 50 ( 5), 269-276.
[10]Ternes Thomas A. (1998) Occurrence of drugs in German sewage treatment plants and
rivers. Water Research, 32 (11), 3245-3260.
[11]Yoon, Y., Westerhoff, P., Snyder, S.A., Wert, E.C. (2006). Nanofiltration and ultrafiltration
of endocrine disrupting compounds, pharmaceuticals and personal care products. Journal of Membrane Science, 270, 88-100.
181
[12]Zuccato , E., Chiabrando, C., Castiglioni, S., Calamari, D., Bagnati, R., Schiarea, S.,
Fanelli, R. (2005) Cocaine in surface waters: a new evidence-based tool to monitor community drug abuse. Environmental Health of Global Access Science Source, 4, 1-7.
[13]Zuccato, E., Castiglioni, S., Bagnati, R., Chiabrando, C., Grassi, P., Fanelli, R. (2008) Illicit drugs, a novel group of environmental contaminants. Water Research, 42, 961-968.
[14]Zwiener C. and Frimmel F. H. (2003) Short-term test with a pilot sewage plant and biofilm reactors for the biological degradation of the pharmaceutical compounds clofibric
acid, ibuprofen and diclofenac. The Science of the Total Environment, 309, (1-3), 201211.
182
Densidades de Niveles Nucleares y Teoría de Números
Alfonso Anzaldo Meneses
Departamento de Ciencias Básicas Universidad
Autónoma Metropolitana-Azcapotzalco
[email protected]
Dedicado a la memoria de la física austriaca Lise Meitner (1878-1968), quien
hace 75 años, junto con su sobrino Otto Frisch, publicó la primer explicación
física de la fisión nuclear.
Resumen
Se presentan cálculos analíticos para la densidad de niveles nucleares. Para
ello se hace uso de resultados de la teoría analítica de números. Las relaciones obtenidas pueden ser de utilidad para expresar de manera sencilla a las
densidades de niveles de núcleos pesados, mismas que son indispensables
en el estudio de reacciones nucleares. Las nuevas expresiones se reducen en
casos simples a las expresiones de uso más frecuente.
Introducción
En teoría de números es de importancia la obtención del número de posibles
representaciones de un número entero en términos de sumas de números
enteros sujetos a diversas restriciones. Dicho problema conocido comó partitio numerorum’, fue estudiado por L. Euler con t´ecnicas hoy denominadas
como analíticas coadyuvando con ello al nacimiento de la teoría analítica
de los números (ver Rademacher, 1973). Por otro lado en la Física del siglo
pasado se abrió paso la mecánica cuántica en la descripción microscópica
de la naturaleza (ver por ejemplo Cohen-Tannoudji, 1977). La mecánica
cuántica se basa en gran medida en la ‘cuantización’ de cantidades fundamentales, entendiendo por cuantización la introducción de unidades básicas
cuyos múltiplos enteros permitieron dilucidar un sin número de resultados
experimentales que no pueden ser descritos clásicamente. No obstante, en
términos generales el espectro de los operadores asociados a las magnitudes
físicas observables puede ser tanto discreto como contínuo dependiendo del
problema físico concreto. En este trabajo se analizan solo problemas para
los cuales el espectro es discreto como sucede cuando un sistema de partículas se encuentra confinado a una reducida regi´on espacial finita, como
sucede para los nucleones en un núcleo atómico estable. El caso de espec183
tros contínuos es también de gran importancia como sucede en problemas
de dispersión pero no será tratado aquí.
Una característica básica de la Física moderna es el hecho experimental
que las partículas elementales pueden ser tan sólo de dos tipos, denominadas bosones y fermiones respectivamente. Estos dos tipos de part´ıculas
id´enticas se diferencian en que las primeras pueden estar caracterizadas
por exactamente los mismos números cuánticos, mismos que determinan su
estado físico completamente, mientras que las segundas estan excluídas de
tal situación (‘principio de exclusión de Pauli’). En este trabajo mostramos la
aplicación de un resultado del ‘partitio numerorum’ de la teoría analítica de
los números al estudio del nu´mero posible de estados excitados de sistemas
del segundo tipo.
En sistemas con varios tipos de fermiones el problema de particiones de números enteros corresponde al número de sumas de enteros de e ‘colores’ o
tipos distintos. Dicho número es denotado mediante pe(n). Así por ejemplo
pe(1) = e ya que denotando por un subíndice a cada color tenemos que 1
= 11 = 12 = . . . = 1e , podemos calcular adem´as que pe(2) = e(e + 3)/2, ya
que 2 = 2i = 1j + 1k para j ≤ k con i, j, k = 1, . . . , e. Una relación analítica
cerrada fue encontrada por Rademacher y Zuckerman hace mucho tiempo
(1938). Su elegante método está basado en la teoría de las formas modulares
y fue motivado por un resultado clásico de Hardy y Ramanujan (1918) para
el caso e = 1. En nuestro problema resulta que, como veremos más adelante,
las funciones generadoras fermiónicas como la que ejemplificamos están
íntimamente ligadas a la función η de Dedekind (ver Andrews, 1976)
(1)
Notemos que esta función (y sus potencias) puede ser interpretada como
una función generadora de estados de un sistema de bosones. Dado que la
potencia (−e)− ésima de η es la función generadora de pe(n), la expresión
más importante para nosotros obtenida por Rademacher y Zuckermann es
el desarrollo de Fourier
(2)
184
con μ = −[−e/24] y α = −e/24 − [−e/24], en donde [x] denota al mayor entero
que no es mayor que x. Los coeficientes del desarrollo están dados por la
serie convergente
para (h,k) = 1 y hh′ ≡ −1(mod k) y
Las funciones I1+e/2 son funciones de Bessel modificadas. En particular tenemos que pe(r) = 0 para r < 0 o para r no entero.
A continuación mostramos la aplicación de estos y otros resultados de la
teoría analítica de los números al cálculo de la densidad de niveles excitados de sistemas de fermiones no interactuantes sobre espectros discretos.
Para ello supondremos que dichos espectros son perio ́dicos o bien que las
energías de excitación permiten suponer que lo son al menos seccionalmente.
La función de partición física
Comencemos ahora con sistemas con dos tipos de fermiones no interactuantes. La generalización a más tipos de partículas es clara. Como motivación
elemental del análisis hecho en los inicios de la mecánica estadística, consideremos a un sistema de N Fermiones, digamos nucleones en un núcleo
atómico estable, colocados sobre un espectro discreto de niveles de energías εj = 1, 2, . . . en unidades arbitrarias. El estado de energía mas bajo es
aquel en el cual todos los Fermiones ocupan los primeros N niveles, es único
y tiene energía total N(N + 1)/2. El segundo estado posible corresponde al
caso en el cual los primeros N − 1 Fermiones ocupan los primeros N − 1
niveles pero el Fermion restante ocupa el nivel N + 1, por lo que la energía
total es N(N + 1)/2 + 1.
185
Para describir algebraicamente este procedimiento, basta con escribir en un
producto para el nivel j un término 1 + xj y en donde la unidad corresponde
a un nivel vacío y segundo sumando a un nivel ocupado de energía j. Por
ejemplo si solo hay tres niveles de energías 1, 2, 3, el producto se vería así
La unidad corresponde al vacío, el segundo sumando a sólo un Fermion
en el primer nivel y los demás niveles vacíos, el tercer sumando a un sólo
Fermion ahora en el segundo nivel, así hasta llegar al último sumando que
corresponde a tres Fermiones ocupando uno cada nivel y por tanto con
energía total igual a seis unidades.
Generalizando el ejemplo anterior, se llegó a la definición de la llamada
función de partición para fermiones siguiente
(3)
donde Ya(b) = exp(αa(b)) y αa(b) , α3 y β son parámetros de Lagrange necesarios
para contar números de partículas, sus momentos angulares y sus energías y
mja(b) es un número cuántico llamado ‘magnético’, asociado a la componente del momento angular de cada nivel, para los tipos ‘a’ y ‘b’ de fermiones
con energía εja(b). Los tipos de fermiones corresponden a los colores en el
problema de teoría de los números. La serie de potencias formal del producto infinito nos lleva a la definición de la densidad total de niveles del sistema
como los coeficientes ρ(Na, Nb, M, E) de la serie
(4)
en donde la suma corre sobre téminos distintos. Por definición ρ(Na,Nb,M,E)
da el número de estados de Na fermiones del tipo ‘a’, Nb fermiones del tipo
‘b’ , con componente ‘z’ del momento angular dada por M del momento
angular total y energía E dadas por
(5)
186
siendo nsa(b) = 0, 1 los números de ocupación, que indican cuales niveles se
encuentran ocupados.
Pasemos ahora a un espectro periódico de partícula independiente. Los niveles individuales de energía están dados por εkja(b)= δa(b)(k + νja(b)), k = 0,
1, ...; j = 1, ..., ea(b), en donde ea(b) es la degeneración de cada capa mayor
(conjunto máximo de niveles distintos que se repiten) para cada tipo de
fermiones, δa(b) es el espaciamiento entre dichas capas y νja(b) es la posición
relativa del subnivel j en cada capa.
Para poder aprovechar los resultados conocidos de la teoría analítica de los
números es conveniente introducir una unidad (de ser necesario tan sólo de
manera aproximada) para expresar a todos las energías individuales como
múltiplos enteros de ésta. Por simplicidad haremos a dicha unidad igual a
uno.
Introduzcamos ahora parámetros adicionales de Lagrange para tomar en
cuenta la dependencia del momento angular pero también para introducir
un conjunto completo de constantes del movimiento. Consideremos por lo
pronto a un sólo tipo de fermiones para mayor claridad. Entonces
(6)
m ij α j en donde los parámetros αi son los parámetros de Lagrange
aquí λi =
adicionales y las mij son e nu ́meros cuánticos asociados con el j− ésimo
parámetro de Lagrange αj. Estos números son por el momento arbitrarios
pero posteriormente encontraremos condiciones que los limitan a nuestra
conveniencia.
Si a continuación dividimos primero al producto infinito en dos partes de
acuerdo a que los niveles individuales sean menores o mayores que el nivel
ocupado m ́aximo εf = δ(f + νf ) para un entero dado f . Reordenando los
términos e introduciendo δβ = −2πiτ, se sigue que
(7)
187
Definimos
Notemos que N = ef + ex. Ahora supongamos la llamada “degeneración térmica”, esto es que βδf >> 1 y
extendamos el límite superior f en el producto infinito sobre n hasta infinito.
Esta suposición significa esencialmente que la energía adicionada al sistema
no es suficiente como para excitar a los fermiones mas profundos del sistema. Definamos q2 = exp(2πiτ) y usemos a la representación de la función ϑ
de Jacobi con características κ y γ como el producto infinito (ver por ejemplo
Mumford, 1982)
Aquí η(τ) es la función η de Dedekind escrita ahora como
(8)
(9)
La función de partición puede ser reescrita entonces como
(10)
Consideremos ahora a la siguiente serie de Fourier de la función ϑ en una
variable con características κ y γ
(11)
Por lo tanto encontramos luego de algunas modificaciones elementales
(12)
Hemos introducido aquí a la red
188
en donde la matriz
M está definida haciendo λ = Mα. Hemos definido además |a|2 = (a|a) mediante la forma simétrica bilinear (a|b) = atDb, mediante la matriz diagonal
D = (M tM)−1. La última suposición significa que los vectores columna de los
números cúanticos de M deben ser ortogonales entre sí, limitando con ello
la elección de los números cuánticos mi,j. Además hemos hecho
con ν siendo el vector con componentes νi.
La densidad de estados excitados
A continuación consideremos a un conjunto completo de constantes del
movimiento. Para un sistema de dos componentes la función de partición es
el producto de las funciones de cada componente
(13)
con coeficientes
(14)
en donde el contorno C rodea al origen. Estos coeficientes dan el número
total de estados excitados de un sistema de A fermiones (si A > 0), o alternativamente de A antifermiones o ‘agujeros’, distribuidos sobre el espectro de
niveles individuales {εjk }a,b con energía total E. La función numérica ρ(N, E)
incluye niveles degenerados en M. La integral de contorno en la ecuación
para ρ puede ser evaluada exactamente usando el resultado ec.(2). La aplicación del desarrollo en series ec.(12) a la integral para ρ conduce a
(15)
en donde e = ea + eb, Λ = Λa ⊕ Λb y en donde hemos extendido el producto
bilinear para incluir a ambos tipos de fermiones.
Nuestro resultado principal está dado por la fórmula ec.(15). Proporciona
una fórmula de densidades de niveles exacta que incluye efectos de capas
así como su dependencia del momento angular.
189
Conclusiones
En este trabajo se ha mostrado como los métodos de la teoría analítica de
los números son de utilidad para resolver problemas en aplicaciones de la
mecánica cuántica a la Física nuclear.
Referencias
[1] Andrews G. E., “The theory of partitions”, Addison-Wesley, Reading Mass., 1986 CohenTannoudji C, Diu B. and Laloe ̈ F., “Quantum Mechanics”,Wiley- Interscience, New York, 1977
[2] Hardy G.H. and Ramanujan S., Proc. London Math. Soc. (2), 43 (1918) 75 Mumford D.,
“Tata lectures on theta”, Progress in Mathematics, Cambridge, Mass., 1982
[3] Rademacher H., “Topics in analytic number theory”, Springer Verlag, Berlin, 1973
[4] Rademacher H. and Zuckerman H., Ann. Math., 39 (1938) 433
190
Energía Solar, Retos y Oportunidades
Ana Elizabeth García
Departamento de Ciencias Básicas, Área de Física Atómica y Molecular
Aplicada, Universidad Autónoma Metropolitana Azcapotzalco, Av. San
Pablo 180, Azcapotzalco., México D. F.
Resumen
En éste trabajo se hace una revisión del uso de fuentes renovables de energía
y su contribución al desarrollo sustentable. Actualmente en el mercado existen tecnologías limpias disponibles como paneles solares, turbinas eólicas,
biomasa, hidroenergía, y energía geotérmica. Se hace énfasis en la energía
solar y en sus distintos tipos: fototérmica y fotovoltaica. Se expone la situación actual del uso de la energía solar así como sus ventajas y desventajas.
Para la investigación y el desarrollo de tecnologías limpias innovadoras, se
necesita apoyo de los gobiernos para educar ambientalmente aún más a la
población, informándola acerca de las consecuencias de la producción de
energía usando petróleo y sus derivados, para que así las presentes y futuras
generaciones modifiquen patrones de conducta y consumo en relación al
uso de la energía, fomenten la creación de nuevas fuentes de energía y conozcan la utilización de estas fuentes.
Introducción
El mundo depende mayoritariamente de los combustibles fósiles y estos se
están acabando. También de acuerdo con el “Global Carbon Project”, sabemos que en el 2014 las emisiones de CO2 que son las principales causantes
del calentamiento global superaron un record histórico de 40000 millones
de toneladas, que es un incremento del 2.5% con respecto a la medición
anterior, lo que conlleva a no acercarse a cumplir con los compromisos necesarios de mantener por debajo de 2 °C el cambio climático, un nivel que
será ya difícil de conseguir para la mayoría de países de todo el mundo. Por
otra parte actualmente la energía atómica, la industria nuclear de fisión, presenta algunos peligros, que por el momento no tienen una rápida solución.
Estos peligros, podrían repercutir en el medio ambiente y en los seres vivos
si son liberados a la atmósfera, o vertidos en el medio ambiente, causando la
muerte, y condenando a futuras generaciones a mutaciones. Es por ello, que
a las centrales nucleares se les exige grandes medidas de seguridad, para así
191
evitar estos accidentes, aunque a veces, pueden llegar a ser insuficientes,
Chernobyl 2006 y Fukushima 2011.
Del buen uso de la energía depende la calidad de vida de las comunidades.
Por eso actualmente es importante, basar nuestro desarrollo energético en
el uso de fuentes alternas de energía. Afortunadamente la naturaleza nos
ofrece varias opciones que debemos explotar como son la energía solar,
eólica, biomasa, geotérmica y muchas otras. En este trabajo en la sección 2,
presentamos una revisión general de energía, en la sección 3, consideramos
a las fuentes renovables, y en la sección 4 a la energía solar y sus usos. Con
esto, se pretende sensibilizar al lector conociendo más acerca del uso de
fuentes renovables para lograr un mejor desarrollo hacia la sustentabilidad.
Energía
La naturaleza se transforma usando energía. La energía se manifiesta a través de cambios físicos y químicos, por ejemplo, el derretimiento del hielo,
el proceso digestivo del hombre, la energía hace que brille el Sol, que gire
la Tierra, que crezcan las plantas, que nos movamos y que se desarrollen
nuestras civilizaciones. La energía es un concepto, una función matemática
que asigna el estado de un sistema físico. En la naturaleza existen recursos
renovables y no renovables, según sean recursos “ilimitados” o “limitados”,
y mediante algunos de estos podemos obtener energía. Una fuente importante de energía renovable es el Sol.
De acuerdo con la SENER [2], el Consejo Mundial de Energía afirma que el
consumo energético eléctrico mundial, aumentará en los próximos veinte años, aproximadamente en un 50 %. Habrá que proporcionar energía
eléctrica comercial a 4000 millones de usuarios, ya que actualmente 2000
millones no disponen de ella, y se esperan 2000 más durante este periodo.
Además de los problemas de cambio climático, existen otros problemas
en cuanto a la energía, la distribución de la producción y el consumo de
energía son desiguales, las zonas donde se produce la energía primaria son
diferentes a las zonas de consumo. Actualmente el 80% de la producción
mundial de energía primaria proviene de combustibles fósiles como carbón,
petróleo y gas natural, es decir de fuentes de energía no renovables y con
reservas limitadas. El consumo energético per cápita actual es muy dispar,
así como los niveles de desarrollo. Si los países en desarrollo se acercasen
en los próximos años a los consumos energéticos occidentales, el mundo
se enfrentaría a una prolongada crisis energética. Las emisiones de CO2
representan dos terceras parte de los gases de efecto invernadero que se en192
vían a la atmósfera, esta tendencia se debe revertir para disminuir el cambio
climático. “El desarrollo sustentable es el que se realiza sin comprometer la
capacidad de las generaciones futuras para satisfacer sus propias necesidades, manteniendo la igualdad dentro de cada generación” [1].
Urquidi afirmaba que “La energía es clave, pero es uno de muchos pilares
de nuestro desarrollo y hay que agregarle valor hacia atrás y hacia delante”.
La política industrial y financiera son cruciales para generar inversiones,
empleos y un desarrollo tecnológico sustentable.
Fuentes renovables
Las fuentes de energía renovables son aquellas que, después de ser utilizadas, se pueden regenerar de manera natural o artificial. Estas fuentes renovables siguen ciclos que se mantienen de forma más o menos constante en
la naturaleza. Las fuentes renovables de energía son:
• Energía oceánica La energía de los océanos puede ser explotada. Tecnologías avanzadas y no muy utilizadas en la actualidad usan mareas,
gradiente térmico, corrientes marinas y olas.
• Energía geotérmica La energía geotérmica es calor que se emite del
interior de la Tierra, usualmente en forma de agua caliente o vapor. La
energía geotérmica se usa para producir electricidad y puede tener una
gran variedad de usos.
• Energía hidráulica La producción de energía eléctrica mundial se obtiene a partir de la energía hidráulica. Durante la primera mitad del
siglo XX las hidroeléctricas fueron la principal fuente de electricidad del
mundo.
• Energía eólica El 2% de la energía que recibimos del sol se transforma
en viento, éste es un recurso energético disponible y abundante en el
planeta. Es aire en movimiento que resulta de las diferencias de temperatura por el calentamiento desigual del Sol sobre la superficie terrestre.
Durante siglos se ha usado al viento para moler cereales y para navegar, aprovechando la energía cinética contenida en el mismo. En 1887
Brush construyó la primera turbina eólica para generar electricidad, un
generador de 144 palas de madera y un rotor de 17 m de diámetro, sin
embargo a pesar de su gran tamaño, la potencia de éste era de solo 12
kW. A fines de la década de 1970, los gobiernos europeos, E.U.A. y Canadá, patrocinaron proyectos de tecnologías limpias innovadoras para
el desarrollo de aerogeneradores capaces de interconectarse a la Red
Eléctrica. Actualmente, las tecnologías eólicas tienen un alto grado de
193
madurez. El GWEC (Global Wind Energy Council), indica que en 2008
se instalaron en el mundo más de 27000 nuevos MW de energía eólica,
por lo que a fines del 2008 se tenía una potencia instalada de 120798
MW. Alemania y España durante años fueron los principales mercados
del sector eólico, sin embargo en 2008 en E.U. se instalaron 8358 nuevos MW, quitándole a Alemania el título del país con mayor potencia
eólica instalada. En el 2008 en China se instalaron 6300 MW y en India
1800 MW.
En México hay 185.5 MW instalados. La Secretaria de Energía ha concedido 1700 MW en permisos de generación. Además de la región del
Istmo en Oaxaca, la península de Baja California, ha despertado el interés de inversionistas, proporcionando mejores perspectivas al futuro
de la energía eólica en México.
• Energía de la biomasa El término biomasa se refiere a materia orgánica
de desecho obtenida de la agricultura y de la basura. La energía de la
biomasa se puede obtener de la biomasa mediante los diferentes procesos de conversión: combustión directa, gasificación, fermentación y
digestión, para producir calor o combustibles, sólidos o gaseosos.
• Hidrógeno Otra de las posibilidades para generar energía es la producción de hidrógeno, es una promesa de los nuevos combustibles del
futuro. Si se utiliza agua, se está almacenando energía primaria. La ventaja de usar hidrógeno como combustible en las celdas de combustible,
es que el producto de desecho es agua destilada. Es una prometedora
forma de producción de energía sustentable.
• Energía solar Que se trata en la siguiente sección.
De acuerdo con Promexico[3], hasta 2012, México tenía una capacidad efectiva instalada para la generación de energía eléctrica de 63195 MW, de los
cuáles 14501 MW provenían de fuentes renovables de energía eólica, solar,
hidráulica, geotérmica y de biomasa, lo que representa el 23% del total de
la capacidad instalada. Actualmente México cuenta con 253 centrales en
operación y construcción para la generación de energía eléctrica usando
fuentes renovables; Oaxaca y Veracruz son los estados con mayor número
de proyectos eólicos y de biomasa, respectivamente.
Para 2026[3] se estima que la capacidad instalada para la generación de electricidad a partir de fuentes renovables se incremente en 20544 MW, de los
cuales, se estima que la energía eólica tendrá una participación del 58.6%
y la hidráulica del 27.3 %.
194
Energía solar y sus usos
El Sol mantiene la vida en la Tierra y se calcula que éste vivirá todavía miles de millones de años. La energía solar procede de las reacciones termonucleares de fusión que ocurren en el Sol, donde se quedan todos los
subproductos químicos y radiactivos. La radiación solar que recibe la Tierra
va del ultravioleta que en gran parte es bloqueada por la capa de ozono a
la visible y la infrarroja. Es la fuente limpia de energía más importante de
nuestro planeta. Así la energía solar es el mayor candidato al uso de energías
renovables, particularmente en nuestro país que tiene una gran insolación.
De acuerdo con el proceso de conversión de energía solar a energía útil, la
energía solar se divide en: sistemas fototérmicos y sistemas fotovoltaicos.
Sistemas fototérmicos En estos sistemas el sol se utiliza para: calentar agua,
acondicionar ambientalmente casas y edificios, secar productos agrícolas y
marinos, desalar y potabilizar el agua, producir vegetales y frutas en invernaderos, irrigar. Y para el calentamiento pasivo en la arquitectura solar, los
colectores planos y los grandes sistemas de concentración de energía solar
como en la planta solar térmica “Bright Source Energy” en el desierto de
Mojave en California, Estados Unidos.
Sistemas fotovoltaicos La energía solar sirve para producir electricidad, es
una alternativa verde al carbón y a la energía nuclear y se hace mediante el
efecto fotovoltaico. A pesar de que el efecto fotovoltaico fue descubierto por
Henri Becquerel en 1823, no fue posible, sino hasta el descubrimiento del
transistor en 1948, construir una celda solar ya que se requiere de uniones
de semiconductores. La tecnología de las celdas fotovoltaicas se desarrolló
en los años cincuenta, donde en 1955, investigadores de los laboratorios
Bell patentaron la celda solar de silicio cristalino y en 1958 la usaron exitosamente en aplicaciones espaciales. Sin embargo las celdas solares se producen a gran escala sólo a partir de los años ochenta.
Una celda solar se construye con un material semiconductor al que le sobran electrones (tipo n) y otra parte se hace con un material semiconductor
que le faltan electrones (tipo p) (huecos). Al recibir la radiación luminosa
en forma de fotones, parte de esta se absorbe por algunos electrones de valencia en ambos semiconductores, creando un electrón fotogenerado y por
consecuencia dejando un hueco fotogenerado. Estos portadores de carga
fotogenerados viajan hacia la unión, bajo un gradiente de concentración.
En dicha unión radica el campo eléctrico externo que actúa sobre estos y
los separa, mandando a los electrones generados al lado n y a los huecos al
195
lado p. La concentración de electrones fotogenerados en el lado n y de los
huecos en el lado p, son los responsables que aparezca un fotovoltaje, el
cual impulsará hacia el exterior a dichos portadores de carga, produciéndose una corriente I, si se coloca una resistencia de carga en los extremos de
la celda solar.
Las primeras celdas solares se fabricaron con silicio. El silicio es el material
más abundante en la Tierra después del oxígeno. La combinación de ambos
forma el 60% de la corteza terrestre. También se han desarrollado 2 nuevas
tecnologías de Si, silicio en bandas y películas de silicio, estas son flexibles
y por tanto sus aplicaciones son más versátiles. Las celdas solares de nueva
tecnología, son una capa delgada, donde el semiconductor se aplica pulverizado y no se necesita cortar evitando que se pierda material, abaratando
así los costos de producción. En 2007 el principal productor de celdas fotovoltaicas era Japón (46%), seguido de Europa (36%), China (11%) y E.U.A
(7%). En Europa, el principal productor es Alemania (con más de las 3/4 de
la producción europea), seguido de España.
En la gráfica siguiente se muestra la evolución de las celdas solares en cuanto a eficiencia a través del tiempo.
196
Figura 1. Está gráfica es cortesía del NREL (National Renewable Energy Laboratory). No tiene
derechos de autor y puede usarse en publicaciones y presentaciones. (“This plot is courtesy
of the National Renewable Energy Laboratory, Golden, CO.” [4])
197
México tiene un gran potencial en energía solar, ya que cuenta con regiones
con niveles de insolación entre los más elevados de América y a nivel mundial. La región Norte de México cuenta con condiciones meteorológicas sumamente favorables. Chihuahua, Sonora, Durango y Baja California tienen
fuerte insolación, sin embargo la energía solar tiene algunas limitaciones,
como son la variabilidad o distinta intensidad entre horas, días y estaciones
del año y una baja capacidad instalada al 2013 de 76 MW con una capacidad potencial al 2030 de 24300 MW [2].
Conclusiones
La energía solar se puede ser utilizar para suministrar electricidad en los
hogares o edificios. La energía solar también se puede utilizar directamente
para proporcionar calor. El uso de la energía solar tiene grandes beneficios
ya que es ilimitada, no contamina, y es un sistema de aprovechamiento
de energía ideal en zonas donde la red eléctrica no llega. Los sistemas de
captación solar son de fácil mantenimiento. El costo disminuye a medida
que la tecnología va avanzando. En México el 35% de los ingresos federales
provienen del petróleo. Aunque los costos de las energías renovables se han
reducido lo suficiente, no hay disposición para su uso ya que la inversión
inicial es grande, la construcción de celdas solares, es compleja y costosa y
por la eficiencia obtenida, el espacio de terreno ocupado por los elementos
captadores solares es muy grande, pero el problema principal es, la falta de
educación ambiental.
Referencias
[1] Víctor L. Urquidi, Alejandro Nadal Egea, Ed. Colegio de México, 2007.
[2] ESTRATEGIA NACIONAL DE ENERGÍA, http://www.sener.gob.mx/res/PE_y_DT/pub/2013/
ENE_2013-2027.pdf
[3] http://mim.promexico.gob.mx/wb/mim/energias_perfil_del_sector.
[4] http://www.nrel.gov/ncpv/images/efficiency_chart.jpg
198
Ejes temáticos:
*De la tradición a la vanguardia e innovación en la Arquitectura
*Ciudades competitivas e inteligentes
*Diseño inclusivo
*Tecnologías de la información y la comunicación en
Diseño y Arte
creatividad e innovación
El reto urbano y la vivienda en México
Sara Topelson de Grinberg
Uno de los principales retos que enfrenta nuestro país en este siglo XXI es la
acelerada expansión de las ciudades mexicanas sobre suelo ejidal durante
al menos los últimos 30 años. La expansión generó un patrón de crecimiento extenso y fragmentado segregando a los sectores de menores ingresos y
propiciando la desigualdad social y espacial. Según el Banco Mundial se
espera que la cifra de habitantes en ciudades de países emergentes como
México se duplique en 30 años (2000-2030), con ello la superficie urbana
construida se incrementará en 1.2 millones de kilómetros cuadrados, con lo
cual casi se triplicará la extensión total del suelo urbano; este acelerado proceso de urbanización trae consigo enormes desafíos, entre ellos satisfacer la
creciente demanda de servicios básicos, infraestructura, equipamiento, empleos, disponibilidad de tierra y vivienda asequible para todos los sectores
de la población.
Esta situación motivó la creación de la Secretaría de Desarrollo Agrario,
Territorial y Urbano (SEDATU), cuya principal tarea es la planeación y el
ordenamiento del territorio nacional para su máximo aprovechamiento, generando el contexto para implementar políticas púbicas que establezcan la
debida planeación y distribución del territorio bajo criterios de desarrollo
sustentable en coordinación con otras dependencias, entidades y órdenes
de gobierno, con el fin de cubrir las necesidades de tierra para el desarrollo
urbano y la vivienda a nivel nacional considerando la viabilidad de los proyectos y disponibilidad de recursos naturales.
La creación de esta secretaría implicó un cambio en las normas que rigen al
sector de la vivienda, poniendo el acento en el ordenamiento territorial y en
la optimización del uso del suelo como variable que incide en los criterios
de asignación de subsidios y créditos hipotecarios.
De acuerdo con los criterios del Plan Nacional de Desarrollo (PND) 20132018 la SEDATU ha establecido en sus programas estrategias que definen la
normativa y la política; destacan el Programa Nacional de desarrollo Urbano (PNDU) y el Programa Nacional de Vivienda (PNV).
201
El Programa Nacional de Desarrollo Urbano establece 6 objetivos:
1. Controlar la expansión de las manchas urbanas y consolidar las ciudades para mejorar la calidad de vida de los habitantes.
2. Consolidar un modelo de desarrollo urbano que genere bienestar para
los ciudadanos, garantizando la sustentabilidad social, económica y
ambiental.
3. Diseñar e implementar instrumentos normativos, fiscales, administrativos y de control para la gestión del suelo.
4. Impulsar una política de movilidad sustentable que garantice la calidad,
disponibilidad, conectividad y accesibilidad de los viajes urbanos.
5. Evitar asentamientos humanos en zonas de riesgo y disminuir la vulnerabilidad de la población urbana ante desastres naturales.
6. Consolidar la Política Nacional de Desarrollo Regional a partir de las
vocaciones y potencialidades económicas locales.
En concordancia el Programa Nacional de Vivienda define 6 objetivos:
1. Controlar la expansión de las manchas urbanas a través de la política de
vivienda.
2. Mejorar la calidad de la vivienda rural y urbana y su entorno, al tiempo
de disminuir el déficit de vivienda.
3. Diversificar la oferta de soluciones habitacionales de calidad de manera
que responda eficazmente a las diversas necesidades de la población.
4. Generar esquemas óptimos de créditos y subsidios para acciones de
vivienda.
5. Fortalecer la coordinación interinstitucional que garantice la corresponsabilidad de los tres órdenes de gobierno en la Política Nacional de
Vivienda.
6. Generar información de calidad y oportuna para contribuir a mejores
tomas de decisiones en el sector de la vivienda.
Construir ciudades competitivas, ordenadas e incluyentes requiere un alto
nivel de coordinación en materia de políticas públicas y mecanismos de inversión; la política nacional de vivienda de la presente administración busca
atender de forma integral las necesidades de vivienda que existen en el país,
al tiempo de reordenar los instrumentos que inciden en cuatro ejes: mayor
y mejor coordinación interinstitucional, transitar hacia un nuevo modelo de
desarrollo sustentable, reducir el rezago de vivienda y financiamiento que
impulse el crédito y el subsidio.
202
En esta nueva política el Desarrollo Urbano juega un papel esencial; para
apoyar este reto se dispuso que los créditos y subsidios federales fueran
orientados al fomento del crecimiento urbano ordenado, favoreciendo la
modernización de infraestructura y servicios, posteriormente impulsando la
vivienda vertical, la cual estimula la densificación, optimiza los servicios y
el equipamiento.
Transitar hacia este modelo de Desarrollo Urbano implica reducir las barreras que enfrentan los habitantes como los tiempos y distancias de traslados,
fomentar ciudades productivas y generar un crecimiento compatible con
la sustentabilidad ambiental y social; para ello el PNDU plantea estrategias
que incluyen el impulso a una reforma urbana que propicie la adecuación, y
congruencia del marco jurídico e institucional, mejora de los instrumentos
en materia de planeación y gestión urbana para fomentar ciudades compactas; identificación de los límites de las zonas urbanizables para propiciar el
crecimiento ordenado de las ciudades, incentivar el uso óptimo del suelo
intraurbano mediante el aprovechamiento de predios baldíos y subutilizados, el apoyo a la construcción, renovación y mantenimiento del equipamiento e infraestructura para fomentar la densificación y consolidación de
zonas urbanas estratégicas, así como hacer de las áreas conurbadas y zonas
metropolitanas unidades territoriales funcionales que estructuren el sistema
urbano.
En materia de vivienda las estrategias determinadas por la SEDATU han sido
punto de partida en la consolidación del sector y el ordenamiento del territorio; la construcción habitacional se realiza con mayor responsabilidad y
visión de largo plazo con la mira de optimizar el bienestar de la población.
Es evidente que las necesidades de vivienda están cambiando, el número
de créditos para adquisición de vivienda en 2014 disminuyó en 10.1 %
respecto al 2013 mientras que los créditos para mejoramiento tuvieron un
incremento del 23 %, simultáneamente la vivienda en renta ha venido a la
alza con un promedio anual de 4.0 % de 1992 a 2012, en contraste con el
parque habitacional que presenta tasas de crecimiento de 2.7 %. La vivienda en renta está resurgiendo como una opción asequible para combatir el
déficit habitacional.
La adecuación del sector a las nuevas necesidades ha sido clave para su
recuperación, en el 2014 Sociedad Hipotecaria Federal (SHF) anunció la formalización de su primer crédito para construcción de vivienda en renta en
la ZM de Monterrey, así mismo se ha dado mayor impulso al otorgamiento
de créditos de la banca privada y los institutos de vivienda.
203
El año 2014 significó un gran crecimiento para el sector de la vivienda, ya
que hubo un mayor monto para los subsidios respecto al año 2013, logrando
una inversión de aproximadamente 350 mil millones de pesos, así como el
lanzamiento de nuevos productos, como el subsidio a la vivienda en renta.
En 2015 derivado de la reducción en el presupuesto federal, los recursos
destinados a subsidios de vivienda también fueron menores: pasó de 11,600
millones de pesos en 2014, a 8,400, aproximadamente, en 2015. Sin embargo, el monto de crédito directo a la vivienda de SHF pasó de 190 mil
millones de pesos en 2012, a 263 mil millones de pesos en 2014. Asimismo,
el crédito a la vivienda asignado por la banca privada en México aumentó
7% en abril con respecto del mismo mes de 2014 y significó su mayor alza
en los últimos seis años y medio, desde octubre de 2008.
Ligado al tema de la vivienda está el suelo urbano como el recurso más
valioso y escaso de la ciudad; en respuesta a la inherente necesidad de la
adecuada gestión del suelo la CONAVI estableció los llamados perímetros
de contención urbana segmentados por su ubicación en base a 3 criterios.
El perímetro U1, se refiere a la zona intraurbana que dispone de infraestructura, servicios y concentra unidades económicas con más de 250 empleos,
el U2 está definido por la zona donde al menos 75% de la vivienda cuenta
con servicios de agua, drenaje e infraestructura y el U3 constituye un borde
virtual de contención de la expansión de las ciudades marcando las zonas
contiguas de crecimiento al área urbana consolidada (es un polígono que
circunscribe a los contornos U1 y U2).
Las nuevas reglas de operación del programa de esquemas de financiamiento y subsidio federal para vivienda responden a dichos contornos; continúan
operando bajo un esquema de puntaje sin embargo ahora es clara la diferencia en el monto del subsidio según la ubicación de la vivienda en los
perímetros establecidos por la CONAVI; las reservas territoriales ubicadas
fuera de estas zonas requerirán un proceso de certificación para dotarla de
infraestructura y los servicios necesarios para su urbanización y conectividad.
En 2014 los desarrolladores construyeron y comercializaron vivienda en
esas zonas a través del Infonavit y Fovissste, sin embargo ésta no recibió subsidios y a partir de 2015 los créditos de estos organismos estarán restringidos
para la vivienda construida fuera de los perímetros autorizados.
Las nuevas reglas buscan incentivar la ubicación de la vivienda al interior
del área urbana con el objetivo de potenciar el suelo urbanizado, ya que
la política de vivienda de los últimos años y la provisión de servicios de
204
forma reactiva para conectar zonas periféricas con la mancha urbana impactaron significativamente el mercado de suelo. En las últimas décadas el
suelo en las ciudades ha perdido su función social, transformándose en una
mercancía que incrementa su precio continuamente, tornándose inaccesible para los sectores de menos recursos, propiciando la apropiación ilegal
de espacios en las periferias de las ciudades y concentrando la actividad de
los desarrolladores en las zonas rurales.
Con los cambios en las políticas y las reglas de operación actualizadas, el
gobierno federal busca mantener un equilibrio entre los objetivos de la política y las particulares circunstancias por las que atraviesa la industria de
la vivienda con el ánimo de generar el menor impacto posible en las empresas. Si bien las modificaciones son graduales sientan las bases para un
crecimiento urbano más ordenado a mediano plazo.
Los retos en materia de suelo urbano y rural son sustanciales, se estima que
existen 5 millones de lotes habitacionales irregulares en el país; la Comisión
para la Regularización de la Tenencia de la Tierra (Corett) ha escriturado
cerca de 2.7 millones de lotes desde su creación en 1974, sin embargo el
ritmo de su acción regularizadora ha disminuido, en 2012 escrituró menos
de 16 mil propiedades comparado con 119 mil en 1998, lo que equivale a
una disminución de 750%, no obstante el suelo una vez regularizado eleva
su precio llegando a compararse con los precios en el mercado formal.
Datos de la Sedesol indican que en las 129 ciudades con población mayor
a 50 mil habitantes en 2010 existían 493,817 hectáreas de suelo apto para
incorporarse al desarrollo urbano, de las cuales 86,408 hectáreas son intraurbanas, de acuerdo a los programas de desarrollo urbano local, 207,074
tienen uso habitacional, de estas 41,351 son intraurbanas y 165,723 se localizan en el primer contorno de crecimiento de los centros de población,
este suelo vacante identificado tiene potencial para albergar 7.1 millones de
viviendas.
Como ejemplo, al referirnos al estado de Guanajuato, destaca que es un
estado eminentemente urbano, cuenta con 13 ciudades: León con más de
un millón y medio de habitantes, Celaya con más de quinientos mil; cinco
ciudades con una población mayor a los cien mil habitantes y seis ciudades
que rebasan los cincuenta mil habitantes. Acorde al Censo de Población
2010, Guanajuato cuenta con una población de 5,486,372 habitantes, de
los cuales 3,539,994 habitan en ciudades.
Sería importante analizar la expansión que han tenido estas ciudades, y derivado de ello el territorio intraurbano vacante o subutilizado que pueda ser
205
integrado en el desarrollo de la ciudad y de la vivienda, sin necesidad de
incorporar suelo contiguo al área urbana actual. Esa sería una de las trascendentes acciones en materia de sustentabilidad.
Los recientes anuncios realizados por la SEDATU, indican que a través del
establecimiento de las renovadas políticas públicas en materia de vivienda,
al inicio de 2015 se han generado resultados visibles. Destacan los siguientes:
• En 2014, 35% de la vivienda se hizo en la modalidad de vivienda vertical.
• El 63% de la oferta de vivienda se ubicó dentro de los perímetros de
contención urbana.
• El 78% de los subsidios fueron para vivienda intraurbana.
• El 82% de los subsidios se ejerció en apoyo a familias con ingresos menores a 2.5 veces el salario mínimo.
En 2015 el INFONAVIT incrementó hasta 850 mil pesos el monto máximo
de crédito a la vivienda. Asimismo, la CONAVI incrementó el monto a 5.5
salarios mínimos.
FOVISSSTE otorgará 630 mil créditos, en pesos y a tasa fija.
Por su parte, Sociedad Hipotecaria Federal (SHF), acumuló más de 266 mil
acciones con una inversión de 30 mil millones de pesos en créditos directos.
Logros significativos que son indicativos de una adecuada estructuración del
sector vivienda, la consolidación de nuestras ciudades y el liderazgo de la
SEDATU.
Para finalizar menciono el estudio realizado por la Organización para la
Cooperación y el Desarrollo económico (OCDE) “México, Transformando la
Política Urbana y el Financiamiento de la Vivienda”, presentado el pasado 6
de enero por su Secretario General el Lic. Ángel Gurría, donde recomienda:
“La adopción e implementación de una política de vivienda más flexible
y el fortalecimiento de la política nacional de desarrollo urbano. México
tiene que pasar de la construcción de casas a la construcción de ciudades
habitables, que combinen la infraestructura, los servicios, y los medios de
transporte, con la cercanía al lugar de trabajo”.
206
Creación de sistemas de telemedicina basados en un modelo de
diseño a partir de una perspectiva Living Lab
Yadira Alatriste Martínez1,3, Ana Belén Cerezuela Jordán1,2,
Josep María Monguet Fierro1, Marco Vinicio Ferruzca Navarro3
Universidad Politécnica de Cataluña, 2Hospital de la Santa Creu
y Hospital Sn Pau, 3Universidad Autónoma Metropolitana
1
[email protected], [email protected], [email protected],
[email protected]
Resumen
En la Unión Europea y otros países los Living Labs son entornos de innovación, donde existen diversos elementos que favorecen varios espacios de
innovación en conjunto con los usuarios finales. Además la combinación
de asociaciones publicas y privadas en las que se encuentran involucradas:
empresas, investigadores, autoridades y ciudadanos trabajan de manera adyacente para de mejorar la calidad de vida de las personas, todo ello dentro
de un contexto real. Desde ésta perspectiva, los Living Labs promueven la
participación de los usuarios en los procesos de desarrollo en su propio
contexto, mediante la comunicación de necesidades a través de experiencias, logrando un enfoque de innovación abierta. Para esto, se ha divido el
artículo en dos partes cumpliendo un doble propósito: (1) un Marco Teórico
Conceptual de los Living Lab, y (2) la propuesta de un modelo de diseño
para la creación de sistemas de telemedicina.
Palabras Claves: Diseño, Living Labs, stakeholders, telemedicina, telerehabilitación, espasticidad, investigación.
Abstrac
In the European Union and some other countries, the Living Labs are innovation spaces in which different elements help to innovate along with the
final users. Also, the combination of private and public associations that
are involved: enterprises, researchers, authorities and citizens work jointly
to improve the quality of life of the people, all of this within a real context.
From this perspective, the Living Labs promote the participation of the users
in the development within their own context by the communication of needs through experiences, achieving an open innovation approach. For this
matter, the article has been divided in two parts with a double purpose: (1) a
Conceptual Theoretical Framework of the Living Labs and (2) the proposal of
a design model for the creation of telemedicine systems.
207
Key words: Design, Living Labs, stakeholders, telemedicine, telerehabilitations, spasticity, research.
Living Labs
Los Living Labs son considerados en la Unión Europea y en varios países
del mundo como entornos de innovación (Ståhlbröst, 2008), donde existen
diversos elementos que favorecen estos espacios, que en conjunto con los
stakeholders, clientes, competidores, usuarios finales, además de la combinación de asociaciones publicas y privadas en las que las empresas, investigadores, autoridades y ciudadanos trabajan juntos para la creación, validación y pruebas de servicios, ideas de negocio, mercados y tecnologías
dentro de un contexto real. (Eriksson, 2005).
Antecedentes
Examinando el origen del concepto de Living Lab, la opinión más reconocida es la de Ståhlbröst (2008), para quien la idea de Living Lab comenzó
a desarrollarse a finales de 1990 y una de las primeras instituciones que lo
uso fue la Georgia Institute of Technology, donde se desarrolló la tecnología
para capturar la experiencia en vivo de una situación educativa y ofreció el
acceso a los usuarios para su posterior revisión.
El crecimiento del movimiento Living Lab surge en el año 2006 con la red
llamada European Network of Living Labs (EnoLL) bajo la dirección de una
pequeña consultora Danesa, estaba integrada por 19 Living Lab de 15 países Europeos. (Almirall: 2008) La segunda la conformaban 51 miembros de
18 países, la tercera estaba integrada por 129 miembros, la cuarta por 212
y para el 2011 la conformaban 264 miembros, se han agregado 62 nuevos
miembros de 48 ciudades de la Unión Europea (UE) siendo España uno de
los países con la mayor cantidad de Living Labs con 57 y en algunas ciudades extranjeras son 12. El dato aportado para el 2014 son 340 miembros La
séptima ola de nuevos miembros ENoLL fue publicado en la Summer School
Manchester ENoLL Living Lab e1 30 de agosto de 2013.
Katzy (2008) define “Living Labs” como un término que ha sido adoptado en
el Espacio Europeo de Investigación desde 1980 donde se implementaron
algunos programas de innovación estratégica por European Strategic Programme for Resarch an Development in Information Technology (ESPRIT). El
término Living Lab fue introducido en el debate público por el Ministro Finlandés durante su mandato como presidente de la Unión Europea en 2006.
Su objetivo era poner en marcha un instrumento de innovación en respuesta
a la falta de rendimiento aparente de Europa, la llamada Agenda de Lisboa,
para convertir los niveles avanzados de investigación sobre el crecimiento
208
económico mensurable. Con la creación de la EnoLL, fue un instrumento
que le dio un cuerpo político y un marco institucional, regida en ese tiempo
por la Presidencia de la Unión Europea por Portugal y Eslovenia. Recientemente se ha publicado en la página Web de EnoLL el registro de 370 Living
Labs acreditadas hasta el 2014.
Figura 1. Mapa territorial de los Living Labs 2014 (Extraído el 10.02.2015 de http://www.
openlivinglabs.eu/news/9th-wave-membership-applications-officially-open).
Definición de Living Lab
Algunos autores como Veli-Pekka Niitamo (Nokia, 2009) consideran que el
término de Living Lab fue usado por primera vez por el profesor Bill Mitchell
del MIT de Boston alrededor de 1995.
Ericksson (2005) define a los Living Labs como una metodología I+D donde
las innovaciones, servicios, productos y mejoras de la aplicación, son creadas y validadas en colaboración empírica multi-contextual del mundo real.
Esta definición implica que los seres humanos son considerados como fuentes de colaboración de innovación, no sólo participan para probar, validar
productos y servicios. A partir de la trascendencia de la innovación abierta
surgen los entornos vivos de colaboración denominados “Living Labs”, que
se ven influenciados por el enfoque de Chesbrough (2003) sobre la Web 2.0
y específicamente del paradigma de innovación abierta, para el autor tiene
el objetivo de facilitar la creatividad, el intercambio de información y la
colaboración entre los usuarios y clientes, buscando que ellos sean las nuevas fuentes de ideas para futuros productos y soluciones (Dearstyne, 2007;
Leibs, 2008; Walters, 2007).
209
El fenómeno de los Living Labs se extiende a otras disciplinas como la investigación-gestión de la innovación, diseño centrado en el usuario (DCU),
el espíritu empresarial, la ciencia cognitiva, la conciencia del contexto, la
Interacción ser Humano Computadora (HCI), informática y computación social. Kviselius et al, (2008)
Følstad, A. (2008), menciona que el término se ha utilizado desde los años
90, Lasher (1991) también empleó el término para describir el uso de las
asociaciones de cooperación y los ensayos de campo a partir de 1991. Føstad describe tres categorías de Living Labs:
1) Living Labs para experiencia y experimentación con computación ubicua
2) Living Labs como plataformas de innovación abierta
3) Living Labs como banco de pruebas de las aplicaciones para usuarios
Según Lepik, Krigul & Terk (2010), un Living Lab puede considerarse también
un sistema para construir una economía de futuro en el que la investigación
basada en la vida real del usuario y la innovación sea una técnica normal
de co-creación de nuevos productos, servicios e infraestructura social. Consideran como primordial la idea de que un Living Lab ofrezca servicios que
permitan a los usuarios tomar parte activa en la investigación e innovación
e incidir de esta forma en su propio contexto social.
La EnoLL define a los Living Lab como un entorno de prueba y experimentación donde los usuarios y productores pueder co-crear innovación, además
cuenta con cuatro actividades principales: co-creación, exploración, experimentación, evaluación.
El enfoque de los Living Labs es promover la participación de los usuarios
en los procesos de desarrollo en su propio contexto, mediante la comunicación de sus necesidades mediante sus experiencias, logrando un enfoque de
innovación abierta mediante su participación.
Entornos Living Labs relacionados con el contexto de salud
En 2006 se fundó el Instituto Tecnológico de Europa Central (CEIT) es un
Centro de Investigación Aplicada y Desarrollo, se encuentra situado en la
ciudad de Schwechat, en Viena. Son especialistas en urbanismo, transporte,
medio ambiente y sociedad de la información además de Ambient Assisted Living (AAL). Caracterizado en tecnologías para la rehabilitación y la
asistencia domiciliaria, en donde existen autoridades locales, proveedores
de servicios sociales, las personas mayores, los cuidadores, las entidades
de investigación y las empresas están trabajando en conjunto con el fin de
210
inventar, discutir, explorar, implementar y evaluar las nuevas tecnologías de
apoyo a la calidad de vida y la vida independiente de las personas mayores.
En el Living Lab de Schwechat se empezó a trabajar tres proyectos enfocados a los adultos mayores: “E-Home”: sistema de monitoreo para incrementar la seguridad y autonomía de los adultos mayores; “E-Shoe”, zapato con
sensores para evitar la caída de las personas mayores: “interactive picture
frame” sistema de telefonía con imágenes de personas. (Panek, 2008).
Otro desarrollo es el de Kanstrup et all (2010) que alude un estudio Living
Lab para personas con diabetes utilizando un iphone como dispositivo móvil para llevar un control de los alimentos que contiene información básica
sobre energía, proteínas, grasa e hidratos de carbono. La aplicación contiene información sobre restaurantes y panaderías de la ciudad en el Norte de
Dinamarca donde se realizó el experimento.
El centro de investigación es TestBed Botnia instaurado en 2000, sus orígenes empiezan en el Centro de Aprendizaje a distancia de la Universidad
de Lulea y es el Living Lab sueco más antiguo. Su perspectiva Living Labs,
comprende desde la búsqueda de necesidades de co-desarrollo o validación
de tecnologías, servicios o productos. También cubre una gama de servicios, desde las tecnologías de necesidades de investigación a la ideación,
conceptualización, co-desarrollo o prueba Living Lab en móviles, nuevos
medios de comunicación y de TI. Su enfoque es principalmente cualitativo
en términos de metodológicos, sobresaliendo en las necesidades de investigación, diseño participativo y participación de los usuarios. Uno de los
proyectos principales es AALIANCE2 , financiado por el Programa de las TIC
de la Comisión Europea dentro del Programa Marco Europeo. Subject of the
Coordination Action will be Ambient Assisted Living (AAL), esta basado en
tecnologías avanzadas de TIC para el envejecimiento y el bienestar de las
personas mayores en Europa. El proyecto esta apoyado por varios socios:
Scuola Superiore di Studi Universitari e di Perfezionamento Sant’Anna, Italia, OFFIS EV, Alemania, Tunstall Healthcare Ltd., Reino Unido, Deutsche
Telekom AG, Alemania, Fundación Tecnalia Research & Innovation, España,
EDAD Plataforma Europa, Bélgica, Stichting ZuidZorg, Holanda. (Almirall &
Wareham 2008:28)
I-City – Bélgica, es un Living Lab que permite la investigación orientada al
usuario y la colaboración entre centros de investigación, la industria y el gobierno, fue fundado en 2003 con la intención de crear aplicaciones móviles;
es una organización responsable de las dos ciudades flamencas digitales en
Bélgica: Hasselt y Lovaina, oficialmente a partir del julio de 2004 sus principales socios son: Microsoft, Telenet, Nokia- Siemens, Concentra y Fujitsu211
Siemens. Su actividad central es el uso de las tecnologías móviles sobre
eSalud, la administración electrónica, los nuevos medios de comunicación,
los servicios y los dispositivos móviles. Su enfoque metodológico reside en
el diseño participativo y gira en torno a la participación de medio - grandes
grupos de usuarios en la validación de conceptos y la validación de prototipos en entornos reales utilizando las herramientas proporcionadas por la
plataforma móvil, además de las metodologías cualitativas habituales como
el enfoque grupos, etc ... (Íbidem: 3)
En España el i2Cat - Barcelona es una fundación es una asociación públicoprivada constituida por tres universidades, alrededor de diez empresas privadas y el Secretario de la Sociedad de la Información del Gobierno regional
catalán. Abrió operaciones en 1999. Uno de lo proyectos más importantes
es Teleictus creado en 2007 para el apoyo del Dr. Ismael Cerdà en el Hospital General de Vic, su objetivo principal es el manejo del ictus isquémico y
los avances recientes hacia tratamientos más complejos. Para hacer posible
el proyecto Teleictus, el Departamento de Salud de la Generalidad de Cataluña cuenta con el apoyo del Servicio Catalán de la Salud, la Fundación
TicSalut, la Fundación i2CAT y la Agencia de Información, Evaluación y
Calidad en Salud, bajo las directrices del Plan director de la enfermedad
vascular cerebral del Departamento de Salud.
El proyecto permite la conexión en red multidireccional y móvil de un neurólogo vascular experto con todos los centros de referencia y comarcales
con Teleictus. La conexión permite la evaluación conjunta del paciente y la
decisión de tratamiento y/o la derivación del paciente al centro adecuado. El
sistema permite trabajar desde estaciones portátiles desde las que se pueden
establecer sistemas de multiconferencia a triple banda, entre el especialista en neurología, el hospital comarcal y los nodos terciarios, mediante los
cuales podrán visualizar el paciente y la imagen radiológica exploratoria
correspondiente. (Íbidem: 32)
En la Universidad Politécnica de Cataluña especialmente en el Laboratorio de Aplicaciones Multimedia (LAM), se han desarrollado nueve proyectos eHealth que a continuación se detallan en una tabla, exponiendo datos
como grupo de investigador, objetivo investigado, grupo crítico de referencia y beneficiario.
212
Tabla 1. Sistemas de eHealth desarrollados por el Laboratorio de Aplicaciones multimedia.
(Modificado de Rivero, Y. 2010).
Investigador
Objeto investigado
Grupo crítico de referencia
Beneficiario
Médicos nefrólogos expertos
bajo la dirección y coordinación
Especialistas o médicos en formación
de la Dra. Pilar Arrizabalaga
en el área de nefrología de centros de
adscrita al Servicio de Nefrología
España e Iberoamérica
del Hospital Clínic i Provincial de
Barcelona
e-FREN
Grupo de investigación
COLS: diseño, tecnología,
gestión
e‐FREN: Programa de formación online de médicos
nefrólogos
e‐nen
Grupo de investigación
COLS: diseño, tecnología,
gestión
Entorno de formación online
para el personal de enfermería Instituto catalán de Salud (ICS)
en el ámbito de pediatría.
e‐xposangre
Grupo de investigación
COLS: diseño, tecnología,
gestión
e‐xposangre, una red social,
Generalitat de Catalunya,
Organizaciones, jóvenes y público en
una base de conocimiento y
Departament de Salut, Direcció
general, expertos, escuelas , donantes
una exposición virtual sobre la
General de Recursos Sanitaris
donación de sangre
e-blood
Grupo de investigación
COLS: diseño, tecnología,
gestión
Simulador virtual del proceso Hospital de la Santa Creu y
de donación de sangre.
Hospital Sn Pau
Donadores de sangre y público en
general e-schi
Grupo de investigación
COLS: diseño, tecnología,
gestión Tesis Doctoral
e‐schi, es un programa de
apoyo para personas con
esquizofrenia Hospital Psiquiátrico Sant Joan
de Deu de Barcelona
Médicos y pacientes del Hospital
Psiquiátrico Sant Joan de Deu de
Barcelona y del Hospital Magalhães
de Lemos
e-fer
Grupo de investigación
COLS: diseño, tecnología,
gestión Tesis Doctorales
e‐fer, es un sistema de apoyo
online para estudiantes de Licenciatura en Enfermería para
diagnosticar y tratar pacientes
virtuales y se evalúan los resultados obtenidos en el ámbito
del Blended Learning.
Estudiantes de Licenciatura en
enfermeria provenientes de
escuelas de Leiria y Guarda en
Portugal
Estudiantes de Licenciatura en Enfermería para diagnosticar y tratar
pacientes virtuales y se evalúan los
resultados obtenidos en el ámbito del
Blended Learning.
e-tona
Grupo de investigación
COLS: diseño, tecnología,
gestión Tesis Doctoral
e-tona, es un sistema de
control para la alimentación
de niños con problemas de
obesidad.
Unitat de Tèrapia de Conducta Especialistas en psicología, nutrición y
de la Facultad de Psicología de la conducta. niños con problemas de
obesidad
Universidad de Barcelona
e-DIS
Grupo de investigación
COLS: diseño, tecnología,
gestión Tesis Doctoral
e-dis es un sistema para apoHospital de la Santa Creu y
yar el tratamiento de personas
Hospital Sn Pau
con disfagia. Médicos y pacientes del Hospital de la
Santa Creu y Hospital Sn Pau
e-Park
Grupo de investigación
COLS: diseño, tecnología,
gestión
Plataforma de gestión de
pacientes con Parkinson.
Médicos y pacientes del Hospital de la
Santa Creu y Hospital Sn Pau
Hospital de la Santa Creu y
Hospital Sn Pau
Dirigido a enfermeras de pediatría
Huerta E. (2012:118) Explica que los artefactos anteriores fueron desarrollados mediante un método incremental de diseño basados en las propuestas
de Gerhard Pahl y Wolfgang Beitz (1996) pero tomando en cuenta los principios del diseño colaborativo y haciendo caso de las modificaciones que
plantea este nuevo paradigma con respecto a los métodos tradicionales de
desarrollo de productos.
Metodología Living Lab
Existen diversos modelos de metodológicos para la creación y desarrollo
de los Living Labs, entre los más destacados encontramos el esquema pu213
blicado en el libro “The Living Lab Metodology Handbook” que muestra
cada fase el proceso de metodología FORMIT utilizada en el ahorro de
energía por ENoLL Botnia y Wireless Trondheim, se basada en tres corrientes teóricas: Soft Systems Thinking, Appreciative Inquiry, and NeedFinding.
La metodología subraya fuertemente la importancia de la primera fase en el
ciclo de diseño de concepto, normalmente se conoce como análisis o la ingeniería de requisitos, en esta fase los usuarios pueden hacer contribuciones
importantes. Desde esta fase se crea la base para el resto del proceso y se
pueden evitar errores que posteriormente se vuelven costosas y difíciles de
solucionar en otra fase.
El esquema es presentado en forma de espiral en el que se indican tres ciclos
principales: el ciclo de diseño de concepto, el diseño de prototipo y el ciclo
de innovación, también lo conforman dos ciclos adicionales que es el ciclo
de planeación al inicio del espiral y el ciclo de comercialización al final de
la espiral. En cada ciclo existen tres fases que son: oportunidades apreciadas, diseño y evaluación. También se puede notar tres aspectos dentro de
cada fase: uso, negocios y tecnología. Ståhlbröst, A. & Holst M. (2013).
Figura 2. Metodología FORMIT de Ståhlbröst, A. & Holst M., (2013) p. 24.
Aplicación de la Metodología FORMIT
El siguiente apartado muestra la aplicación de la Metodología FORMIT de
Ståhlbröst, descrito en cada fase de la metodología en un sistema de teleme214
dicina y aplicado a un contexto real. El sistema es llamado eSpasti.
Ciclo 1: Planeación
La fase de planeación es importante para obtener la mayor cantidad de la
información, en ella se mezclan diferentes competencias para el intercambio de conocimientos y las visiones entre los stakeholders, en esta fase es
importante mantener un enfoque continuo y de confianza entre las partes
interesadas. Se señalan cinco principios fundamentales: 1) crear valor para
los usuarios, 2) la influencia de los usuarios en el proceso, 3) sostenibilidad
del proyecto, 4) apertura en el proceso, y por último 5) una situación real
(Ståhlbröst, A. & Holst M., 2013: 26)
Como se menciona en el párrafo anterior, la fase de planeación surge por
un interés, en este caso por la intención de un grupo de profesionales en el
campo médico y en el área de ingeniería preocupados por un tratamiento
novedoso para los pacientes con problemas de rehabilitación física. Inicialmente se ideó un proyecto llamado e-dis que es “Un sistema online de soporte a la rehabilitación de la disfagia, que tiene como objetivo principal de
apoyar a médicos y especialistas al tratamiento de los pacientes con dicha
enfermedad” Bascuñana (2012). Es importante destacar que el sistema e-dis
se planeó mediante un método incremental de diseño, que dio buenos resultados. Sin embargo para la realización de la propuesta del sistema eSpati,
se apostó por una metodología Living Lab. Por consiguiente la idea inicial
de eSpasti surge por un grupo de profesionales en el campo médico y en el
área de ingeniería preocupados por un tratamiento novedoso a los pacientes
con problemas de rehabilitación física.
La premisa inicial del sistema eSpasti es apoyar la terapia de rehabilitación
y permitir a los pacientes realizar sus ejercicios de terapia desde la comodidad de su domicilio, mediante el uso de un sistema de telemedicina que
apoya el monitoreo y seguimiento de pacientes espásticos, es evidente que
dicha afección neurológica perjudica de modo significativo la calidad de
vida del paciente y de la familia, del tal modo que un sistema con tales características puede ser benéfico para médicos, pacientes, cuidadores y otros
especialistas. En este propósito se tomaron en cuenta algunas necesidades
especificas de los pacientes tratados con toxina botulínica en el miembro
inferior; en conjunto con varios especialistas del área de rehabilitación física y fisioterapia del Hospital Santa Creu i Sant Pau, se plantearon ejercicios
puntuales para apoyar las dificultades asociadas con la movilidad de los
pacientes con grado de espasticidad leve y moderada.
Hechas las consideraciones anteriores se propuso una serie de ideas y conceptos para la realización de todo el proyecto; el sistema esta garantizado
por la experiencia de investigación en proyectos de eHealth desarrollados
por el Laboratorio de Aplicaciones Multimedia (LAM) dentro del Programa
215
de Doctorado en Ingeniería Multimedia (DIM) de la Universidad Politécnica
de Cataluña.
Ciclo 2: Diseño de concepto
Este ciclo se centra en la apreciación de oportunidades y en la generación
de las necesidades básicas que los diferentes actores tienen del producto o
servicio. El ciclo debe terminar en un concepto, que representa las necesidades generadas a partir de la primera etapa de planeación, donde se define:
el alcance del proceso, el grupo objetivo de usuarios, sus características y
la participación de estos en el proceso. Este proceso se apoya en la obtención de una visión nutrida de los diferentes actores y grupos de usuarios, así
como también sus comportamientos, actitudes y valores. Una vez finalizado
el proceso de recolección de datos, deben ser analizados y traducidas en
conceptos lo suficientemente detallados para que los usuarios puedan entender el objetivo básico de la innovación. (Ståhlbröst, A. & Holst M., 2013)
Como se puede observar, en la fase de diseño de concepto del sistema eSpati se valoraron las oportunidades y necesidades básicas que tienen los diferentes actores del producto o servicio. En este caso, el problema de salud,
representa una oportunidad, debido a que la espasticidad que es una paresia
espástica como consecuencia del síndrome de la motoneurona superior que
comprende síntomas positivos (reflejos tendinosos vivos, clonus, fenómeno de la navaja, espasmos, hiperreflexia autónoma, distonía y contracturas)
y síntomas negativos (paresia, falta de destreza, fatigabilidad y sincinesias)
Arroyo et al (1998). Es necesario indicar que los pacientes con espasticidad
son personas con grandes limitaciones de movilidad y dependen de un cuidador y/o familiar para llevar a cabo sus actividades básicas diarias (asearse,
alimentarse, vestirse, caminar, etc).
La espasticidad puede afectar la movilidad del paciente, además de complicar su confort, su cuidado y su propia imagen corporal. Algunas de las
complicaciones músculo esqueléticas que incluyen contracturas, dolor y subluxaciones óseas. Los pacientes presentan cuatro características distintivas:
1) aumento del reflejo de estiramiento, 2) liberación de los reflejos osteotendinosos, 3) pérdida de destreza y 4) debilidad.
Se ha demostrado que la asociación de terapias físicas a la toxina botulínica,
genera mejores resultados de dolor y función en el miembro inferior que la
aplicación de la toxina como único tratamiento. Está terapia adyacentes a
la aplicación de la toxina, son los estiramientos músculo tendinosos (Watanabe T., 2004) de las áreas infiltradas, ya que tienen un efecto prolongado
sobre la relajación del músculo y la potenciación de los músculos antagonistas (Ada, 2006) debido a que mejoran la actividad funcional resultante. A
216
continuación se hace una breve descripción sobre el proceso de tratamiento con toxina botulínica tipo “A” para los pacientes con espasticidad en el
miembro inferior.
El abordaje que este tipo de tratamiento implica una terapia sistematizada
y controlada debido a que el tiempo de duración del fármaco (3 a 6 meses)
repercute en todo el proceso de tratamiento del paciente y por lo tanto se
planea un sistema de vigilancia del mismo. Para conocer un poco sobre
la aplicación del fármaco en pacientes con espasticidad se detalla el uso
y forma de evolución del efecto del mismo. La indicación y aplicación de
la toxina botulínica para la espasticidad focal en la extremidad inferior es
un acto médico que debe de realizarse en un Hospital por un especialista
formado específicamente para dicho propósito (médico rehabilitador, neurólogo, anestesiólogo, entre otros). La forma tradicional (usual care) de evaluar el efecto de la toxina botulínica en el miembro inferior, se basa en la
asistencia al hospital para realizar una exploración física, evaluar la forma
de caminar y sus características, así como la cumplimentación de escalas
clínicas de calidad de vida, dolor y de dependencia de otros para sus cuidados básicos, entre otras, que el paciente y/o su familiar/cuidador deben
realizar de forma presencial en el hospital que es donde se encuentra el
especialista. El paciente debe acudir a dicha evaluación entre las 3-5 semanas después de la infiltración de la toxina, momento de máximo efecto y,
hacia las 12-24 semanas, momento de inicio de retirada de efecto. En ambas
momentos, solo se aplicarán las medidas de resultado basadas en escalas
auto-administradas y visualización de postura del miembro inferior en la
bipedestación y la marcha.
Para detectar las oportunidades apreciadas es necesario responder a varias
interrogantes como: el propósito del proyecto, lo que se quiere lograr y de
que forma los usuario pueden participar como co-creadores en el proceso.
El objetivo es obtener ideas sobre lo que hay usuarios pueden aportar como
innovación, la recopilación puede ser por entrevistas a grupos focales.
Hlauschek, et al. (2009), mencionan que es importante la participación de
los usuarios en proyectos de asistencia tecnológica, además se deben tomar
en cuenta las necesidades y prioridades de los usuarios mismos que deben
desempeñar un papel dentro de la cadena de innovación. El sistema eSpasti
fue ideado con el objetivo principal de mejorar de modo significativo la calidad de vida del paciente.
Algunos expertos señalan que los pacientes pueden influir en la evolución,
adaptación y decisión de las políticas y servicios relacionados con la atención de salud. Pueden mostrar sus necesidades y hacerlas llegar más fá217
cilmente y de una forma más directa. Su participación puede influir en la
evolución, adaptación y decisión de las políticas de servicios relacionados
con la atención de sanitaria.
Concepto de diseño
El objetivo es desarrollar conceptos o prototipos aproximados basados en las
necesidades construidos a partir de la primera fase. Los conceptos necesitan
ser lo suficientemente detallada para que el usuario entienda el objetivo
básico con las funciones.
Para principiar el proceso de diseño, se realizó un estudio teórico sobre
los temas concernientes al problema de espasticidad, telemedicina y Living
Labs en el campo de la eSalud, entre otros, con el objetivo de apoyar los
contenidos del sistema. La planeación se llevo a cabo por miembros del
equipo de diseño y desarrollo del DIM, y especialistas de el Área de Rehabilitación Física del Hospital de la Santa Creu i Sant Pau se recibió el apoyo
directo de la Dra. Cerezuela y la Dra. Bascuñana, además se contó con el
apoyo de otros médicos especializados y terapistas en rehabilitación física
del mismo hospital. Larsen (2002) explica que en escenario donde trabajan
varios profesionales además de su capital intelectual requerirán de otro tipo
de habilidades para colaborar con otros miembros del equipo y entender
cómo la comunicación y el desarrollo de productos pueden realizarse de
manera efectiva en el lugar virtual de trabajo, de igual forma el equipo de
especialistas en el tratamiento de rehabilitación seleccionó y analizó minuciosamente cada unos de los ejercicios y contenidos para el usuario en
conjunto con el equipo de diseño, para proponer la interfaz gráfica de usuario (IGU) que representa la parte creativa y visual del sistema para lograr la
comunicación efectiva entre los pacientes y los especialistas.
Por otro lado, el equipo de desarrollo después ver la propuesta de diseño
apoyó la programación y ejecución de los contenidos del sistema por parte
del Ing. Alex Trejo.
Fase 3: Diseño del prototipo
En esta fase el prototipo tiene que ser lo suficientemente detallado para los
usuarios entender y ser capaz de experimentar cómo el servicio final se verá
y se siente. Esto conduce a la evaluación que se centra en los aspectos de
usabilidad.
Para conocer los componentes del sistema se realizó el briefing del proyecto que incluye información primordial proporcionada por los especialistas
218
para planear el primer prototipo de diseño. También se utilizó información
complementaria mediante el uso de entrevistas directas a especialistas, análisis de necesidades, campo de estudio, grupo(s) de enfoque, entre otros.
Consecutivamente se planteó un diagrama general de las acciones del usuario para determinar la IGU, así como la distribución de los contenidos y
áreas importantes del sistema. Finalmente organización del sistema eSpasti
se compone de tres áreas de gran importancia: (a) tareas, (b) terapia y (c) progreso. Cada área contiene información suficiente para que el usuario realice
sus actividades correspondientes.
Perfil de los usuarios
Tomando en cuenta las necesidades del sistema se definió cada perfil con el
fin de realizar la propuesta de la interfaz gráfica de usuario personalizada:
Tabla 2. Perfiles de usuario.
Usuarios
Características del perfil
Médico rehabilitador
En el Ministerio de Sanidad y Consumo de España, Medicina Física y Rehabilitación (MFR) lo define
como un especialista médico al que concierne el diagnóstico, evaluación, prevención y tratamiento de
la incapacidad encaminados a facilitar, mantener o devolver el mayor grado de capacidad funcional e
independencia posibles. El médico debe conocer el proceso de tratamiento con toxina botulínica tipo
“A” para los pacientes con espasticidad, además identificar el padecimiento especifico del paciente.
Terapeuta
La Confederación Mundial para la Fisioterapia, afirma que son especialistas que tienen como objetivo
facilitar el desarrollo, mejoría y recuperación de la máxima funcionalidad y movilidad del individuo,
además es capaz de apoyar mediante la aplicación de ejercicios específicos para cada paciente.
Otros especialistas
Profesionales afines al proceso de rehabilitación pacientes con espasticidad mediante tratamiento
con toxina botulínica tipo “A” para los pacientes con espasticidad.
Paciente
Persona diagnosticadas con espasticidad bajo tratamiento con toxina botulínica tipo “A” con espasticidad en el miembro inferior
Cuidador/Familiar
Responsable directo de apoyar la rehabilitación terapéutica del paciente.
Administrador del
sistema
Es el responsable de gestionar y mantener actualizado la información del sistema.
Arquitectura de la Información
Hassan Y. & Montero S. (2009), mencionan que “la arquitectura de información es la actividad y resultado de organizar, clasificar, ordenar, estructurar y
describir los contenidos de un sitio web, con el fin de que sus usuarios puedan satisfacer sus necesidades informativas con el menor esfuerzo posible”.
En el mismo sentido Ronda-León, (2008) recomienda la creación de diagra219
mas mediante dos tipos: blueprints (mapa de arquitectura) y diagramas (wireframe, mockup o prototype) tienen el objetivo de “mostrar el contenido de
las páginas” (Rosenfeld & Morville, 2008). Para el sistema eSpasti se muestra
un diagrama de funcionamiento avanzado.
Figura 3. Diagrama de funcionamiento avanzado del sistema eSpasti.
La figura anterior representa gráficamente la estructura de los contenidos del
sistema, desde la pantalla inicial y las distintas áreas, también se indican las
escalas que tienen que responder cada usuario específicamente en el área
de tareas.
Interfaz Gráfica de Usuario
El diseño es la actividad capaz de crear un solución visual para resolver
problemas de comunicación, Richard Seymour en el Design Council en Business Week 2002 en Londres, afirmó que el diseño está “haciendo cosas
mejores para las personas” centrando en primer lugar el comportamiento
humano y la calidad de vida. En las TI se habla de interfaz gráfica de usuario, algunos autores como Galitz (1996) manifiesta que es una colección de
técnicas y mecanismos para interactuar con algo, en este caso un sistema
con el suficiente detalle visual que permita a todos los usuarios tener una
comunicación visual y gráfica mediante un sistema Web que permita apoyar
la rehabilitación de los pacientes.
El sistema está considerado para favorecer la rehabilitación de la espastici220
dad a distancia y de manera asincrónica, es decir que los usuarios puedan
realizar su rehabilitación desde la comodidad de su domicilio o en cualquier otro lugar en el momento que el paciente prefiera y especialmente en
algunos casos en los que el médico no pueda hacer un seguimiento físico de
la persona. En tal sentido el sistema debe recoger toda la información de las
escalas y progresos del paciente, mismos que se visualizan de forma optima
para el médico.
Desde esta una perspectiva general, el diseño debe estar planteado de manera fácil y útil para una mejor comunicación entre ambos. Finalmente,
derivado de las consideraciones anteriores, el primer prototipo de diseño
se ajustó a una interfaz personalizada que dependía del perfil del usuario y
los requerimientos para cada uno. El sistema es apoyado en la co-creación
y el diseño participativo de una comunidad de usuarios potenciales que
aportan nuevas ideas para su implementación y mejora constante, lo que
implica que las aportaciones de los usuarios permiten un diseño adecuado
para el tratamiento del paciente, obteniendo mejores resultados por este
medio. Además, el sistema también permite que los médicos y especialistas
tengan un acceso a los registros del paciente de manera mas accesible sin la
necesidad de coincidir dentro del hospital con el paciente.
Fase 4: diseño de la innovación
El tercer ciclo se inicia mediante el análisis de los resultados de la evaluación de la usabilidad con el fin de generar cambios en las necesidades en la
innovación. (Ståhlbröst, A. & Holst M., 2013)
A lo largo de la investigación se menciona que los usuarios son co-creadores
y permiten instaurar algunas bases para la creación de nuevos Living Lab
en temas de eHealth. eSpasti pretende ser un sistema de innovación abierta
que puede llegar a considerarse como una herramienta de grandes potencialidades para pacientes con este perfil de discapacidad. Para lograr que los
usuarios se involucraran en el proceso de co-creación, además del cuestionario aplicado se le pidieron sus comentarios hablados sobre los criterios de
usabilidad y contenidos del sistema eSpasti.
Fase 5: comercialización
Hasta ahora el sistema eSpasti se encuentra en una etapa de mejora continua, antes de ser implementado en varias instituciones sanitarias. Se ha presentado exitosamente con los usuarios finales: médicos, pacientes y cuidadores en Barcelona, también se ha presentado en la comunidad médica en
varias ciudades de España como Pamplona, Santander, Málaga y Tarragona.
El sistema ha sido mostrado a profesionales en la Ciudad México.
221
Conclusiones
Este trabajo aporta un procedimiento relevante a los problemas sanitarios
que requieren una solución mediante un desarrollo tecnológico, además la
colaboración de los usuarios es parte fundamental del proceso de i+d. La
implementación de la metodología FORMIT de Ståhlbröst, dio como resultado una arquitectura concreta, diseñada estratégicamente para un contexto
real con necesidades específicas. El sistema se realizó bajo la colaboración
de las instituciones por un lado la Universidad Politécnica de Cataluña y el
Hospital San Pau y de la Santa Creu, los resultado obtenidos han dado pie a
nuevas implementaciones en otros problemas sanitarios.
Agradecimientos
EM ECW Lot 18 México, University of Groningen por el apoyo a Yadira
Alatriste.
Referencias
[1] Ada L, Dorsch S, Canning CG. (2006) Strengthening interventions increase strength and
improve activity after stroke: a systematic review. Australian Journal of Physiotherapy 52:
241–248
[2] Alatriste Y., Cerezuela A. B., Monguet J. M., Ferruzca M. V. (2013). Rehabilitación de la
espasticidad mediante un sistema de telemedicina diseñado con una metodología Living
Lab. Libro Científico “AVANCES DE LAS MUJERES EN LAS CIENCIAS, LAS HUMANIDADES Y TODAS LAS DISCIPLINAS”. UAM, México D.F. Libro Científico Vol. I impreso,
ISBN: 978607280066 3. Libro Científico Vol. I versión electrónica, ISBN 978607280064
9.
[3] Almirall, E., & Wareham, J. (2008). Living Labs and open innovation: roles and applicability. The Electronic Journal for Virtual Organizations and Networks, 10(3), 21-46.
[4] Arroyo, M. O., Arzoz, T., Cabrera, J., Calderón, F., & Sebastián, F. (1998). Espasticidad.
TITLEREVISTA, 32(6), 419–429. Retrieved from http://zl.elsevier.es/es/revista/rehabilitacion-120/espasticidad-13004876-espasticidad-1998 ER
[5] Chesbrough, H. W. (2003), Open Innovation: The New Imperative for Creating and Profiting from Technology, Boston, Harvard Business School Press.
[6] Dearstyne, B. W. (2007): “Blogs, Mashups, & Wikis Oh, My!”; Information Management
Journal, 41, 4, 2007, 24-33.
[7] Eriksson, M., V. P. Niitamo, and S. Kulkki. (2005). State-of-the-Art in Utilizing Living Labs
Approach to User-centric ICT innovation – a European approach. CDT at Luleå. University of Technology, Sweden, Nokia Oy, Centre for Knowledge and Innovation. Research
at Helsinki Scholl of Economics, Finland, 2005
[8] Følstad, A. (2008). LIVING LABS FOR INNOVATION AND DEVELOPMENT OF INFORMATION AND COMMUNICATION TECHNOLOGY: A 1 . 1 Example Living Lab
categories. Network, 10(August), 99–131.
222
[9] Galitz, W. O. (1996). The essential guide to user interface design: An introduction to GUI
design principles and techniques. New York: Wiley
[10]Hassan Y. & Montero S. (2009). Informe APEI sobre usabilidad. Asociación Profesional
de Especialistas en Información. España
[11]Hlauschek, W., Panek, P., & Zagler, W. L. (2009). Involvement of elderly citizens as
potential end users of assistive technologies in the living lab Schwechat. Proceedings of
the 2nd International Conference on PErvsive Technologies Related to Assistive Environments - PETRA ’09, 1–4. doi:10.1145/1579114.1579169
[12]Huerta-Vásquez E. A. (2012). Diseño incremental de e-servicios: estudio teórico, propuesta metodológica y casos prácticos. Tesis Doctoral. Tesis Doctoral. Universitat Politècnica de Catalunya. Departament d’Expressió Gràfica a l’Enginyeria. Barcelona
[13]Katzy, B. & Klein, S. (2008) ‘Editorial introduction: Special Issue on Living Labs’, eJOV
Journal of Organisational Virtualness, Vol. 10.
[14]Kanstrup, A. M., Bjerge, K., & Kristensen, J. E. (2010). A living laboratory exploring mobile support for everyday life with diabetes. Wireless personal communications, 53(3),
395-408.
[15]Kviselius, N. Z., Ozan, H., Edenius, M. & Andersson, P. (2008) ‘The Evolution of Living
Labs – Propositions for Improved Design and Further Research’ in Proceedings of the 5th
International Conference on Innovation and Management (ICIM 2008), Maastricht, The
Netherlands, 10–11 December 2008, pp. 842–856
[16]Larsen, Kai R.T. & McInerney, C. (2002). Preparing to work in the virtual organizations.
Information &Management, 39, 445–456.
[17]Leibs, S. (2008): “Web 2.0, Confusion 1.5.”; CFO 24, 3, 2008, 33-34.
[18]Lepik, K. L., M. Krigul and E. Terk (2010). Introducing Living Lab’s Method as Knowledge
Transfer from one Socio-Institutional Context to another: Evidence from Helsinki-Tallinn
Cross-Border Region. Journal of Universal Computer Science 16(8): 1089-1101.
[19]Pahl, G., & Beitz, W. (1996). Engineering design: A systematic approach. Springer Science and Business media; Springer Verlag; London.
[20]Panek, P., & Zagler, W. L. (2008). A living lab for ambient assisted living in the municipality of Schwechat (pp. 1008-1015). Springer Berlin Heidelberg.
[21]Ronda-León, R. (2007). La diagramación en la arquitectura de información. En: No Solo
Usabilidad, nº 6, 2007. <nosolousabilidad.com>. ISSN 1886-8592–Recuperado 26 de
feb. de 14 de: http://www.nosolousabilidad.com/articulos/diagramacion.htm#sthash.
C3Vsog6c.dpuf
[22]Rosenfeld, L. & Morville, P. (2008). Information architecture for the World Wide Web.
O’Reilly & Associates. Rosenfeld, L., & Morville, P. (2002). Information architecture for
the World Wide Web. Stebastopol, CA: O’Reilly
[23]Ståhlbröst, A. & B. Bergvall-Kåreborn, FormIT (2008)-An Approach to User Involvement,
in European Living Labs- A New Approach for Human Centric Regional Innovation, J.
Schumacher and V.P. Niitamo, Editors. Wissenschaftlicher Verlag: Berlin. p. 63-76.
223
[24]Ståhlbröst, A. & Holst M., (2013) The Living Lab Metodology Handbook. Social Informatics at Luleå University of Technology and CDT – Centre for Distance-spanning Technology, Sweden. Recuperado el 21 de nov. De 2014 de: http://www.ltu.se/cms_fs/1.101555!/
file/LivingLabsMethodologyBook_web.pdf
[25]Walters, B. (2007): “What is web 2.0 and what does it mean to you?”; New Mexico Business Journal, 31, 10, 2007, 24-24.
[26]Watanabe T. (2004) The role fo the therapy in spasticity management. Am J Phys Med
Rehabil.;83 (Suppl):S45-49.
224
Propuestas editoriales para niños con discapacidad visual
Eska Elena Solano Meneses, Brenda García Parra,
Gloria Angélica Martínez de la Peña
Área de Investigación: Diseño incluyente para la calidad de vida,
División de Ciencias de la Comunicación y Diseño, Departamento de Teoría y Procesos de Diseño, Universidad Autónoma Metropolitana
[email protected], [email protected], gmartinez@correo.
cua.uam.mx
Resumen
La propuesta de diseño y producción editorial haptográfica para personas
con discapacidad visual surge como respuesta a la escasa atención que las
publicaciones diseñadas para ellos presentan, al no considerar que, para
una experiencia significativa se deben vincular los mensajes escritos con
“imágenes”, y así favorecer una lectura más enriquecedora para estos usuarios.
La presente investigación original refiere el estudio de los dibujos de los niños normovisuales en edad temprana y su pertinencia para producir diseños
haptográficos para personas ciegas, a través de la participación activa tanto
de niños normovisuales (como generadores de gráficos), así como de personas con ceguera congénita (como evaluadores de las mismas).
Como resultado, la hipótesis es que los dibujos realizados por niños normovisuales, en estadio preoperacional para Piaget, pueden ser la pauta para
generar representaciones haptográficas en alto relieve comprensibles para
las personas con discapacidad visual.
Su importancia responde a la necesidad de promover el acceso a la información en las personas con discapacidad visual a través del diseño editorial
haptográfico (mediante la utilización de un lenguaje bimedia que implica la
combinación de textos e imágenes, ambos de carácter háptico), ya que ello
significará para ellas una mayor oportunidad de inclusión, alfabetización,
educación, empleo y autonomía.
Palabras Clave: Diseño haptográfico, discapacidad visual, integración simbólica, diseño y sustentabilidad.
225
Abstract:
Haptic design represents a resource to integrate people with visual impairment into society, eliminating barriers caused by the lack of awareness and
education.
The design and editorial production proposal for people with visual impairment emerges as a response to the lack of considerations normally taken
when developing publications for blind and visually impaired people, who
also need a complete and meaningful experience which is not normally met
when including text (written messages) alone. “Images” and written messages must be merged.
This original research aims to study normovisual children’s drawings (preschoolers) and its relevance to produce haptographic drawings for visually
impaired readers, through the active participation of both, normovisual children as graphic generators and congenital blind people as evaluators.
As a result, the hypothesis in this research project aims to prove that normovisual children´s drawings (at pre-operational stage under Piaget’s view)
could be the basis for the generation of haptographic representations in raised texture understandable for people with visual impairment.
Its importance responds to the need to promote access to information for
visually impaired people through Haptographic Editorial Design, since this
means an opportunity to increase literacy, education, employment and autonomy.
Key words: Haptographic Design, visual impairment, symbolic integration,
design and sustainability.
Antecedentes
Actualmente, los esfuerzos de múltiples disciplinas establecen claramente
la intención de eliminar desigualdades sociales y de toda índole, así como
evitar la discriminación de personas o grupos de ellas. Sin embargo el caso
de las personas con discapacidad visual constituye un reto aún poco atendido, sobre todo desde el diseño ya que el acceso a la información se atiende
de manera mínima y desarticulada. Escasamente existen documentos que
consideren la facilitación de los textos en Braille, la comunicación táctil,
los macrotipos, etc. que pudieran promover el acceso a la información y
ser congruente con los derechos de las personas con discapacidad, amén
de que prácticamente no existen documentos que, al igual que en los dise226
ñados para personas normovisuales, pretendan una vinculación en más de
una dimensión que sustente la interpretación y facilite la comunicación de
manera significativa; esto es texto-imagen (bimedia).
Figuras 1 y 2. Imágenes de un menú Braille fotografiado en San Antonio Texas (2013) donde
se muestra la impresión braille en convivencia con el texto impreso en tinta (Martínez 2013).
Los intentos por generar imágenes hápticas desarrollados hasta hoy, además
de escasos; parten de un concepto visual de imagen proveniente de personas normovisuales, quienes han transferido las concepciones construidas en
esquemas, por lo que resultan inocuos e insignificantes para las personas
con discapacidad visual, pues su concepto de estructura espacial y formal
dista de lo considerado “convencional” para las personas sin esta discapacidad. Un ejemplo de lo anterior es el menú que se presenta en las figuras 1 y
2 donde la única información presentada es de carácter textual.
La Ley de Fomento para la Lectura y el Libro (fracción II del artículo 1, capítulo 1º) establece como uno de sus objetivos “promover la producción, distribución, difusión y calidad del libro mexicano, y facilitar su acceso a toda
la población”, es decir, la lectura se entiende como un derecho para todos,
sin distinción de sus capacidades. Este derecho de comunicación también
ha sido demandado en la Convención sobre los Derechos de las Personas
con Discapacidad, que propone medios y dispositivos que faciliten el acceso a la misma.
La importancia de la presente investigación responde a la necesidad de promover el acceso a la información para la personas con discapacidad visual
a través del diseño editorial haptográfico, ya que ello significa una mayor
oportunidad de inclusión, alfabetización, educación, empleo y autonomía
para ellos. La investigación que realizamos se fundamenta en un enfoque
de Diseño Participativo ya que se sustenta en un proceso de comunicación,
aprendizaje y acuerdos colectivos entre los diferentes actores implicados en
227
el diseño.
Por otro lado, el acceso a la información y a la cultura se observa como pieza
clave en el fomento de una mayor calidad de vida y desarrollo humano, factores indispensables en el planteamiento de propuestas que se dirigen hacia
la sustentabilidad. Es decir, el presente proyecto de investigación parte de la
identificación de una compleja red de problemáticas interrelacionadas que,
de atenderse, promoverían respuestas integrales dirigidas hacia el desarrollo
sustentable, mediante un aumento en la calidad de vida de poblaciones hoy
en día excluidas y el fomento a la investigación de nuevas tecnologías.
Finalmente bajo el criterio de sustentabilidad social, en el proyecto de investigación original que estamos realizando subyace la intención de crear un
contexto en que se puedan expresar las potencialidades de cada individuo
y posibilitar la interacción entre ellos independientemente de sus capacidades, como un derecho legítimo.
Diseño Haptográfico
Las limitaciones de los usuarios con discapacidad y la discapacidad misma
no son factores de reciente aparición, lo reciente es la inserción de éstos en
los campos del diseño (Martínez, 2011).
Esta nueva mirada de los problemas complejos de la sociedad para la que se
diseña, apertura nuevas esferas de acción en todos los campos del diseño,
despertando en los diseñadores una conciencia social ante la compleja realidad que se vive y de cómo generar proyectos de diseño que promuevan la
inclusión de los diferentes grupos sociales que la conforman.
El diseño haptográfico se puede concebir como una línea de diseño incluyente. Su finalidad es conceptualizar y desarrollar un diseño de información,
con base en los datos obtenidos del sistema háptico a través de relieves,
formas y texturas. De esta forma, la información será adecuada tanto en su
código como en su configuración y ésta podrá ser perceptible y comprendida sobre todo por aquellas personas que presentan limitaciones visuales.
Los códigos hápticos adecuados permiten que la información sea percibida
hápticamente, es decir, utilizando el tacto activo (háptico) para poder así
comprender la información sin requerir del sentido de la vista y también con
un menor esfuerzo.
Uno de los fundamentos para propiciar el desarrollo de un diseño haptográfico es que éste no requiera de un aprendizaje previo . Su aplicación en el
diseño de información se encuentra centrado en el desarrollo de imágenes
tangibles en altorrelieve, de tal manera que las personas con alguna disca228
pacidad visual puedan sentirlas. En general se aplica en la información no
textual, como por ejemplo en mapas, pinturas, gráficos y diagramas.
Debe enfatizarse que el diseño haptográfico requiere de sus propias estructuras, sintaxis y ordenamientos para lograr un adecuado reconocimiento de
los objetos que se representen para ser percibidos hápticamente. Para que
esto funcione, la persona debe tener un conocimiento previo del objeto, es
decir, poseer un antecedente. Por tanto, la participación de las personas con
discapacidad visual (en especial ceguera congénita) en la generación de un
diseño haptográfico resulta fundamental, pues ellas han desarrollado una
experiencia mayor en el entendimiento y funcionamiento del sentido del
tacto, ya que es uno de los que habilitan más ampliamente al carecer del
visual. Este conocimiento y esta experiencia resultan fundamentales en la
construcción de la “imagen háptica”, ya que las personas con discapacidad
visual saben con exactitud qué características deberá tener la representación
de un objeto determinado: a) cuáles elementos formales requiere, b) qué
ordenamiento o composición resultan significativos (por ejemplo, la perspectiva, al ser un concepto visual aprendido, no resulta tan familiar al tacto
en primera instancia), c) cuáles proporciones y tamaños son los adecuados
en una representación, y d) qué manejo de texturas son más significativas y
por qué.
La participación de los usuarios en el diseño es uno de los requisitos indispensables para la generación de un diseño haptográfico, pues ellos son
quienes conocen y entienden lo que verdaderamente les significa.
Resulta importante mencionar y aclarar que el sistema perceptivo háptico
funciona de forma completamente diferente del sentido de la vista, no es
global la manera en la que percibe, sino gradual y ordenada, ya que va
construyendo sus significados a partir de las unidades individuales que le
aportan información. Este proceso en sí mismo fue entendido por Révész
(1950) como un “proceso analítico sucesivo”, cuyo objetivo es “reconocer”
(opuesto a la percepción visual), y por el cual atribuyó al proceso háptico
las características de simultaneidad y síntesis. Por otra parte, para entender
cómo trabaja y funciona la percepción háptica, debe recordarse que el tacto
activo o háptico se apoya en los dedos, las manos, los brazos, los pies y las
piernas, así como los movimientos que en conjunto realizan; para poder así
comprender la información, sin requerir del sentido de la vista. Esta percepción se especializa en la identificación de las propiedades de las superficies
y formas de los objetos, como su textura, tamaño, disposición, elementos
conformadores, temperatura y dureza. Cabe mencionar que adicionalmente, la integración de la información proporcionada por los diferentes sentidos facilita la adaptación al medio y permite la posibilidad de actuar de
229
manera más eficiente cuando se dispone de información proveniente de
múltiples canales sensoriales.
Si bien es posible encontrar hoy en día propuestas y productos actuales que
tienen como objeto ofrecer soluciones de comunicación mediante relieves y
texturas, estas generalmente son desarrolladas bajo concepción y significación de una persona normovisual. Es decir, las representaciones responden a
un conocimiento previo que considera apariencia visual, aspecto que es de
esencial importancia corregir y considerar en proyectos de diseño háptico.
Algunos ejemplos incluyen el proyecto denominado Tactile Picture Books
Project (Proyecto de Libros Ilustrados Táctiles) y desarrollado por la Universidad de Colorado en conjunto con el Anchor Center, una organización en
Denver, Colorado dedicada al apoyo a la educación de niños con discapacidad visual. Dicho proyecto tiene como objetivo integrar imágenes en tercera
dimensión mediante la impresión 3D en cuentos infantiles con el fin de
ofrecer mayor información táctil, además del texto en braille (Universidad
de Colorado, 2014).
Figura 3. Libro infantil impreso en 3D. Tactile Picture Books Project. Universidad de Colorado (Fuente: www.colorado.edu).
Sin embargo, es indispensable destacar que las imágenes transformadas a
tercera dimensión, son representaciones visualistas convencionales que no
consideran el trasfondo de la significación de estas imágenes para una persona que no ha tenido previamente un conocimiento de dichas formas y
cuya relación con su concepción es prácticamente inexistente. De aquí la
relevancia por incluir en el proyecto de investigación como elemento esencial, la investigación sobre la concepción de imágenes de una persona ciega
y con discapacidad visual con el fin de que la experiencia y aprendizaje
háptico sea congruente con la forma en que describe su realidad.
230
Por otro lado, el uso de tecnología de impresión en 3D para 9ofrecer texturas táctiles, y en general una percepción háptica es ampliamente investigada
hoy en día, debido a las múltiples ventajas encontradas.
Actualmente, el equipo de investigación del Instituto de Ciencia y Tecnología en Corea desarrolla un nuevo método con el objetivo de unificar la
impresión 3D y las técnicas para el tratamiento de superficies térmicas y así
ofrecer objetos tangibles con mayor refinamiento de líneas y curvas (Wonjin,2014).
Figura 4. Análisis térmico de la impresión 3D para refinamiento de texturas (incluida el
Braille). Wonjin, Wo. 3D printed tactile pattern formation on paper with thermal reflow
method (Fuente: Advances 2014).
El diseño haptográfico, como un elemento de la accesibilidad universal y
del diseño para todos, debe formar parte de la cadena de accesibilidad en
todos los programas y ámbitos prácticos del diseño para que las personas
con discapacidad visual puedan tener un acceso completo y eficiente a la
información.
Representación Infantil y Representación Háptica
La representación mental y gráfica que una persona con discapacidad visual
genera (sobre todo el caso extremo de ceguera congénita) dista mucho de la
representación desarrollada por una persona normovisual cuyos referentes
visuales y contexto cultural tamizan. Esta distancia se acrecienta a medida
de que la capacidad de representación simbólica se desarrolla en una persona normovisual (lo que no ocurre con la persona de ceguera congénita)
en relación directa con su desarrollo intelectual, lo cual se aprecia en la
Figura 5.
231
En esta tabla, apoyada en las etapas de desarrollo intelectual de Piaget
(1987)[2], es posible distinguir que a medida que la capacidad intelectual
se desarrolla en una persona normovisual, su capacidad de identificación y
consecuente representación gráfica se vuelve más compleja, al grado que
un elemento representado gráficamente por personas normovisuales en las
etapas operacional concreta y operacional formal no pueden ser distinguidos por ciegos congénitos. Esto fue comprobado cuando al generar prototipos de figuras hápticas en alto relieve, de objetos conocidos por adultos
normovisuales, resultaron imposibles de identificar por parte de los ciegos.
De ahí resulta evidente que aquellas características representadas por personas normovisuales obedecen al alto peso que dan en su percepción al
sentido de la vista, omitiendo características táctiles que un ciego sí es capaz
de reconocer.
Tabla 1. Estadio de Piaget y su relación con la capacidad de representación gráfica. (Fuente
Solano, 2014).
Estadío
Característica Intelectual
Representación asociada
0-2 años
Estadio Sensoriomotor
Interacción con el medio se basa
en acción. Capacidad de resolver
problemas sencillos a partir de
movimientos corporales y manipulaciones simples.
La representación es mental, no gráfica
2-6 años
Estadio Preoperacional
Interacción con base un nuevos
recursos simbólicos, entre ellos, el
lenguaje.
Representación gráfica
intuitiva centrado en su
punto de vista
6-12 años
Estadio Operacional
Concreto
Capacidad objetiva para abordar
problemas de dificultad creciente.
Problemas resueltos con utilización del pensamiento lógico
Capacidad de representación social
12 o más años
Estadio Operacional
Formal
Pensamiento lógico que abarca
formulaciones abstractas
Capacidad de representación abstracta o conceptual. Simbólico
Edad Aproximada
De la misma tabla se infiere que las personas normovisuales que apoyan
más sus representaciones en experiencias propias, que en determinantes
culturales (es decir, en etapa preoperacional), son capaces de elaborar representaciones más intuitivas y simples, características que permiten que
un ciego congénito las identifique de una manera más clara, logrando así la
pauta para generar una representación háptica fácilmente distinguible por
cualquier persona con discapacidad visual independientemente de su edad.
En algunas investigaciones de campo que se han realizado previas a esta
investigación1, se ha comprobado el hecho deducido de la Tabla 1. En la
investigación actual ha sido seleccionado un grupo de niños en edad pre232
escolar (estadio preoperacional) para que generaran representaciones, mismas que posteriormente fueron sujetas a evaluación (mediante la identificación de dicha imagen) por parte de un grupo de personas con ceguera
congénita3. Los resultados obtenidos respaldaron la hipótesis original: las
representaciones de niños normovisuales en estadio preoperacional, resultan pertinentes como la pauta para la generación de imágenes hápticas, que
pueden constituir un recurso en la producción editorial para personas con
discapacidad visual, aunque todavía hace falta realizar investigaciones más
profundas y documentadas en este proceso.
Figura 6. Ejemplo del dibujo de un niño de 5 años realizado para representar un perro (Martínez Miguel 2009).
Figura 7. Ejemplo de la representación de un perro aprobado por las personas con ceguera
en la cual reconocen a este animal, gracias a los elementos que lo conforman, a su disposición y configuración (Martínez de la P. 2011).
Conclusiones
Para concluir, mediante el diseño háptico se pretende incursionar en el ámbito del diseño y producción editorial para generar un recurso de información disponible y significativo, complementario al sistema Braille tradicional. Su propuesta apoya la generación de este sistema o lenguaje bimedia,
el cual se reseñó al inicio de este documento y que enuncia la integración
233
imagen-texto: imagen háptica- texto Braille. En este caso, la imagen correspondería a un diseño haptográfico específico, sin referentes visuales, proyectado y generado a partir de la participación de niños normovisuales en
estadio preoperacional y de las personas con discapacidad visual, ello con
base en las conceptualizaciones del mundo que ellas han construido integralmente a partir de su experiencia perceptual y de las imágenes mentales
que ésta les genera.
Esta primera parte del proceso del diseño háptico constituye el eje conceptual del diseño. Para la implementación formal se puede recurrir a diferentes
técnicas de producción, que van desde el grabado en altorrelieve (o grabado
ciego), el termoformado, impresión en 3D, la serigrafía granulada o incluso
la producción manual, dependiendo del tiraje que se desee.
Agradecimientos
Para la realización del actual proyecto queremos agradecer la invaluable colaboración del Comité Internacional Pro Ciegos IAP de la ciudad de México,
así como a los estudiantes de Pre-First del colegio Eton de la misma ciudad,
y en especial a las maestras Yvonne Kogan, Florence Gontran y Tania Grinberg.
Referencias
[1] Martínez de la Peña G. Angélica (2011) El diseño háptico y su importancia en la generación de materiales editoriales para personas con discapacidad visual. Revista Quadra.
Número 7. Febrero de 2011. México: UdG. ISSN: 1870-7556. Latindex: 17796. Págs.
27-32. Revista semestral del Departamento de Proyectos de Comunicación, CUAAD.
[2] Piaget, J. (1987) Biología y conocimiento. Ensayo sobre las relaciones entre las regulaciones orgánicas y los procesos cognoscitivos. México: Siglo Veintiuno.
[3] Révész, G. Psychology and art of the blind. London: Lonemans Green, 1950 .
[4] Universidad de Colorado. Picture books for visually impaired kids go 3D thanks to CUBoulder research team. www.colorado.edu. Agosto 2014.
[5] Wonjin, Wo. Do Hyun, Kim. 3D printed tactile pattern formation on paper with termal
reflow method. RSC Advances. 60. 2014.
234
Diseño inclusivo para la divulgación de
los discos giratorios protopastos
Paula Murillo Jaramillo, Diana Córdoba Celly
Institución Universitaria CESMAG, Ideograma Colectivo,
Arqueología de la Imagen
[email protected]
Resumen
Este texto divulga los resultados de la investigación titulada Desarrollo de
una Unidad Museográfica para el Museo Juan Lorenzo Lucero de la ciudad
de Pasto inspirada en los discos giratorios protopastos, cuyo proyecto ganó
la beca de investigación en procesos museológicos del Ministerio de Cultura
de Colombia en el 2013. Los objetos culturales en los cuales se fundamentó
el trabajo, son unos artefactos prehispánicos realizados por la etnia de los
Pastos, considerados únicos porque tienen movimiento y producen una serie
de efectos visuales en sus espectadores (arte cinético).
Las subunidades se elaboraron para llegar a diversos públicos y de ese modo
lograr la apropiación social de ese saber visual milenario desde comunidades heterogéneas nacionales e internacionales, teniendo en cuenta sectores
rurales, zonas rojas, resguardos indígenas y zonas urbanas. En esta última
el trabajo investigativo se dirigió hacia el público infantil y universitario,
lo que convierte a la unidad en un diseño inclusivo ya que tuvo en cuenta
diversidad de espectadores.
Palabras clave: Diseño, Inclusivo, Discos Giratorios, Protopastos, Museografía.
Abstract
This paper reports the results of a research project entitled Developing a Museográfica Unit for Juan Lorenzo Lucero Museum of the city of Pasto inspired
protopastos spinning disks, whose project won a fellowship in museological
processes of the Ministry of Culture in Colombia 2013. The cultural objects
in which the work was based, are a pre-Hispanic artifacts made by the ethnicity of the pastures, they considered unique because they move and produce
a series of visual effects on their viewers (kinetic art).
235
The subunits were developed to reach different audiences and thereby achieve the social appropriation of this millennium from national and international visual namely heterogeneous communities, taking into account rural
areas, red areas, indigenous reserves and urban areas. In this latest research
work he headed child and university public, making the unit in an inclusive
design because it took into account diversity of viewers.
Introducción
El grupo Ideograma Colectivo de la Institución Universitaria CESMAG adscrito al Programa de Diseño Gráfico, después de dos años de proceso investigativo y cuyo resultado fue la publicación titulada ARQUEOLOGÍA VISUAL
DE LOS DISCOS GIRATORIOS PROTOPASTOS, participó en la convocatoria del Ministerio de Cultura denominada “Estímulos 2013” en la línea Beca
para publicaciones de libros inéditos de autores regionales, recibiendo el
reconocimiento. Posteriormente y partiendo de las recomendaciones de ese
trabajo se detectaron varias problemáticas y necesidades de la población de
Nariño al sur de Colombia, dado que muchos de sus habitantes no tienen
fácil acceso o desconocen en gran parte su propio patrimonio cultural, debido, principalmente, a que los bienes materiales hallados en ese territorio
han sido saqueados y se pierde el contacto con ellos y una vez recuperados
pasan a museos que en muchas ocasiones quedan distantes de sus lugares
de origen o sencillamente resguardan los objetos culturales pero no pueden
exhibirlos (Nullvanve, 2005), lo que causa que sus habitantes y por lo tanto
los herederos de esos saberes no puedan interactuar ni acceder a ellos y de
esa manera se pierda parte de esa transmisión, apropiación y legitimación
de la memoria que hacen los grupos cotidianamente en la práctica cultural.
Frente a estas necesidades evidentes en el proceso investigativo se planteó el
siguiente proyecto titulado Diseño de una Unidad Museográfica itinerante e
interactiva inspirada en los discos giratorios protopasto, el cual se presentó
al Ministerio de Cultura a la Beca sobre investigación en procesos museológicos, obteniendo el reconocimiento y los recursos económicos para la
ejecución del mismo. De esta forma nace PAPIAL “Exposición itinerante de
los discos giratorios protopastos”.
Exposición inspirada en los discos giratorios protopastos, unos artefactos
culturales concretos encontrados en el Municipio de Pupiales (Nariño), los
discos giratorios protopastos, cuyo principal impacto es que tienen movimiento y producen una serie de efectos visuales, gracias a la repetición de
elementos geométricos y la aplicación de las propiedades ópticas del color
que están dibujados en ellos (Córdoba, Murillo & Timarán, 2013; Plazas,
1998), vale la pena subrayar que estos discos son únicos en el mundo por
236
sus características, que en este momento son consideradas como cinéticas,
sobre los cuales muchos Nariñenses desconocen sus significados profundos.
Figura 1. Logotipo Grupo Ideograma Colectivo I U CESMAG.
Fuente: © Elaborado por Ana Patricia Timaran Rivera*.
Figura 2. Logotipo Ministerio de Cultura Colombia.
Fuente: Imagen suministrada por Ministerio de Cultura.
Figura 3. Logotipo Unidad Museográfica Papial.
Fuente: © Elaborado por Jennyfer Alejandra Castellanos**.
* Fundadora del grupo Ideograma Colectivo I U CESMAG (2007).
** Colaboro en el desarrollo gráfico de la Unidad Museográfica Papial.
237
Así se establece la unidad museográfica con cinco subunidades. Las tres
primeras enfocadas a suministrar información de una manera didáctica e
interactiva, a partir de las tecnologías de la información y la comunicación,
las dos restantes enfocadas a la lúdica y la pedagogía. Dando paso a la materialización de un sueño.
Resultados
A continuación se socializa el contenido de cada subunidad no sin antes
establecer algunos de los criterios sobre los cuales se fundamentó el diseño
inclusivo desde el marco de la accesibilidad de la misma, como fueron la
seguridad, el peso, el movimiento, el diseño, el entorno, la economía y la
historia.
Si bien es cierto que el material está dispuesto para diferentes públicos, estos
requerimientos fueron tomando forma en el proceso de diseño, cuyo propósito es generar la participación de la comunidad en pro de responder a las
necesidades presentes en el entorno trasformando el factor social, cultural
y de pertenencia por un saber propio. Tal como lo describe Muñoz (2011),
en su articulo El diseño inclusivo como mediador para la transformación,
cuando describe al diseño inclusivo como un paradigma del diseño, con la
producción del entorno con fácil acceso, aptos para albergar el mayor público sin diferencias, y sin adaptaciones del material, para hablar del diseño
sin barreras para garantizar un goce pleno de la experiencia.
De esta manera los fundamentos fueron expresados en el marco del diseño
gráfico y el diseño industrial, respondiendo a las tecnologías de la información y la comunicación dispuestas en pro de la determinación de los materiales, el color, la tipografía, la disposición de la información mediante textos claros, cortos, acompañados de infografías; el entorno del grupo objetivo
con sus características y limitaciones, la economía a partir del presupuesto
establecido y la historia factor que enmarcó la lúdica y la didáctica de la
unidad, partiendo de la inaccesibilidad a los artefactos culturales, ya sea por
su valor histórico, su fragilidad y simplemente por que el objetivo del Museo
del Banco de la República es el de salvaguardar el patrimonio.
De esta forma la subunidad uno, dispone la información mas importante
para los usuarios en estructuras metálicas soportadas en una base de madera, y como base para los páneles dilatadores los cuales cumplen dos funciones el de sostener y el de disponer. Estos dos sistemas son transversales
para todas las unidades. Por lo anterior la sub unidad uno está conformada
por ocho páneles, cuatro estructuras y cuatro contenedoras para ser trasportados, aspecto al que se hace referencia mas adelante. Paralelo a ello dos
maquetas y quince replicas de los artefactos.
238
Figura 4. Sub unidad 1 Papial.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
En el primer panel se presenta la imagen corporativa del proyecto, junto con
las marcas participantes. En el segundo panel titulado Territorio Pasto, se
contextualiza la ubicación de este pueblo milenario en territorios que hoy
comprende el actual Departamento de Nariño en la República de Colombia y la provincia del Carchi Ecuador, al igual se muestra por medio de una
maqueta tridimensional la topografía y características de la vegetación del
casco urbano del Municipio de Pupiales a diez kilometros de la línea fronteriza, “Pupiales está situado en el corazón de una vasta llanura del altiplano
de Túquerres e Ipiales, en la cadena de los Andes occidentales” (Moreno,
1994, p. 6). y la vereda Miraflores lugar donde se realizó el hallazgo arqueológico. En el año de 1975, el Municipio de Pupiales es declarado Patrimonio
nacional por los hallazgos realizados en el cementerio de Miraflores. Entre
los innumerables objetos pertenecientes a la cultura material de los Pastos
que fueron descubiertos y protegidos, se encuentran unos discos giratorios,
cuyo principal impacto es que tienen movimiento y producen una serie de
efectos visuales, gracias a la repetición de elementos geométricos y la aplicación de las propiedades ópticas del color que están dibujados en ellos,
(Gombrich, 2008).
239
Figura 5. Sub unidad 1 Papial. Panel 1.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
En el tercer panel titulado Cementerio, se describe la forma de los entierros
y las diferentes profundidades a las que se encontraron las tumbas, cabe
anotar que para este pueblo prehispánico los entierros eran realizados con
sus pertenencias como cerámicas, mantas, trozos de oro y los discos giratorios, con el propósito de recrear de la manera mas lúdica, se acompaña con
una fotografía de la zona real del hallazgo arqueológico.
En el cuarto panel titulado Línea de tiempo se describe el recorrido y ubicación de tres culturas y se hace referencia al camino del inca llamado
Qhapac Ñan, o camino principal inca, que resultaría la evidencia material
más concreta sobre el vínculo entre los pueblos de este sector del sur de
Colombia y norte del Ecuador con grupos sureños como los de Perú, contacto que data de “hace más de 1000 años” (Afanador, 2007, ¶ 2) por este
camino se comunicaban los territorios del sur de Colombia, el Ecuador y el
Perú, ya que los discos fueron elaborados gracias a la sabiduría compartida
entre los tres territorios.
En el quinto panel titulado Obtención del metal, se muestra la forma como
los pueblos que ocuparon estos territorios obtenían el precioso metal, las
herramientas con las que fueron elaborados y los pasos que efectuaron para
obtener estos artefactos culturales.
En el sexto panel titulado ¿Qué es un disco? Se explica claramente las características de estos artefactos, como son su peso, su diámetro que oscila entre
los 15 y 18 centímetros; su espesor de 0,5 a 2 milímetros, un agujero en el
centro, y que están elaborados en una aleación de oro y cobre. Por otra par240
te se explican con elementos geométricos repetidos en los demás (módulos
geométricos) que al girar en su propio centro generan efectos visuales en los
espectadores, por lo que se permite creer que eran usados por el Chamán.
El séptimo panel titulado Discos giratorios presenta el diseño de los quince discos estudiados mediante la arqueología visual y acompañado por las
quince réplicas de los artefactos culturales.
El octavo panel titulado Geometría de los discos en donde se muestran los
cuatro tipos de simetría identificados en los discos giratorios como con la
simetría de punto, la simetría de plano, la simetría radial y la simetría mixta
mediante gráficas infografías. La simetría de punto, es un punto en el centro
de la figura, a través de éste la figura gira y repite. La simetría de plano, es
una línea imaginaria que divide en dos partes la figura y al superponerse sus
lados, estos coinciden. La simetría radial, es cuando dos o más ejes de simetría, cortan el mismo punto y dividen el plano en partes iguales. Y la simetría
mixta es donde se mezclan las simetrías anteriores.
El séptimo panel titulado Discos giratorios presenta el diseño de los quince discos estudiados mediante la arqueología visual y acompañado por las
quince réplicas de los artefactos culturales.
El octavo panel titulado Geometría de los discos en donde se muestran los
cuatro tipos de simetría identificados en los discos giratorios como con la
simetría de punto, la simetría de plano, la simetría radial y la simetría mixta
mediante gráficas infografías. La simetría de punto, es un punto en el centro
de la figura, a través de éste la figura gira y repite. La simetría de plano, es
una línea imaginaria que divide en dos partes la figura y al superponerse sus
lados, estos coinciden. La simetría radial, es cuando dos o más ejes de simetría, cortan el mismo punto y dividen el plano en partes iguales. Y la simetría
mixta es donde se mezclan las simetrías anteriores.
Figura 6. Sub unidad 1 Papial. Panel 2.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
241
Figura 7. Sub unidad 1 Papial. Panel 3.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
Figura 8. Sub unidad 1 Papial. Panel 4.
Fuente: © Diana Córdoba, Paula Murillo, Jennyfer Castellanos y Milena Torres.
242
Figura 9. Sub unidad 1 Papial. Panel 5.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
Figura 10. Sub unidad 1 Papial. Panel 6.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
243
Figura 11. Sub unidad 1 Papial. Panel 7.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
Figura 12. Sub unidad 1 Papial. Panel 8.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
La segunda subunidad, presenta los factores tecnológicos como herramienta
didáctica, ésta se conforma por una estructura con dos páneles, dos cajas de
luz y de movimiento operadas por controles. En el primer panel denominado Geometría de los discos se explica puntualmente los diferentes tipos de
244
simetría, los cuales pueden ser identificados por dos prototipos generados
a escala mayor en acrílico e iluminados en contra picado, cuyo propósito
es iluminar en cuatro tiempos diferentes y con distintos colores los tipos de
simetría, de esta manera en un primer tiempo se puede identificar la simetría
de plano iluminada con color azul, en un segundo tiempo la simetría de eje
iluminada de color verde, en un tercer tiempo la simetría de punto de color
rojo y al tener activos los tres controles se observa la simetría mixta.
A su vez esta caja de luz está acompañada por fichas acrílicas que representan el módulo de cada disco para que los usuarios puedan identificar los
módulos que lo conforman en positivo - negativo en forma y contra forma.
El segundo panel titulado Movimiento de los Discos está acompañado por
una caja mecánica operada por controles de velocidad y fuente de energía
portable, en la cual se observan dos discos giratorios elaborados en bronce a
escala superior y protegidos por una lámina de acrílico, mediante los cuales
se pueden hacer girar a diferentes velocidades y en las dos direcciones con
el fin de simular el movimiento sobre su eje central, el cual era producido
por el usuario en forma manual.
Figura 13. Sub unidad 2 Papial.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
En la tercera subunidad y cambiando un poco de formato está la Elaboración de los discos giratorios la cual se conforma por media estructura, una
mesa con sus paneles pequeños, ocho herramientas, dos pedazos de oro
(réplicas) dos discos sin terminar, una vasija plástica y una madeja de lana;
estos artefactos culturales se encuentran bajo custodia de los museos por
lo que es imposible interactuar con ellos, razón por la cual la premisa de
diseño para esta subunidad fue el que los usuarios pudieran interactuar y
admirar cómo mediante unas herramientas tan precarias de piedra se logró
la elaboración de unos artefactos tan perfectos.
245
Figura 14. Sub unidad 3 Papial.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
La cuarta subunidad como se nombró anteriormente, está dedicada a la
lúdica, y aunque los discos giratorios no fueron artefactos dedicados al juego, al estar esta unidad museográfica está dispuesta a diferentes públicos
como colegios, escuelas rurales, cabildos indígenas, zona roja, entre otros
territorios, se pretendía que los facilitadores que llevarán esta muestra a sus
estudiantes, pudieran jugar y hacer talleres generando un aprendizaje significativo. A su vez permitiendo la apropiación del conocimiento por parte
del grupo objetivo y directa o indirectamente con los herederos de estos
pueblos.
De esta manera el primer juego que compone esta sub unidad se llama “La
ruta de Papial” según Gabriel Moreno (1994) y el sitio oficial del Municipio de Pupiales (2012), la palabra Pupiales proviene del quechua y hace
referencia “al Cacique Pupial o Papial, papii, papi y que significa secar al
sol o al calor lo húmedo; allin, allí, bueno o bien” (¶ 13). Está conformado
por 1 tablero, monedas, tarjetas de preguntas y fichas. El objetivo del juego
consiste en obtener 18 monedas (puntos) en el recorrido, contestando correctamente las preguntas de las tarjetas.
Figura 15. Sub unidad 4 Papial. La ruta de Papial, tablero e instrucciones.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
246
Figura 16. Sub unidad 4 Papial. La ruta de Papial, fichas.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
El segundo juego es el Cuzumbambico, también llamado Rumbador o Zumbador originario de los pueblos Pastos, con una cuerda y un disco perforado
en el centro, eran elaborados en diferentes materiales. En este juego se realizaron réplicas a escala menor, en acrílico traslúcido con la geometría de
los discos grabada, a los cuales se les instaló cuerda y manijas para que los
usuarios no se maltrataran las manos en el momento de jugar. Está acompañado de un tablero en el que mediante infografías los diferentes usuarios
pueden aprender a elaborar los Cuzumbambicos de una forma artesanal con
botones. Contribuyendo así a que este juego tradicional no se pierda.
Figura 17. Sub unidad 4 Papial. La ruta de Papial.
Fuente: © Diana Córdoba, Paula Murillo y Milena Torres.
247
El tercer juego son diez rompecabezas y dos tableros de juego. Haciendo
uso de las nuevas tecnologías y las herramientas industriales se diseñaron
los rompecabezas sobre acrílico traslúcido de diferentes colores cuyo objetivo se fundamenta en la trasparencia del material para su armado mas
fácil. De esta manera se elaboraron mediante el corte láser, fragmentando
la geometría andina presente en los discos giratorios. Los módulos y súper
módulos se convirtieron en fichas que si bien fueron concebidas para armar
diez discos diferentes, también pueden ser usadas en talleres de geometría
andina, basados en la repetición de la forma para buscar que estas formas
ancestrales generen pregnancia en los usuarios, en esa búsqueda incansable
porque los herederos de este patrimonio se apropien de su iconografía, de su
identidad y así vuelvan a sus orígenes. Son múltiples las actividades que se
pueden obtener a partir de estas fichas, dando rienda suelta a la creatividad
de los facilitadores.
Figura 18. Sub unidad 4 Papial. Rompecabezas.
Fuente: © Diana Córdoba, Paula Murillo y Jennyfer Castellanos.
Los habitantes de estas tierras usaron pectorales, narigueras, orejeras, brazaletes, entre otros artefactos para diseñar su atuendo. Haciendo alusión a
la importancia de estas piezas se cortaron módulos basados en la geometría
andina para que los usuarios de la unidad pudieran diseñar a su estilo al
Cacique Papial, dando así origen al cuarto y último juego de esta subunidad
Diseña a Papial, compuesto por un tablero y varios módulos cortados sobre
MDF y recubiertos con vinilo adhesivo dorado, el cual permite simular las
fichas como piezas de oro.
Figura 19. Sub unidad 4 Papial. Diseña a Papial.
Fuente: © Diana Córdoba, Paula Murillo y Milena Torres.
248
Y la quinta y última subunidad está diseñada a partir de las nuevas tecnologías, son cuatro juegos multimedia y dispuestos en la web. Lo que permite
que las poblaciones apartadas que no cuentan con servicio de internet puedan tener acceso a estas experiencias.
El primer juego de esta subunidad es un rompecabezas, el segundo es para
generar nuevas formas a partir de la geometría andina, el tercero es un juego
de parejas con módulos nuevos desarrollados a partir de la geometría base
de los discos y el cuarto permite girar los discos sobre su propio eje y en sus
dos direcciones en un entorno multimedia. Cabe anotar que se dispuso estos
juegos en este formato, con el propósito de llevar estas experiencias lúdico
pedagógicas a las nuevas tecnología, en el marco del territorio Nariñense ya
que geográficamente éste presenta paisajes de sierra y de costa, algunos de
ellos tan apartados y carentes de carreteras, en los que el servicio de internet
es limitado y ausente en muchos casos, el gobierno actual trabaja fuertemente en estas necesidades con su plan Vive Digital.
Sin embargo, por las características topográficas Papial brinda alternativas
con un diseño participativo e incluyente, soportado en las tecnologías de la
información y la comunicación.
Figura 20. Sub unidad 4 Papial. Diseña a Papial.
Fuente: © Diana Córdoba, Paula Murillo y Milena Torres.
Si bien es cierto que el diseño incluyente es referenciado por el común de
las personas como diseño desarrollado únicamente para personas con algún
tipo de discapacidad, por ejemplo en Colombia las necesidades en términos
249
de diseño incluyente también se enmarcan por su composición topográfica
y es que en particular el Departamento de Nariño presenta mas necesidades
a partir de este factor, incluyendo su ubicación al Sur de Colombia.
El territorio de los Pastos está comprendido entre Colombia y Ecuador compartiendo así un legado milenario representado en su oralidad, en el uso de
su simbología pues el sol de los Pastos o estrella de ocho puntas se encuentra
desde el sur de Colombia hasta Quito, capital del Ecuador, de igual manera
en la gastronomía con platos como el cuy, las tortillas de papa, el mote,
entre muchos otros factores que permitirían plantear otras teorías. Es así
como el diseño inclusivo en el que se enmarca este proyecto contempla la
manipulación práctica y un sistema ligero para ser trasportado. Permitiendo
que esta sabiduría pueda llegar a territorio Ecuatoriano en esa necesidad por
conservar la hermandad presente desde los orígenes que unen a estos dos
territorios.
Los herederos de estos objetos son culturas indígenas vivas que se encuentran organizados por cabildos, muchos ubicados lejos de los cascos urbanos
y comunicados por caminos transitados por vehículos de doble tracción y
por animales, debido a la ausencia de su pavimento, por lo que su acceso
es limitado. Según Muñoz esto da respuesta mediante el diseño incluyente
haciendo del medio físico un espacio accesible (Muñoz, 2011).
Conclusión
Socializar estas experiencias donde la antropología y el diseño gráfico se
unen en la lucha por proteger la sabiduría ancestral trasmitiendo a las nuevas
generaciones la importancia de sus orígenes, su identidad y su simbología
hacen que la vida del investigador cobre sentido y trascienda al no permitir
limitarse únicamente a documentos científicos sino a realizar artefactos itinerantes que permiten multiplicar el conocimiento de diferentes maneras.
En el interés por romper las barreras sobre todo del entorno social y cultural
que enmarcan el territorio circundante a la unidad, se aportó con estos artefactos a una región, a un legado, a un pueblo que sueña con recuperar su
saber ancestral, sus raíces, su identidad por medio de un diseño sensible y
fácil de entender, que integre a todas las personas sin distingo de edad, sin
distingo cultural, sin distingo educativo.
250
Referencias
[1] Afanador, C. (2007). Qhapaq Ñan. [Folleto]. Pasto: Autor.
[2] Córdoba, D. (2010). Memorias visuales en la Llanura de piedra. Revista Tiempos Nuevos, 17, 76-86.
[3] Córdoba, D. (2011). Memorias visuales que retornan. Trabajo presentado en el XII, Congreso de Antropología. Lugares, tiempos, memorias: la antropología Ibérica en el siglo
XXI. León.
[4] Córdoba, D. Murillo P. & Timarán A. (2013). Arqueología visual de los discos giratorios
protopastos. Pasto: I.U. CESMAG.
[5] Gombrich, E. (2008). Arte e ilusión. Estudio sobre la psicología de la representación
pictórica. Londres: Debate.
[6] Moreno, Gabriel (1994). Pupiales. Su historia, su geografía, sus gentes, su patrimonio
cultural, su antropología. Pupiales: Sin publicar.
[7] Muñoz Alzate, M. (2011). El diseño inclusivo como mediador pada la transformación
social. Revista TRAZA. IV, 118-125 [8] Nullvalue. (2005). Le robaron el tesoro indígena a Pupiales. El Tiempo.com [en linea].
Recuperado el 27 de enero de 2013 de http://www.eltiempo.com/archivo/documento/
MAM-1630705.
[9] Plazas, C. (1977-78). Orfebrería prehistórica del altiplano nariñense. Revista Colombiana de Antropología, XXI. 197-244.
[10]Plazas, C. (1998). Cronología de la Metalurgia Colombiana. Edición virtual del Banco de
la República. Recuperado el 10 de marzo de 2012 en www.banrepcultural.org/blaavirtual/índice.
[11]Plazas, C. & Falchetti, A. (1982). Unos discos que giran. Revista Lámpara, 20 (87), 1-8.
[12]Plazas, C. & Falchetti, A. (1985). Patrones culturales en la orfebrería prehispánica de
Colombia. En 45 Congreso Internacional de Americanistas: Metalurgia de América Precolombina. (pp. 229-268). Bogotá- Colombia: Universidad de los Andes.
251
La ergonomía cognitiva, diseño emocional y semiótica en el diseño
inclusivo de la interfaz gráfica de usuario para computadoras
Jose Alberto Yañez-Castillo1, Ana Lilia Laureano-Cruces1, 2,
Iván Garmendia-Ramírez1, 3
Posgrado en Diseño, Línea: Nuevas Tecnologías - Hipermedios. 2Departamento de Sistemas, 3Departamento de Investigación y Conocimiento para
el Diseño, 1,2,3 Universidad Autónoma Metropolitana – Azcapotzalco
1
[email protected], [email protected], [email protected]
Resumen
La interfaz de una computadora utiliza la metáfora de escritorio para lograr
una mejor interacción entre los usuarios y la computadora, esto ha ocurrido
por poco más de treinta años. Se plantea realizar un cambio en el diseño
de la interfaz visual de la computadora comenzando por los elementos interactivos visuales (iconos), con base en el análisis semiótico de los elementos
gráficos, agregando ideas de diseño emocional quienes juegan un papel
importante en el proceso de toma de desciones del ser humano. El diseño
inclusivo o diseño para todos debería ser contemplado dentro de la interfaz
gráfica de usuario, pero el diseño inclusivo tiene ventajas y desventajas
como por ejemplo la cantidad de usuarios de una computadora personal
difiere en edades, habilidades e incluso tareas a realizar sobre la computadora.
Palabras clave: diseño emocional, diseño inclusivo, interfaz gráfica de usuario, metáfora de escritorio, semiótica, usabilidad.
Introducción
La metáfora de escritorio es utilizada en la interfaz gráfica de usuario de
una computadora, esta metáfora ha estado presente por más de treinta años
en los sistemas operativos comerciales instalados en las computadoras personales, portátiles, entre otras variantes de computadoras. El propósito de
utilizar la metáfora fue facilitar la realización de algunas tareas, ser amigable para investigadores, oficinistas y estudiantes. Para cierto tipo de usuarios
la metáfora de escritorio resulta ser funcional y para algunos expertos en el
tema de la interfaz gráfica no lo es, se puede aseverar que la metáfora de
escritorio es un diseño inclusivo, universal el cual persigue y pretende ser
utilizado por la gran mayoría de los usuarios. Pero la primer pregunta aquí
252
es: ¿El diseño inclusivo debe ser contemplado en el diseño de la interfaz
gráfica de una computadora? Lo anterior es bastante cuestionable ya que
las computadoras son utilizadas por personas de: 1) distintas edades (niños,
jóvenes, etc.), y 2) diversas habilidades, siendo contrario a lo que establece
el diseño inclusivo: diseñar para la mayoría.
¿Sería posible realizar un cambio de diseño a la interfaz gráfica de usuario?,
puntalmente tomando en consideración algunos elementos de la metáfora
de escritorio, como son los iconos (elementos interactivos visuales) de escritorio. Los cuales serían diseñados incluyendo conceptos como: a) la ergonomía cognitiva, b) diseño emocional, y c) la semiótica. Pretendiendo a su vez
la funcionalidad para usuarios que correspondan a un determinado rango de
edad, y en consecuencia cuentan con diferentes habilidades.
En este trabajo se presenta un avance de la investigación sobre la metáfora
de escritorio, el objetivo de la investigación es analizar los elementos representativos de la metáfora visual utilizada en una computadora personal.
Este análisis se realiza desde el enfoque tradicional de la interacción humano - computadora (HCI, por sus siglas en inglés), la semiótica y semántica,
así como un acercamiento de las ideas del diseño emocional aplicado a
la creación de la interfaz gráfica de usuario. De entre los elementos que
comprenden la metáfora de escritorio se pretende analizar los iconos, con
la finalidad de diseñar un conjunto de elementos interactivos visuales que
puedan funcionar adecuadamente para un segmento de usuarios que interactúan con la computadora y se puedan realizar tareas básicas (leer noticias, abrir un documento, enviar mensajes y navegar por internet) por parte
del usuario.
Interfaz física y visual de la computadora personal
Un elemento imprescindible en los artefactos tanto tangibles como intangibles es la interfaz, esta permite que se logre la interacción entre una persona y un artefacto (objeto o máquina), estableciendo una comunicación y
retroalimentación entre el usuario y el artefacto. La interfaz visual o interfaz
gráfica de usuario (GUI, por sus siglas en ingles) de la computadora personal
es una metáfora de escritorio.
253
Interacción a traves de la metafora de escritorio
La metáfora de escritorio tiene la idea de lograr una interacción análoga a
la realidad (Ver figura 1) persiguiendo el objetivo de persuadir y atraer el
sentido de la vista del propio usuario. Basada en la interacción persona –
ordenador (IPO), la retórica visual y la intuición del usuario; aunque para
algunos investigadores de la IPO debería ser evitada ya que no es considerada un buen modelo.
Figura 1. La metáfora del escritorio funge como interfaz entre el usuario y la computadora
personal.
La metáfora es la figura retórica por excelencia utilizada en el lenguaje
visual, consiste en cambiar el sentido directo por el figurado (Regalado,
2006:139). Y no solo se traslada el sentido de una palabra o el nombre,
también se transfieren las cualidades de una entidad a otra de forma comparativa, puede ser imágenes, objetos y texto.
Como antecedente de la metáfora de escritorio se presenta el esquema (Ver
figura 2) elaborado por Tim Mott, trabajador de Xerox, tal esquema no fue
creado con la idea de realizar una metáfora del escritorio, sino de simplemente representar tareas como la de archivar, copiar, imprimir o tirar un
documento; los documentos y tareas debían ser representados gráficamente
en la pantalla de la computadora, la finalidad era facilitar el trabajo de los
usuarios con la simple acción de apuntar y dar clic sobre las representaciones gráficas.
254
Figura 2. Esquema de Tim Mott (Moggride, 2006).
Primer enfoque de la interfaz grafica de usuario
Xerox inicia con su primera estación de trabajo llamada Xerox Alto, aunque
solo era un experimento, inicio el paradigma WIMP. Posteriormente llego
Xerox Star8010 la cual ya manejaba la metáfora de escritorio, otras compañías comenzaron a integrar la interfaz gráfica de usuario y con ello la
metáfora de escritorio.
La compañía Apple con su modelo Apple Lisa introdujo de forma comercial
las computadoras, al poco tiempo incursiono Microsoft al negocio de las
computadoras realizando su propia versión de interfaz gráfica para su sistema operativo Windows 1.0.
La compañía Apple presenta en 1984, Macintosh una computadora que
contaba con una interfaz tangible (teclado, mouse)1 y una interfaz amigable,
ésta debía logra que el usuario se sintiera cómodo usando los programas de
una computadora y a su vez facilitarle el uso en una forma general.
Después de casi más de treinta años, la metáfora de escritorio es el concepto
principal de la interfaz amigable, donde se ha puesto mayor atención a la
interacción entre el usuario y el artefacto, así como el deseo de brindar una
interfaz transparente que desaparece cuando la computadora es utilizada
por el usuario; un autor a favor de esta última idea es Don Norman haciendo saber que para que el usuario pueda concentrarse en su trabajo hay que
eliminar la máquina y hacer desaparecer la interfaz (Scolari, 2004:24).
1. Es un dispositivo que realiza la función de apuntador en una interfaz gráfica, su inventor fue Douglas Engelbart.
255
Áreas dentro de la investigación proyectadas al diseño de elementos interactivos visuales
Ergonomía cognitiva, interacción y sentidos
El término de ergonomía cognitiva (EC) de acuerdo a José Cañas (2011),
puede definirse como: la disciplina que estudia los aspectos cognitivos de la
interacción entre las personas, el sistema de trabajo y los artefactos con el
objeto de diseñarlos para que la interacción sea eficaz.
Así también de acuerdo con el autor del libro ergonomía cognitiva, la computadora se ha convertido en el principal artefacto de nuestras vidas, esto es
una razón por la cual se sustituye en el término ergonomía por interacción
persona – ordenador. Parte de la interacción con una computadora se realiza
a través los sentidos de la vista y el oído, y el 80% del aprendizaje general se
realiza a través del sentido de la vista, es importante poner especial atención
al diseño de elementos interactivos visuales correspondientes a la interfaz
gráfica de usuario.
En la interacción ocurren procesos cognitivos como: percepción, aprendizaje y solución a problemas; los cuales deben ser considerados para explicar
tareas cognitivas por mencionar algunas como: buscar e interpretar información, toma de decisiones, solución de problemas.
Para Norman los artefactos cognitivos son aquellos que mantienen, presentan y operan sobre la información para cumplir una función representacional y afectan la actividad cognitiva humana. Para el caso de esta investigación la interfaz gráfica de usuario es considerada un artefacto cognitivo. De
acuerdo a Cañas existe un nivel de percepción individual y un nivel anterior
llamado sensorio–motor estos dos son importantes cuando los usuarios trabajan con interfaces gráficas. Se utilizan acciones naturales, que implican
al nivel sensorio – motor, sin requerir la percepción individual; pero es difícil utilizar un único nivel para tratar artefactos complejos como una GUI
(graphic user interface), que también precisa de búsquedas perceptuales o
conceptuales (tareas cognitivas); por las razones anteriores se propone que
el diseño emocional sea contraparte en el diseño de elementos interactivos
visuales correspondientes a la interfaz gráfica ya que las emociones pueden
hacer el balance con los procesos cognitivos.
Diseño emocional
Los más recientes descubrimientos científicos demuestran que las emociones juegan un papel esencial en: 1) la toma racional de decisiones, 2) la
percepción, 3) el aprendizaje y varias funciones cognitivas.
256
La evidencia muestra que un equilibrio emocional sano es primordial para
la inteligencia y para la solución creativa y flexible de problemas (LaureanoCruces, Hegmann-González, 2011).
De acuerdo a Rosalind Picard (1998), ¿si se pretende? desarrollar sistemas
que en verdad sean capaces de simular comportamientos inteligentes y que
en consecuencia se adapten y se relacionen naturalmente con los seres humanos, estos deben contar con la capacidad de: reconocer, expresar y tener
emociones. En esencia tener, lo que se ha llegado a conocer cómo inteligencia emocional.
Cytowyc (citado en Picard, 1998), hace notar que las personas con frecuencia dicen; lo siento, no estaba pensando pero nunca dicen, lo siento, no
estaba sintiendo.
El objetivo del diseño emocional es hacer que la vida de las personas sea
más placentera al utilizar objetos que cumplen con el modelo de este diseño. También nombrado como diseño afectivo se define como el estudio
de la relación entre las características físicas y racionales de los productos y
los efectos emocionales o subconscientes que causan en las personas que
interaccionan con ellos, y el uso de ese conocimiento para lograr diseñar
productos más satisfactorios (PRODINTEC, 2001). Tal es el caso del diseño
de los agentes pedagógicos que incluyen emociones con el fin de contar con
una interacción más efectiva durante el proceso de enseñanza-aprendizaje.
(Laureano-Cruces, Mora-Torres, Ramírez-Rodríguez, De Arriaga-Gómez,
2011), (Laureano-Cruces, Mora-Torres, Ramírez-Rodríguez, Gamboa-Rodríguez, 2010), (Mora-Torres, Laureano-Cruces, Gamboa-Rodríguez, RamírezRodríguez, Sánchez-Guerrero, 2014).
Un ejemplo de diseño emocional es el siguiente: en la década de los 90,
Masaaki Kurosu y Kaori Kashimura investigadores japoneses afirmaron que
los objetos atractivos funcionan mejor, afirmaron esto por medio de experimentos realizados sobre el diseño de los botones en los cajeros automáticos,
descubriendo que los diseños más atractivos eran más fáciles de usar por los
usuarios. Norman interpreta lo anterior así: las cosas atractivas hacen que
las personas nos sintamos mejor, lo que nos lleva a pensar de forma más
creativa. ¿Cómo se traduce eso en mejor usabilidad? Muy simple, haciendo
que las personas puedan encontrar soluciones a sus problemas más fácilmente. (Cañada & Van Hout, 2005).
En el diseño emocional existen varios modelos conocidos, entre estos se
encuentra el de Peter Desmet, Patrick Jordan, Rafaeli y Vilnai y el más sobresaliente pertenece a Donald Norman; para este trabajo de investigación el
257
modelo de diseño emocional a seguir será el de Rafaeli y Vilnai ya que solo
involucra tres dimensiones (Ver figura 3) que tienen cierta relación con las
áreas de investigación que se proponen incluir en el diseño de los elementos
interactivos visuales.
Modelo teórico de Rafaeli y Vilnai
Tres mecanismos o dimensiones que evocan emociones:
• Instrumental, donde la emoción generada es propia de la función práctica del producto y guarda relación con la ergonomía cognitiva e usabilidad.
• Estética, la emoción es creada por el gusto propio de las personas hacia ciertas particularidades del diseño, en este caso el de los elementos
interactivos visuales.
• Simbólica que está conexa a lo que el objeto comunica y la asociación
realizada por las personas, esta dimensión tiene correspondencia con
el área de la semiótica.
Figura 3. Modelo teórico de Rafaeli y Vilnai sobre diseño emocional (Yañez, 2014).
Modelo de Donald Norman – 3 reacciones emocionales
Este modelo será utilizado para realizar la evaluación de los elementos interactivos visuales diseñados en esta investigación. En el modelo de Norman
operan tres niveles (Ver figura 4): visceral, conductual y reflexivo los cuales
van relacionados entre sí y en cada nivel el usuario del artefacto tiene una
reacción; la hipótesis para los elementos interactivos visuales diseñados es:
sí se cumple con cada uno de los tres niveles del modelo de Norman, entonces se estarían generando emociones a través de los mismos.
258
Figura 4. Modelo teórico de Donald Norman sobre diseño emocional (Yañez, 2014).
Comunicación persona – ordenador – semiótica
La manera en que un diseñador y un usuario logran comunicarse es a través
de los diseños del propio diseñador, pero de qué forma es la comunicación
entre la persona y el ordenador (computadora). En el modelo de comunicación propuesto por Claude Shannon y Warren Weaver, se explica que
la comunicación se lleva a cabo de la siguiente forma: un emisor produce
un mensaje empleando un código, dicho mensaje es enviado por un canal
hacia un receptor. Se establece un modelo de comunicación entre persona y
ordenador donde el emisor/receptor es tanto la persona como ordenador en
todo momento del proceso de comunicación (Ver figura 5), la interfaz gráfica es el canal por el cual viajan los mensajes y estos últimos conformados
por un conjunto de signos, estudiados desde la semiótica.
Figura 5. Elementos de la comunicación entre persona - ordenador (Yañez, 2014).
259
La semiótica con base en la idea de Peirce y Saussure
El significado de los signos en diferentes contextos corresponde a los estudios de semiótica. La palabra semiótica proviene del término griego semiotikos, lo cual significa: un interpretador de signos.
Para Peirce un signo es algo (dentro de el contexto de esta investigación ese
algo puede ser una imagén, una gráfica, los propios iconos de la metafora
del escritorio) que está por otra cosa y que es entendido o tiene algún significado para alguien; dicho signo tiene una teoría tríadica concebida por
Peirce la cual está conformada por: un objeto, un representamen (o signo
propiamente dicho) y un interpretante (la representación, algo que se presenta); por lo tanto el representamen es el signo que sustituye a el objeto y el
interpretante es la idea que se transmite o percibe sobre dicho objeto.
Fernandind de Saussure, enfocado al área de la lingüística tiene una concepción de un signo lingüístico, conformado por una entidad binaria o diádica
(significante y significado).
El significante se refiere al aspecto material y el significado al concepto mental; lo que une al significante con el significado es una convención entre un
grupo de personas. Dentro de la semiología de Saussure, un mismo significante puede tener diferentes significados o varios significantes con el mismo
significado.
Con base en la teoría de Peirce, Saussure y Hjelmslev se propone un esquema (Ver figura 6) de como los elementos de la semiótica están involucrados
en la realidad externa (objetos/referente), representada por signos, símbolos,
iconos (representamen/significante); evocando (interpretante/significado) un
concepto mental, pensamientos u emociones que dependen de la realidad
propia de cada individuo.
Figura 6. Elementos de la semiótica con base en la teoría de Peirce, Saussure y Hjelmslev
(Yañez, 2013).
260
Un icono es un signo. Del icono al elemento interactivo visual.
Los iconos son el dialecto de una interfaz gráfica de usuario, los cuales
pueden variar, también el conjunto y manera de expresar de estas señales
puede hacerlo (Caplin, 2001:26). Así mismo dicho autor menciona que para
algunos el icono solo es una imagen gráfica que servirá para identificar el
producto y para otros muestra la función del producto de manera acertada,
algo que, para alguien, representa o se refiere a algo en algún aspecto…
(Pierce en Sosa, 2006). Por lo tanto ese algo, el icono en la metáfora de
escritorio puede ser representado con otro algo, figura o imagen gráfica,
la cual puede expresar o significar otra relación en la mente del usuario y
puede funcionar de manera adecuada para él mismo. Por otra parte es un
elemento visual en la pantalla del ordenador por medio del cual surge una
interacción entre el usuario y el ordenador, un elemento interactivo visual
es lo que se propone.
Un ejemplo de lo dicho anteriormente son los iconos de la papelera de reciclaje, el primer icono (Ver figura 7) corresponde al sistema operativo (S.O.)
Windows y el segundo icono al S.O. Macintosh, donde haciendo referencia a la metáfora estos dos iconos indican (botes de basura) en la realidad
(mundo tangible, oficina) que sirven para desechar los documentos, pero
ciertamente en una computadora no se trabaja con documentos tangibles
que puedan desecharse por completo; por lo tanto si un grupo de usuarios
se pusiera de acuerdo en un elemento interactivo visual para desechar los
archivos generados en la computadora podría ser una simple caja de cartón
(ver figura 7) u otro signo, algo que funcionará de forma similar a los dos
iconos anteriores, solo bastaría que este representamen le evocará algún significado en la memoria del usuario y lo comprendiera con el simple hecho
de verlo.
Figura 7. Todo icono es un signo. Elementos interactivos visuales (Yañez, 2013).
Diseño inclusivo
Conocido también como diseño universal o diseño para todos, establece
que se deben diseñar y crear productos y servicios para la mayor parte de
261
los usuarios, sin importar su edad, habilidades o si tiene o no discapacidades. Pero cada persona tiene habilidades, aptitudes y emociones diferentes,
esto resulta en segmentos de personas con varias diferencias entre ellas.
Resultaría complicado diseñar una interfaz gráfica de usuario para todos los
que utilizan una computadora, tal es el caso de las actuales interfaces en los
sistemas operativos y es por eso que la diversidad de usuarios repercute en
la propuesta de esta investigación. Si en esta investigación se logran diseñar
elementos interactivos visuales que resulten intuitivos, emocionales y con
una idea en la mente del segmento de usuarios propuesto se daría un paso
hacia un verdadero diseño inclusivo en la interfaz gráfica de la computadora.
Conclusiones
Es posible diseñar nuevos elementos interactivos visuales (iconos) para un
cierto segmento de usuarios, estos facilitarían la migración hacia el uso de
las nuevas tecnologías, pero se estaría apuntando en contra del diseño inclusivo ya que nuestro segmento de usuarios no considera a todos los usuarios
en este momento. Difícilmente en el área de la interfaz gráfica de usuario
es difícil mantener el diseño inclusivo, ya que cada usuario tiene diferentes
habilidades y diversas concepciones de los iconos en la computadora.
La semiótica realiza una función teórica, es decir, y es difícil tomar tales
teorías para integrarlas al diseño de iconos funcionales, si se lograran aplicar
se pueden obtener buenos resultados; por ejemplo: realizar una personalización de la interfaz gráfica que mejore el uso de las nuevas tecnologías.
Al diseño emocional le ocurre lo mismo que a la semiótica, tiene teorías
sobre cómo debe funcionar y verse el objeto, pero no como aplicar esos
conocimientos al diseño de una interfaz gráfica. Tendría que adoptarse una
metodología para el análisis y diseño como es la ingeniería kansei y el modelo informático de la teoría OCC (Ortony, Clore, Collins, 1996) para traducir la teoría, la investigación y los conocimientos a una evidencia operativa.
No se pretende modificar la metáfora de escritorio, sino diseñar otro paradigma de interfaz gráfica de usuario basado en la semiótica y diseño emocional podría facilitar el uso de la computadora a usuarios que la han abandonado, o a quienes les cuesta trabajo su uso debido a que pertenecen a
generaciones que no tuvieron una participación activa.
262
Agradecimientos
Este proyecto forma parte de la investigación desarrollada por José Alberto
Yañez-Castillo para obtener el grado de Maestro en Diseño (Visualización
de la información) por la Universidad Autónoma Metropolitana-Azcapotzalco. Forma parte del proyecto de investigación: consciencia artificial y
emociones de la misma Universidad.
Referencias
[1] Caplin, S. (2001). Diseño de iconos. Iconos graficos para el diseño de interfaces. México:
Edicones G.Gili
[2] Cañada, J., & Van Hout, M. (2005). Donald norman y el diseño emocional. Visual, (113),
Recuperado de <http://s3.amazonaws.com/tck-site/docs/2005_VISUAL_Norman_TheCocktail.pdf >
[3] Cañas, J. J. (2001). Ergonomía cognitiva: aspectos psicológicos de la interacción de
las personas con la tecnología de la información. (p. 260). Ed. Médica Panamericana. Recuperado de: < http://books.google.com.mx/books/about/Ergonomía_cognitiva.
html?id=GqV_G-gkkwUC&redir_esc=y >
[4] Comunidad de diseño de experiencia. (s.f.). ¿Qué es el diseño inclusivo? Recuperado
de: <http://www.uxd.cl/2011/12/articulos/experiencia-de-usuario/%C2%BFque-es-eldiseno-inclusivo/>
[5] Crow, D. (2008). No te creas una palabra. Una introducción a la semiótica. (1ra ed., p.
192). Barcelona: Promopress.
[6] De la Torre y Rizo, G. (1992). El Lenguaje de los símbolos gráficos: introducción a la
comunicación visual. (p.130) Editorial Limusa.
[7] Fundación PRODINTEC, (2001). Diseño afectivo e ingeniería Kansei. Centro Tecnológico para el Diseño y la Producción Industrial en Asturias, España. Recuperado de:
<http://www.prodintec.es/prodintec/es/ingenieria-kansei>
[8] Hall, S. (2007). Esto significa esto, esto significa aquello. Semiótica: guía de los signos y
su significado. (p. 176). Barcelona, España: Editorial Blume.
[9] Hassan, M. Y., & Ortega, S. S. (2009). Informe APEI sobre usabilidad. Recuperado de:
< http://www.nosolousabilidad.com/manual/1.htm >.
[10]Lakoof, G., & Johnson, M. (1995). Metáforas de la vida cotidiana. (2a ed., p. 188). Editorial Catedra. Recuperado de: http://www.textosenlinea.com.ar/academicos/Lakoff y
Johnson - Metaforas de la vida cotidiana - Selección de Caps.pdf
[11]Laureano-Cruces, A.L., Hegmann-González, E. (2011). Maze Videogame that Adapts to
the User’s Emotions Accord- ing to his Behavior, ICGST-Artificial Intelligence Machine
Learning Journal, Vol. 11, No. 2, 2011, pp. 21-25. Recuperado de: < http://www.icgst.
com/paper.aspx?pid=P1121102462 >
[12]Laureano-Cruces, A.L., Mora-Torres, M., Ramírez-Rodríguez, J., De Arriaga-Gómez,
F. (2011) Operative Strategies Related to an Affective-Motivational Architecture to
Achieve Instructional Objectives, ICGST-Artificial Intel- ligence Machine Learning Jour-
263
nal, Vol. 11, No. 2, 2011, pp. 15-20. Recuperado de: < http://www.icgst.com/paper.
aspx?pid=P1121139825>
[13]Laureano-Cruces, AL., Mora-Torres, M., Ramírez-Rodríguez, J., Gamboa-Rodríguez, F.
(2010). Implementation of an affective-motivational architecture tied to a teaching-learning process. En Proceedings de E-Learn 2010 World Conference on E-Learning in Corporate Govermment, Healthcare, & Higher Education, pp. 1930-1938. ISBN: 1-88009453-5. Orlando, Florida, October 18-22.
[14]Lineback, N. (s.f). The Graphical User Interface Gallery. Recuperado de: < http://toastytech.com/guis/index.html >
[15]Marrero, C. (2006). Interfaz gráfica de usuario: Aproximación semiótica y cognitiva.
Universidad de la Laguna, Tenerife, España. Recuperado de: <http://www.chr5.com/investigacion/investiga_igu/igu_aproximacion_semio-cognitiva_by_chr5.pdf>
[16]Mercovich, E. (1999). Ponencia sobre diseño de interfaces y usabilidad: cómo hacer
productos más útiles, eficientes y seductores. Notas de la ponencia en: SIGGRAPH ’99,
Buenos Aires, Argentina. Recuperado de:<http://www.gaiasur.com.ar/infoteca/siggraph99/diseno-de-interfaces-y-usabilidad.html>
[17]Moggride, B. (2006). Designing interactions. (p. 792). Estados Unidos: MIT Press. Recuperado de: < http://www.designinginteractions.com/book >
[18]Mora-Torres, M., Laureano-Cruces, A.L., Gamboa-Rodríguez, F., Ramírez-Rodríguez, J.,
Sánchez-Guerrero, L. (2014). An Affective-Motivational Interface for a Pedagogical Agent.
En International Journal of Intelligence Science, 2014, 4, 17-23 Published Online January
2014. < http://www.scirp.org/journal/ijis http://dx.doi.org/10.4236/ijis.2014.41003 >
[19]Mora-Torres, M., Laureano-Cruces, A.L., Velasco-Santos, P. (2011). Estructura de las
Emociones dentro de un Proceso de Enseñanza-Aprendizaje. Perfiles Educativos-UNAM.
Vol. XXXIII, núm. 131, enero – marzo 2011, pp 64-79. ISSN: 0185-2698.
[20]Neiret, Sara Noemi (2008). Diseño de Interfaz en el Software Educativo Infantil = Diseño
de Emociones. Tesis de grado para obtener el Grado de Especialista en Tecnología Informática Aplicada a la Educación. Universidad Nacional de La Plata Facultad de Informática
Diseño.
[21]Norman, D. (2005). El diseño emocional: Por que nos gustan o no los objetos cotidianos.
(p. 279). Editorial Paidós.
[22]Nielsen, J. (1993). Usability engineering. (p. 362). Estados Unidos: Morgan Kaufmann.
[23]Ortony, A., G.L. Clore y A. Collins (1996).La estructura cognitiva de las emociones.
Madrid, Editorial SigloXXI
[24]Regalado, E. (2006). Lectura de imagenes. elementos para la alfabetización visual curso
básico. (p. 160). México: Plaza y Valvere editores.
[25]Picard R. (1998). Affective Computing. Editorial (MIT).
[26]Shneiderman, B., & Plaisant, C. (2005). Diseño de interfaces de usuario: estrategias para
una interacción persona-computadora efectiva. (4a ed., p. 722). Pearson Educación.
264
[27]Sosa, O. (2006). Diseño de la Interfaz Gráfica de Usuario de un Cliente de Mensajes por
Internet para Dispositivos de Comunicación Móviles. Tesis maestría, Departamento de
Arquitectura y Diseño, Universidad de las Américas Puebla. Recuperado de: <http://
catarina.udlap.mx/u_dl_a/tales/documentos/mdi/sosa_t_o/portada.html>
[28]Shim, J. (2012). Arium: Beyond the desktop metaphor. (Tesis de Maestría, Carnegie Mellon University). Recuperado de: <http://repository.cmu.edu/cgi/viewcontent.cgi?article
=1033&context=theses>
[29]The mothership. (s.f.). Lisa 1. It works the way you do. Recuperado de: <http://www.
macmothership.com/gallery/gallery2.html
265
La influencia de la emociones en el fenómeno de la consciencia
Ana Lilia Laureano-Cruces1,2, Martha Mora-Torres2, Lourdes Sánchez-Guerero1,
Javier Ramírez-Rodríguez1 y Javier Garduño-Cimental2
Departamento de Sistemas, Universidad Autónoma Metropolitana – Azc.,
2
Posgrado en Ciencia e Ingeniería de la Computación,
Universidad Nacional Autónoma de México
1
{clc, lsg, jararo }@azc.uam.mx, [email protected], [email protected]
Resumen
En este artículo hacemos un acercamiento a los conceptos que implican al
fenómeno de la consciencia artificial. A través de las siguientes secciones
dejamos claro que la puerta grande para entender el fenómeno de la consciencia es a través de las emociones a quienes se les considera los guardianes
de ésta y en consecuencia de nuestra conducta. En la rama de inteligencia
artificial con el fin de modelar un comportamiento se han tomado en consideración varias corrientes de diseño que van desde: 1) el simbolismo, 2)
sub-simbolismo, incluyendo una 3) combinación de ambos. En este instante
se germina otra forma de diseño. Ya no deseamos comportamientos situados y ubicados con características reactivas, ni comportamientos puramente racionales. Deseamos generar un cierto grado de autonomía utilizando
emociones. Las valencias de estas últimas serán las que permitirán generar
distintas acciones; ya no serán acciones del tipo estímulo-respuesta. Sino
que pasarán por un tamiz constituido por las emociones y su afectación que
proviene: a) del entorno y las distintas sensaciones, y b) las motivaciones internas. Estas últimas podrán disponer de distintas descripciones de acuerdo
a las distintas vivencias. A continuación y comprendiendo que parte de esa
autonomía es ser capaces de modelar el fenómeno de la consciencia a través
de las emociones; queremos dejar constancia de la importancia que tiene un
modelo de emociones para lograr dicha autonomía.
Palabras clave: consciencia artificial, homeostasis, emociones, neuro mediadores, sueño, hormonas.
Abstract
In this article we make an approach to the concepts that imply the phenomenon of the artificial consciousness. Through the following sections it
clear that large to access the door phenomenon of consciousness is through
emotions that are considered the guardians of consciousness. The branch
of artificial intelligence in order to model human behavior are taken into
account several design flows ranging from: 1) the symbolism, 2) sub-symbo266
lism, including a 3) combination of both. At this time another design form
is germinated. No longer wish behaviors located and placed with reactive
features, nor purely rational behavior. We generate a certain degree of autonomy using emotions. The valences of the latter will be able to generate different actions; Actions are no longer stimulus-response type. But go through
a sieve consisting of emotions and its effect coming: a) the environment
and the different sensations, and b) internal motivations. The latter may have
different descriptions according to different experiences. Then and realizing
that some of that autonomy is to be able to model the phenomenon of consciousness through the emotions; want to acknowledge the importance of a
model of emotion to achieve autonomy.
Key words: artificial consciousness, homeostasis, emotion, neuro mediators,
sleep, hormones.
Introducción
Uno de los objetivos de la inteligencia artificial o llamada también ciencia
cognitiva es simular el comportamiento que en el caso de estudio se refiere
a simular el funcionamiento de un cerebro. Donde un cerebro es definido
como una masa orgánica que funciona exactamente como un circuito eléctrico (Rodrígues dos Santos, 2013) y produce un fenómeno llamado consciencia.
La consciencia es una palabra extraña, a la vez vaga que funciona como un
forro que es capaz de adaptarse a todo y al mismo tiempo precisa como un
rayo láser.
Cómo podríamos distinguir una máquina con un comportamiento que implique consciencia de aquella que no lo tiene. Las dos en un momento
dado pueden tener el mismo comportamiento, sin embargo en un caso es el
resultado de una programación diseñada y anticipada, y en otro caso es el
resultado de una inferencia interna. Esta última es producto precisamente de
la valencia de las emociones.
Estudios recientes sobre la mente humana, revelan que las emociones juegan un papel importante durante el proceso de toma de decisiones, más
aún, nos indican que los procesos cognitivos y las emociones trabajan juntos
de manera sincronizada para formar comportamientos. Bajo esta teoría se
presenta el análisis y diseño de un modelo de emociones que afecta el proceso de toma de decisiones (Acevedo-Moreno, 2011).
267
Las emociones de acuerdo a Reeve mencionado en (Laureano-Cruces, Acevedo-Moreno, Mora-Torres, Ramírez-Rodríguez, 2012), son multidimensionales, existen como fenómenos subjetivos, biológicos, de propósito y sociales. Cuando hablamos de subjetivos nos referimos a como es que nos hacen
sentir, por ejemplo, alegres o irritados. En el caso de los biológicos nos referimos a la movilización de energía para adaptarse a cualquier situación que
se presente. Por otro lado se les puede ver como agentes de propósito, ya
que crean un deseo motivacional. Y finalmente tienen un aspecto social ya
que comunican lo que sentimos a los demás y viceversa.
Se hace hincapié en que estamos hablando de un equilibrio emocional,
todos sabemos que los extremos pueden causar gran daño en el proceso de
razonamiento para la toma de decisiones. Sin embargo de acuerdo a investigaciones sobre el tema existe evidencia de que pocas emociones pueden
tener el mismo efecto. Por lo tanto se parte del supuesto de que existe una
salud e inteligencia emocional dentro del cuadro del cual nosotros partimos
para poder desarrollar los modelos que permiten tomar una decisión tomando en consideración las emociones.
Ante todo debemos saber que nuestro cerebro trabaja a máxima potencia sin
guardar energía. Todo el tiempo está al 100% de su capacidad día y noche;
lo mismo si estas dormido que despierto. Pero solamente el 1% de esta actividad es cognitiva, en otras palabras accesible a la consciencia, esto es, todo
eso que nos hace: hablar, movernos, pensar, inventar, decidir o movernos.
El 99 % restante es inconsciente; sirve para reforzar de manera permanente
todos nuestros recursos neuronales, y representa el funcionamiento cortical
por defecto.
Trabajaremos con tres autores que consideramos emblemáticos sobre los
campos de las emociones, el fenómeno de la consciencia y la consciencia
artificial. Ellos son Rosalind Picard, Patrice Van Eersel e Igor Aleksander respectivamente.
Revisaremos extractos de ideas de algunos de ellos, tratando de entrelazarlos y así darle un sustento al fenómeno de la consciencia; dejando clara su
conexión con las emociones y su papel relevante en el proceso de toma de
decisiones que permite simular dicho fenómeno. Comenzaremos por enumerar una serie de características desde el punto de vista de las neurociencias.
Características de la consciencia
De acuerdo a Igor Aleksander (2005), la consciencia es la capacidad que
tiene el ser de percibir el mundo y dotarlo de un significado a través de las
268
representaciones de éste, en un mundo interior. Para cada cosa que existe
en el mundo externo existe una representación interna y estas representaciones las crea el individuo a lo largo de su vida y éstas conllevan experiencia
que se acumula desde que nace. Para lograrlo debe ser capaz de colocar su
yo en el mundo externo a través de: 1) la imaginación, 2) poner atención a
eventos importantes, 3) planificar con antelación, 4) sentir emociones con
respecto a lo que puede suceder.
Homeostasis y las emociones
De acuerdo a Van Eersel (2012) la consciencia es el arte de permanecer en
constante inestabilidad. Esta idea es válida tanto para un geranio como para
una lombriz, en este caso la consciencia se refiere al espíritu que corresponde a la voluntad de sobrevivir y a la capacidad social de distinguir el interior
del exterior. En otras palabras es el arte de regular las medidas químicas de
un cuerpo. Este proceso es omnipresente y se conoce como homeostasis.
Cuando hablamos de homeostasis hablamos de la capacidad que tiene un
sistema de auto regularse, en otras palabras, ser capaz de estabilizarse tomando en consideración los cambios en su interior de acuerdo a los cambios exteriores. Lo anterior implica tener en consideración una gama de
umbrales viables en las distintas variables que regulan el proceso, y que se
lo permiten. Cuando la estabilidad se produce implica la muerte.
De esta forma podemos decir que la homeostasis conlleva la vida y esta
reflexión vale tanto para una bacteria como para un ser humano. En el caso
de un ser humano se traduce en vivir, sentirse bien y feliz, esta reflexión nos
lleva a pensar en las sensaciones que implican emociones.
El fenómeno de la cartografía o descripción
Los seres humanos son conscientes porque saben y piensan y esto se debe
en gran medida al proceso de crear cartografías; lo que les permite integrar
descripciones provenientes del entorno. Este proceso es llevado a cabo de
forma constante y sin parar por nuestro cuerpo. Se desarrolla a partir de las
pequeñas sensaciones percibidas por el cuerpo; generando de esta forma: a)
un modelo interno de él mismo, b) de él mismo en el mudo, y 3) en consecuencia un modelo del mundo. Este desarrollo es válido para: una mosca,
un caracol y una bacteria.
269
La diferencia para el ser humano consiste en que su cerebro posee una complejidad de proceso que le permite llegar más lejos que ningún otro ser vivo
conocido. Debido a la capacidad para generar descripciones e integrarlas
como un todo, posee la capacidad de volverse a su interior y reconocer esas
descripciones como propias y hacer emerger una instancia llamada yo soy.
Las emociones
Los más recientes descubrimientos científicos demuestran que las emociones juegan un papel esencial en: 1) la toma racional de decisiones, 2) la
percepción, 3) el aprendizaje, y 4) varias otras funciones cognitivas. La evidencia muestra que un equilibrio emocional sano es primordial para la inteligencia y para la solución creativa y flexible de problemas.
De acuerdo a Rosalind Picard (1998), ¿si se pretende? desarrollar sistemas
que en verdad sean capaces de simular comportamientos inteligentes y que
en consecuencia se adapten y se relacionen naturalmente con los seres humanos, estos deben contar con la capacidad de: reconocer, expresar y tener
emociones. En esencia tener, lo que se ha llegado a conocer cómo inteligencia emocional. Cytowyc (citado en Picard, 1998), hace notar que las
personas con frecuencia dicen; lo siento, no estaba pensando pero nunca
dicen, lo siento, no estaba sintiendo.
Antonio Damasio no duda que todo el proceso de cartografía, llegue al cerebro cargado de emociones, lo mismo para una lombriz que para un caracol.
Lo que conocemos como emociones representa un valor utilitario que nos
permite dar una valoración al proceso de homeostasis. Esto es, si mis medidas están en equilibrio mis sentimientos son buenos. Sí mis medidas se
encuentran en desequilibrio mis sentimientos son malos. Las emociones
son una experiencia hedonista que tiene dos polos placer o sufrimiento.
Lo que no sabemos es que esta bipolaridad se aplica a las descripciones
particulares de las experiencias que nosotros llamamos estructura cognitiva de las emociones (Laureano-Cruces, Mora-Torres, Ramírez-Rodríguez,
Gamboa-Rodríguez, 2010; Laureano-Cruces, Guadarrama-Ponce, Mora-Torres, Ramírez-Rodríguez, 2011; Laureano-Cruces, Rodríguez-García, 2011;
Laureano-Cruces, Hernández-González, Mora-Torres, Ramírez-Rodríguez,
2012; Laureano-Cruces, Acevedo-Moreno, Mora-Torres, Ramírez-Rodríguez, 2012; Mora-Torres, Laureano-Cruces, Velasco-Santos, 2011; Ortony,
Clore, Collins, 1996). Por lo tanto estas descripciones deben contar con una
cartografía emotiva, esto es contar con información que permita predecir
durante el proceso de imaginación, sufrimiento o felicidad. Debe ser un
mapeo en continuo movimiento, en otras palabras el sistema debe estar
270
ubicado y situado con el fin de estar conectado al mundo.
De esta forma y de acuerdo a Johnson-Laird y Shafir (citados en Picard, 1998)
el papel de las emociones resulta esencial para el proceso de razonamiento,
ya que resulta imposible determinar por lógica, dadas ciertas premisas, y un
número infinito de conclusiones, cuáles de estas resultan razonables. Aun
tomando en cuenta el paralelismo masivo del cerebro humano resulta imposible registrar todas las posibilidades relacionadas con nuestras decisiones.
Procesos automáticos que pueden o no ser conscientes y su relación con las
emociones
Al llegar los primeros homínidos la consciencia homeostática de los seres
vivientes entra en un proceso de piloto automático, actualmente es como
están activadas nuestras funciones esenciales como: caminar, respirar, escuchar, esto forma parte de nuestra parte reactiva. Como ya mencionamos
el 1% de esta actividad es cognitiva, en otras palabras accesible a la consciencia, esto es, todo eso que nos hace: hablar, movernos, pensar, inventar,
decidir o movernos. El 99 % restante es inconsciente; sirve para reforzar de
manera permanente todos nuestros recursos neuronales, y representa el funcionamiento cortical por defecto de acuerdo a Bernard Mazoyer mencionado en (Cyrulnik, Bustany, Oughourlian, André, Janssen, Van Eeresel, 2012).
El salto evolutivo del primate humano se da debido a la abundancia de
estructuración concedida a las neuronas. Siendo el humano el animal que
cuenta con más neuronas alineadas en millares de columnas y renglones;
ellas son capaces de un proceso de cartografía que produce una riqueza
inigualable e inimaginable además de una asombrosa precisión en las descripciones logradas.
Con base en los anteriores características se cree que algún día seremos capaces de leer los pensamientos y las emociones de cualquier persona sí somos capaces de tener acceso a sus descripciones a través de su red neuronal.
Estas descripciones en el ser humano son innumerables y ellas contienen
sensaciones que se dividen en tres categorías de acuerdo a su procedencia:
• Introspección. Sensaciones que provienen de nuestras: vísceras, y toda
experiencia interior, sea cognitiva o emocional.
• Propiocepción. Proyecta las emociones de la cartografía de la descripción en curso que provienen del sistema músculo-esquelético; nos informa sobre nuestros movimientos gobernados por nuestro sentido so271
fisticado del equilibrio y también de los que sentimos con las distintas
acciones.
• Externocepción. Proyecta las emociones de la cartografía que pertenece
a la descripción que proviene de: nuestros cinco sentidos y nuestra piel
al contacto con el mundo. Nos proporciona información sobre nuestro
entorno y gracias a las neuronas espejo lo que concierne a sensaciones
de otro ser humano (empatía).
En otras palabras, aquello que en un ser humano, un erizo, o una lombriz
es gozo o sufrimiento y además puede ser recordado, pensado o imaginado,
ha creado una descripción que tuvo inicio a partir de las emociones; mismas
que fueron grabadas en nuestras neuronas.
Cuando un ser humano siente, habla o se acuerda de cualquier cosa que le
concierne o le concierne a su mundo, es porque su cerebro proyecta una
descripción creada a partir de una cartografía que incluye emociones y que
previamente fue creada a partir de las distintas percepciones de su cuerpo.
Imágenes que evocan placer o sufrimiento suscitan prontas reacciones que
corresponden a reacciones del cerebro motor dentro de ciclos estimuloreacción. Sin embargo, nada de esto es de forma consciente ya que estas
reacciones comienzan a desenvolverse en la forma embrionaria para los
grandes mamíferos y además de forma masiva en casa del humano.
Las hormonas - los neurotransmisores y las emociones
Los neurotransmisores son las sustancias químicas que se encargan de la
transmisión de las señales desde una neurona hasta la siguiente a través de
las sinapsis.
La acetilcolina fue el primer neurotransmisor en ser descubierto. Fue aislado
en 1921 por in biólogo alemán llamado Otto Loewi, la acetilcolina es la responsable de la estimulación de los músculos, incluyendo los músculos del
sistema gastro-intestinal. También se encuentra en neuronas sensoriales y
en el sistema nervioso autónomo, y participa en la programación del sueño
MOR (movimiento ocular rápido).
En 1946, otro biólogo alemán Von Euler, descubrió la noradrenalina, conocida también como norepinefrina; esta fuertemente asociada con la puesta
en alerta máxima de nuestro sistema nervioso. Es prevalente en el sistema
nervioso simpático, e incrementa la tasa cardiaca y la presión sanguínea.
Nuestras glándulas adrenales la liberan en el torrente sanguíneo, junto con
su pariente la epinefrina. Es también importante para la formación de re272
cuerdos. El estrés tiende a agotar nuestro almacén de adrenalina, mientras
que el ejercicio tiende a incrementarlo.
Otro familiar de la norepinefrina y la epinefrina es la dopamina. Es un neurotransmisor inhibitorio, lo cual significa que cuando encuentra su camino
entre sus receptores, bloquea la tendencia de esa neurona a disparar. La
dopamina esta fuertemente asociada con los mecanismos de recompensa
en el cerebro. Las drogas como la cocaína, el opio, la heroína, y el alcohol
promueven la liberación de dopamina, ¡al igual que lo hace la nicotina!
La grave enfermedad mental llamada esquizofrenia, se ha demostrado que
implica cantidades excesivas de dopamina en los lóbulos frontales, y las
drogas que bloquean la dopamina son usadas para ayudar a los esquizofrénicos. Por otro lado, poca dopamina en las áreas motoras del cerebro
es responsable de la enfermedad de Parkinson, la cual implica temblores
corporales incontrolables.
En el caso de la serotonina; está íntimamente relacionada con la emoción y
el estado de ánimo. Poca serotonina lleva a la depresión, problemas con el
control de la ira, el desorden obsesivo-compulsivo, y el suicidio.
Por otro lado las drogas como: la cocaína, la heroína, las anfetaminas, la
morfina, la mariguana, el tabaco y el alcohol, envían a nuestras neuronas
vía el sistema sanguíneo moléculas que se inmiscuyen en el funcionamiento
de la sinapsis. Los nanoespacios entre las células nerviosas es el lugar donde
habitan los neurotransmisores utilizados por las distintas hormonas desde la
adrenalina a la serotonina; de la acetolina a la dopamina. Estas últimas controlan estados interiores; emociones, decisiones, inhibiciones, sentimientos
y estados de ánimo. Cada una de estas drogas secretan diferentes tipos de
influencias de acuerdo a Jean - Pol Tassin mencionado en (Cyrulnik, Bustany,
Oughourlian, André, Janssen, Van Eeresel, 2012).
El cerebro divide el trabajo en dos redes neuronales, en una intervine el 99%
de ella en la otra el 1%. La primera red es la básica (99%) se encarga de
todas las actividades de la vida como son: recepciones sensoriales, motricidad decisiones, memorización, etc. La segunda se superpone a la primera
debido a un arreglo anatómico que parte del cerebro medio; es un recurso
modulador cuya misión es orientar permanentemente todas las operaciones
de la red básica, en cada instante y de acuerdo a la vivencia en curso, las
neuronas moduladoras deciden qué acciones tomar tratando de que éstas
sean las que mejor se adapten de acuerdo a la vivencia.
273
Esta misión es grande e importante, dado que dependiendo de las circunstancias la red moduladora decide afectar al cerebro cognitivo lento y de esta
forma tomar consciencia y poder hablar, memorizara, etc. o ser confiada a
la parte inconsciente haciendo que la operación se desarrolle de manera
instintiva. Como ejemplo podemos respirar de las dos formas, en el caso de
hacerlo de forma voluntaria entra en el campo del cerebro cognitivo lento.
Caso contrario lo hacemos de forma instintiva, llamado también por analogía rápida (piloto automático).
Los neurotransmisores que deciden la vía a través de la que será tratada la
operación cortical se dividen en tres grandes grupos: a) noradrenalina, b) serotonina, c) dopamina. Cuando un dato entra al cerebro primero es tratado
por la noradrenalina y la serotonina; ellas le atribuyen sentido. Posteriormente son transmitidas a los neurotransmisores de la dopamina. Estos últimos no tienen opción y forman el último enlace de la cadena de decisión,
la dopamina es esclava de la adrenalina y la serotonina. Se hace hincapié
en que los neurotransmisores de la dopamina no son autónomos. Pero como
son el último enlace en la cadena de decisión, se les atribuye una importancia que no tienen.
Finalmente el papel de la neuronas es crucial, ya que sí fallan las personas ya no pueden contar con su cerebro cognitivo lento; que comprende la
memoria y la inteligencia. Provocando que las personas solo funcionen en
piloto automático. Entre las fallas se puede dar que de golpe todas las caras
se parecen o se mezclan como en un sueño. Lo anterior repercute en las
distintas emociones que puede sentir una persona.
¿Qué pasa cuando dormimos? ¿Por qué soñamos y por qué nos despertamos? y ¿Cuál es la relación con las emociones?
Es importante resaltar el hecho de que tanto los mamíferos como las aves
sueñan, pero no los reptiles, su antepasado común. Cuando dormimos las
neuronas de la adrenalina y la serotonina deben dejar de funcionar; si no lo
hacen entonces seguro tenemos insomnio.
Las neuronas moduladoras necesitan recuperarse es por eso que tenemos
que dormir y cuando están recuperadas nos despertamos. Lo anterior es parte de la supervivencia dado que una neurona que no funciona muere rápidamente. De esta forma nuestro sueño está formado por micro despertares de
grupos de neuronas que deben sobrevivir y esto es una de las consecuencias
de los sueños.
274
Neurofisiólogos han sugerido que la actividad en un área del cerebro llamada la pontina-geniculado-occipital (PGO) puede estar asociada con una variedad de características de sueño incluyendo su viveza y rareza. En primer
lugar, la parte pensante del cerebro (la corteza en los organismos vivos, un
mecanismo en el robot) necesita ser protegido de la percepción sensorial y
se les debe impidir la activación de la musculatura. Esto dejaría a dicho mecanismo en libertad de evitar o saltarse trayectorias para encontrar el estado
neutro necesario. Pero esto todavía implica un gasto indebido de energía. El
indicio de cómo un robot podría reducir su actividad pensante al mínimo
se presentó en la discusión con Geoff Lockwood anestesista en el Hospital
Hammersmith en Londres (Aleksander, 2005); al parecer, las funciones clave
de una célula ya sea si está en el cerebro o en una máquina representada son
primero aprender cómo reaccionar ante un conjunto de patrones de entrada
y luego responder de manera apropiada a patrones similares a los doctos.
Esta última propiedad se denomina generalización. En módulos, donde las
células son sensibles a la salida de otras células, es esta propiedad la que
crea atractores, es decir, el módulo puede haber aprendido a permanecer estable en algún ciclo de estados que representan un pensamiento, y este ciclo
se desencadena por un elemento del pensamiento. Por ejemplo, la idea de
ir a trabajar en mi auto por la mañana podría desencadenar el pensamiento
de dónde estacioné el auto la noche anterior.
La reducción de la generalización tiene que suceder sólo por el período de
tiempo requerido de recuperación. Lo que queda entonces es la necesidad
de garantizar que el pensamiento del autómata encuentre los estados neutrales de su espacio de estados tal como se hace el restablecimiento de la
generalización de las células.
En cuanto a la relación del sueño y las emociones pensemos en el siguiente
hecho. El entorno cultural en el que vivimos define lo que debe y lo que no
debe ser pensado, o no es culturalmente aceptable. La evaluación emocional sobre los pensamientos no aceptables culturalmente hace que con el
tiempo se generen áreas aisladas de memoria para dichos pensamientos es
decir que el pensamiento, evaluado emocionalmente y determinado culturalmente como negativo, sea reprimido.
Lo que queda para disponer de estos pensamientos y traerlos a la conciencia
son las trayectorias que conllevan la carga emocional de la culpa y el miedo
pero se desvían hacia atractores como la conveniencia social de tener pensamientos positivos. En estos casos se necesitaría la ayuda de un analista (o
un teórico en autómatas en el caso del robot) para resolver estos conflictos
internos que aísla este tipo de pensamientos pero no los desecha y mucho
menos los efectos emocionales negativos.
275
¿Qué sucede con el sueño?
Alexander (2005) plantea respecto al sueño: tenemos un mecanismo que
revela mucho acerca de cómo llegamos a ser conscientes. Luego la pregunta
sería si una máquina consciente tendría que dormir y soñar, y cómo esto
puede arrojar luz sobre la necesidad del extraño fenómeno de soñar.
Freud por su parte, indicó respecto al sueño, la existencia de un inconsciente; una especie de depósito de pensamientos que curiosamente han sido
apartados para no ser visitados durante el pensamiento de vigilia normal.
Esto dio a los sueños una función muy útil: los sueños son el camino real
a un conocimiento de la mente inconsciente. Para Alexander (2005) este
inconsciente tiene sentido como un concepto tecnológico y que para los
diseñadores de máquinas conscientes puede ser necesario tener en cuenta la
posibilidad de que una máquina podría desarrollar una mente inconsciente.
Fue en 1953 que Nathaniel Kleitman y su estudiante graduado Eugene Aserinsky en la Universidad de Chicago señalaron que los movimientos oculares rápidos (MOR) se observan durante el sueño y que son una característica
recurrente importante de los diversos patrones de actividad cerebral combinado que se desarrollan durante una noche de sueño.
Nosotros contamos con un sueño MOR que se repite a lo largo de todo
nuestro descanso y en dónde el trazado de una gráfica del encéfalo, durante
este periodo se parece a la vigilia. El cerebro cognitivo lento se despierta
brevemente y en una fracción de segundo fábrica una historia a razón de
una imagen cada cinco centésimas de segundo, en otras palabras el cerebro
puede crear una historia en una nada de tiempo. Siendo el sueño MOR el
que representa ese breve despertar.
La simple explicación de sueño es ahorrar energía y prolongar la vida. El
sueño parece ser un evento regular que permite que esto suceda.
Aun cuando no hay una teoría probada de por qué el sueño MOR y el sueño
han evolucionado, hay muchas hipótesis acerca de las excursiones en el
sueño MOR: algunos han sugerido que esto prepara los centros superiores
del cerebro para procesar cada vez mayores cantidades de información sensorial que tiene que ser absorbida por la experiencia, otros postulan que esto
pone al organismo en un estado de preparación de vez en cuando, en caso
de la necesidad de actuar y muchos otros han sugerido modelos de información: la necesidad de tiempo para transferir datos de la memoria de corto
plazo a la memoria de largo plazo, o la consolidación de la información
aprendida.
276
Es difícil negar o afirmar cualquiera de estas hipótesis por ello se han realizado experimentos sobre la privación del sueño MOR y en estos experimentos
con animales privarles de este sueño implica conductas agresivas y comportamientos erráticos.
Por qué y cómo aparece la consciencia
La consciencia reflexiva se refiere a: 1) saber que existimos por la intuición
de la razón, y 2) saber que nos interrogamos sobre ese saber. La consciencia
es una forma de autobiografía del ser que llevamos dentro, en otras palabras
es nuestra experiencia formada por nuestros recuerdos de lo que hemos
vivido. Emerge de forma obligada una vez que hemos desarrollado nuestras
descripciones interiores a partir del proceso de cartografía y en consecuencia cuentan con una cierta cantidad de (información) y de ahí la memoria,
el lenguaje, la capacidad de imaginar, de prever y de compartir se combinan
en una espiral ascendente que hace crecer al cerebro al dotarlo de nuevas
descripciones.
El fenómeno de la consciencia no se encuentra en un solo lugar para lograrlo participa todo el cerebro pero de forma diferenciada. El cerebro se
compone de tres regiones: 1) el neurocortex: aquí es donde se alojan los
mecanismos de: memoria, imaginación y lenguaje, es aquí donde se elaboran las descripciones de alta definición ultra ricas y sofisticadas, 2) el sistema límbico (hipotálamo, hipocampo del lóbulo temporal y la amígdala), es
hogar de las emociones, la atención y la memoria, ayuda a determinar la
valencia, es decir, si los pensamientos sobre algo son positivos o negativos y
elige el tema para enfocar su atención. Este sistema contribuye a la flexibilidad, creatividad y la falta de previsibilidad del comportamiento humano y
3) cerebro reptil, es el responsable de la conducta automática o programada,
tales como las que se refieren a la preservación de la especie y a los cambios
fisiológicos necesarios para la sobrevivencia, este primer cerebro es nuestro
agente que avisa sobre peligros para el cuerpo en general. Este primer cerebro es una herencia de los períodos cavernarios donde la supervivencia era
lo esencial. Existe una enorme red de conexiones entre el sistema límbico y
el neurocortex; de modo que las funciones cerebrales no suelen ser límbicos
o corticales, sino una mezcla de las dos.
En este caso una de las grandes cuestiones es ¿cómo durante el proceso de
toma de decisiones dentro del fenómeno de la consciencia son coordinadas
las distintas descripciones almacenadas en el cerebro humano? para poder
ser accedidas como un todo y a la vez distinguirse las unas de las otras. Y
cómo es posible que estas descripciones impliquen emociones. En este últi277
mo caso recordamos que todas ellas fueron creadas a partir de sensaciones
que fueron implicadas dentro de estas descripciones. Otra cuestión es la
aparición de nuestro yo, como parte del fenómeno de la consciencia. Lo
anterior con base en la densificación cuantitativa (información) y cualitativa
cantidad de ellas (nuestras neuronas).
¿Cómo llegar a la consciencia?
Existen dos teorías con respuestas contradictorias (Van Eersel, 2012): 1) la
consciencia es producida por el cerebro, y 2) existe en el yo.
Con respecto a la primera, lleva un cuarto de siglo y fue propuesta por el
neurólogo Benjamín Libet de la Universidad de San Francisco se sabe que
el cerebro envía sus órdenes entre 3 y 4 décimas de segundo antes que el
sujeto tome consciencia de su decisión, esto implica que la consciencia es
capaz de remontar el tiempo para dar las órdenes de forma retroactiva. O
la consciencia se sitúa en una dimensión fuera del tiempo. Sin embargo la
conclusión más común es que el cerebro toma él solo sus decisiones y que
nuestra consciencia producida o no por nuestras neuronas no es gran cosa.
En esta teoría las neuronas son consideradas no más que un observador después de que se toma la acción.
Con respecto a la segunda experiencia ésta nació en 1998, propuesta por el
neurólogo Matthew Botvinick de la Universidad de Princeton, se basa en la
idea de que la consciencia es la forma natural de una última realidad que el
cerebro puede canalizar dentro de un yo temporal.
Desde esta perspectiva debemos considerar que todos nacemos dos veces:
a) el día de nuestro nacimiento biológico; en el que no contamos con ningún recuerdo, y b) el día del nacimiento de nuestra consciencia de la que
nos acordamos por definición. Cuando nos remontamos a los más viejos
recuerdos estos se encuentran en forma de destellos: una sonrisa, un olor,
una luz, un ambiente y de pronto la consciencia como un todo alrededor de
los cuatro o cinco años.
El ser humano se vuelve consciente cuando suceden los siguientes eventos:
• La consciencia llega cuando se establece un diálogo interior con nuestro ego.
• Nuestro cuerpo memoriza todo, pero nuestra consciencia reflexiva no
lo recuerda hasta antes de cierta edad, mismo si son sufrimientos.
• Ningún otro mamífero pregunta a su madre ¿es verdad que vas a morir?
• La consciencia llega con la vergüenza de la desnudez.
278
• Un pequeño, no distingue quien y quien no cuenta con intención; para
él los todos los objetos están dotados de ella. Poco a poco distingue que
es la consciencia, cerca de los cinco años descubre que ese otro ser, es
su propio yo y puede acceder al buen humor y a la mentira.
• Por otro lado la conciencia moral sé establece a través de la imitación (fundamentada en la empatía) y por la obediencia de padres o de un grupo.
Aun teniendo una vaga idea de lo que es la consciencia a través de las ideas
anteriores no se garantiza que con base en su funcionamiento el adulto
pueda contar con un comportamiento lúcido. Existen una lista de comportamientos que se convierten en obstáculos para lograrlo, entre ellos los siguientes: a) prejuzga las ideas de otros, b) se deja atrapar por la excitación
o el éxito personal, o c) se compara con otros. Pero con mucho lo que más
nos puede sorprender es descuidar su salud. Lo anterior debido a que olvidamos que nuestra consciencia es nuestro cerebro y que nuestro cerebro es
una masa orgánica que pertenece a nuestro cuerpo. Es una idea con la que
los occidentales no estamos familiarizados, debemos asumir que nuestra
consciencia es antes que nada psíquica.
Axiomas de Igor Aleksander: un marco teórico
Aleksander (2005), propone cinco axiomas para poder modelar el fenómeno
de la consciencia basándose en 5 preguntas:
• La mayor parte de ser consciente implica que siento que soy una entidad que existe en el mundo externo. ¿Cómo sucede esto?
• Otra parte de ser consciente es que soy una entidad en el tiempo, esto
es tengo experiencia que me permite recordar mi pasado y poder tener
expectativas para el futuro. ¿Qué mecanismo proporciona esta propiedad?
• Es interesante que aunque los distintos seres humanos contamos con
cerebros que podríamos considerar cuentan con mecanismos que producen cierta similitud. Estos llevan a formar distintas personalidades y
diferentes formas de ser conscientes. En este caso algo llamado atención es la característica que trabaja en este proceso. ¿Qué es y cómo
trabaja?
• Parece que nuestras acciones son guiadas e influenciadas por algo que
llamamos emociones. ¿Cómo es que estas se integran dentro del proceso de toma de decisiones? ¿qué son?
Se hace hincapié en que Aleksander no considera al lenguaje una característica necesaria para tener consciencia lo anterior debido al hecho irrefutable
279
que todo ser viviente cuenta con consciencia. Esta última desarrollada en
distintos grados de acuerdo a los elementos del entorno que implican un
grado de bienestar. A partir de las preguntas anteriores en la siguiente sección daremos inicio a la explicación de cómo las emociones al ser incluidas
en el proceso de toma de decisiones (del cerebro lento) pueden proporcionar una cierta autonomía. Lo anterior debido al proceso de homeostasis del
cual ya hablamos e implica un equilibrio entre el ser interno y el entorno.
Consciencia artificial: planificación de las acciones a través de una estructura afectiva
Hablar de la consciencia artificial según Alexander implica reconocer el
entorno, lidiar con los eventos que suceden en él (presente) y planificar las
acciones de acuerdo a la experiencia (pasado), a metas (futuro) y los afectos
que todo lo anterior produce en el ser vivo. Partiendo de esta premisa es posible considerar la generación de conciencia artificial a través de la creación
de una estructura cognitiva de emociones (Mora-Torres, Laureano-Cruces,
Gamboa-Rodríguez, Ramírez-Rodríguez, Sánchez-Guerrero, 2014). Esta última como recpiente de los eventos, las acciones, las metas y los afectos,
integrados como un todo para deliberar y tomar decisiones sobre las acciones a realizar, generando así una conducta adaptada al entorno y a las metas
perseguidas (Ortony, et al. 1996). En una estructura cognitiva de emociones
las submetas para llevar a cabo la meta final incluyen las diferentes opciones
para adaptarse a los diferentes eventos del entorno, es decir, al dinamismo
percibido en el entorno. Un ejemplo de estructura cognitiva de emociones
se observa en la descripción de la conducta de un perro hogareño (mascota) para sobrevivir y coexistir en su entorno. En la estructura de la mascota
(Figura 1) se reconoce el entorno a través de una constante percepción de
amenaza y de las necesidades fisiológicas. La estructura considera eventos favorables como percibir comida o sentirse amado y desfavorable como
percibir amenaza, así como las acciones disponibles para cada evento, por
ejemplo protege al amo si percibe amenaza o muerde los muebles si se siente inseguro. Lo anterior de acuerdo siempre con la meta final que es el bienestar de la mascota. El bienestar se debe a los distintos afectos generados en
todo momento descrito por la estructura, por ejemplo, el perro siente miedo
si se percibe amenaza o alivio si se alimenta y alegría y amor si juega con
su amo. La experiencia de la mascota le ayuda para planificar, por ejemplo,
cuando jugar con sus propios juguetes, cuando comer, cuándo y dónde evacuar de acuerdo a los lugares percibidos como fuentes de alimento o lugares
de recreo o de aseo, evitando siempre cualquier amenaza. Como resultado
se trata de obtener una conducta consciente de la mascota: capaz de diferenciar su entorno con respecto de sí mismo, de su bienestar; una diferencia
del yo interior con respecto del entorno percibido como algo externo a él.
280
Figura 1. Estructura cognitiva de las emociones del perro hogareño.
Modelo mental del perro hogareño:
Mientras (Saludable y Seguro y Amado) entonces bienestar
Mientras (Comer y Evacuar) entonces Saludable
Si (Amenazado) entonces Protege amo
Si (Protege amo) entonces + Seguro
Mientras (Seguro o juega con amo) entonces No Muerde muebles
Mientras (Juega con amo y Juega con juguetes) entonces se siente Amado
Conclusiones
En este trabajo se desarrolla un ejemplo que implica las características tratadas a lo largo del texto. Lo que se desea resaltar son el impacto de las emociones en el fenómeno de la consciencia, y como a través de su influencia
se desarrolla el proceso de toma de decisones. A su vez estas son el guardían
de nuestras acciones ya que de la mano del fenómeno de la consciencia
permiten distinguir lo malo de lo bueno (desde la perspectiva del que las
ejucta).
Dentro de las características de la consciencia está el de ser capaz de crear
mundos imaginarios que facillitan el bienestar y el cumplimiento de las metas fijadas. Es en este punto donde convergen los conceptos como el sueño
(imaginación y sobrevivencia), las hormonas (placer y bienestar) y la planificación de las acciones de acuerdo a la experiencia y los objetivos propues281
tos en aras de obtener el bienestar por las emociones generadas en el proceso de deliberación durante la planificación de las acciones y la creación
de mundos imaginarios para lidiar con el entorno (exterior) y el yo (interior).
Finalemente el diseño informático de estas características nos permite crear
un comportamiento autónomo.
Agradecimientos
Este proyecto forma parte del proyecto de investigación Consciencia Artificial y Emociones de la Universidad Autónoma Metropolitana. Se agradece
la participación de los alumnos del Posgrado en Ciencia e Ingeniería de la
Computación de la UNAM Martha Mora-Torres y Javier Garduño-Cimental.
Referencias
[1] Acevedo-Moreno, D.A. (2011) Diseño de una Arquitectura para Incorporar Emociones
en un Videojuego, Ciencia, Tecnología e Innovación para el Desarrollo de México. Section Tesis de Posgrado: A4- 0011-DF-2009-MT. Latindex ISSN: 2007-1310, Available
from: http://pcti.mx.
[2] Aleksander, I. (2005). The World in my Mind, My Mind in the World. Edit. IA Press. ISBN:
9781845401023.
[3] Cyrulnik, B., Bustany, P., Oughourlian, J.M., André, C., Janssen, T., Van Eeresel, P. (2012).
Votre Cerveau n’a pas de fini de vous étonner. Edit. Clés Albin Michel.
[4] Laureano-Cruces, AL., Mora-Torres, M., Ramírez-Rodríguez, J., Gamboa-Rodríguez, F.
(2010). Implementation of an affective-motivational architecture tied to a teaching-learning process. En Proceedings de E-Learn 2010 World Conference on E-Learning in Corporate Govermment, Healthcare, & Higher Education, pp. 1930-1938. ISBN: 1-88009453-5. Orlando, Florida, October 18- 22.
[5] Laureano-Cruces, AL., Guadarrama-Ponce, C., Mora-Torres, M., Ramírez-Rodríguez, J.
(2011). A Cognitive Model for the Red Baron: a Perspective Taking into Account Emotions. In ICGST-Artificial Intelligence Machine Learning Journal, Volume 11, Issue 2. pp.
5-13. ISSN: 1687-4846 Print, ISSN: 1687-4854 Online.
[6] Laureano-Cruces, AL. Rodríguez-García, A. (2011). Design and implementation of an
educational virtual pet using the OCC theory. Journal of Ambient Intelligence and Humanized Computing. Volume 3, Issue 1, pp. 61-71.
[7] Laureano-Cruces, AL., Hernández-González, D., Mora-Torres, M., Ramírez-Rodríguez,
J. (2012). Aplicación de un modelo cognitivo de valoración emotiva a la función de evaluación de tableros de un programa que juega ajedrez. En Revista de Matemática: Teoría
y Aplicaciones. CIMPA-UCR. Vol. 19 (2): 211-237.
[8] Laureano-Cruces, AL., Acevedo-Moreno, D., Mora-Torres, M., Ramírez-Rodríguez, J.
(2012). A Reactive Behavior Agent: including emotions for a video game. En Journal of
Applied Research and Technology. Vol. 10 (5): 651-672.
282
[9] Mora-Torres, M., Laureano-Cruces, A.L., Gamboa-Rodríguez, F., Ramírez-Rodríguez,
J., Sánchez-Guerrero, L. (2014). An Affective-Motivational Interface for a Pedagogical
Agent. In International Journal of Intelligence Science, Vol. 4, pp. 17-23. (Edit.) Scientific
Research
[10]Mora-Torres, M. Laureano-Cruces, AL, Velasco-Santos, P. (2011). Estructura de las Emociones dentro de un Proceso de Enseñanza-Aprendizaje. Perfiles Educativos-UNAM. Vol.
XXXIII, núm. 131, enero – marzo 2011, pp 64-79. ISSN: 0185-2698.
[11]Ortony, A., G.L. Clore y A. Collins (1996). La estructura cognitiva de las emociones.
Madrid, Edit. Siglo XXI.
[12]Picard Rosalind (1998). Affective Computing. Edit. (MIT).
[13]Rodrigues dos Santos, J. (2013). La Formula de Dios. Roca Editorial.
[14]Van Eeresel, P. (2012). Mais alors qu’est que la consciense? En Votre Cerveau n’a pas de
fini de vous étonner. Edit. Clés Albin Michel. Editorial Clés Albin Michel.
283
Templo y exconvento de San Miguel Huejotzingo, Puebla análisis de
la forma geométrica del barroco poblano
Graciela Poó Rubio
Grupo de investigación “Forma Expresión y Tecnología del Diseño” Universidad Autónoma Metropolitana-Azcapotzalco
[email protected]
Resumen
La autora participa en el proyecto de investigación “Estudio y análisis de
la Forma Geométrica en la arquitectura del Templo y Exconvento de San
Miguel Huejotzingo, Puebla”. Actualmente se cuenta con algunas publicaciones y libros editados por organismos gubernamentales sin el enfoque especifico que este proyecto pretende dar en cuanto al estudio de la forma en
el que establece una visión diferente por su particular enfoque de investigación por sus trazos y dibujos que permiten de manera objetiva identificar los
elementos característicos de la arquitectura, así como el trabajo geométrico
de esta época virreinal desarrollado en México.
El exterior de la iglesia presenta una mezcla de plateresco y mudéjar. El
primer estilo se expresa en el contraste de amplios espacios lisos con reducidos espacios ornamentados, como sucede en la fachada lateral cuya puerta
rodea una pródiga decoración de hojas y cardos. El segundo se manifiesta
sobre todo, en la forma conopial del arco de la puerta mayor. En la iglesia y
exconvento de San Miguel Huejotzingo, se entrelazan armoniosamente las
culturas que dieron origen a la identidad de la raza mexicana: la española y
la indígena. Se trata de una bellísima construcción del siglo XVI.
Palabras clave: Barroco poblano, época virreinal, arquitectura, forma geométrica.
Abstract
At a university level the information of the temple and exconvent of San
Miguel Huejotzingo, Puebla has been treated in the research group “Shape,
expression and technology of design”, in its research of the geometric shape
of arquitectural elements of the state of Puebla, providing the guidelines
to achieve a more accurate site. Actually there are some publications and
books edited by governmental organizations without the specific focus that
284
this project pretends to give concerning the study of the shape that establishes a different vision due its particular investigation approach and because
of its strokes and drawings that allow in an objective way to identify the
characteristic elements of architecture, as well as the geometric work of this
viceroyal period developed in Mexico.
In 1525, the Franciscans have built the convent of San Miguel de Huejotzingo, in a place isolated by deep ravines. In 1529 the convent was moved
stone by stone to its actual place. Between 1544 and 1570 it was built-up for
third time under the wise direction of Fray Juan de Alameda. The neighbors
that provided assistance to the construction were installed in the convent
surroundings that we actually know.
The evangelizers included in the ceremonial the participation of the entire
village due the creation of big areas in the atrium. In the open Chappell and
the side chapels a big number of believers could concentrate and circulate.
Huejotzingo with its ornamental material greatness constitutes one of the
most representative building works done by the Franciscans at that time. The
outside of the church presents a merge of plateresque and mudejar. The first
style is expressed in the contrast of wide flat spaces with reduced ornamental
areas, as it happens in the lateral facade which door surrounds a tidy decoration of leaves and cardons. The second manifests, mainly in the conopial
arch shape of the mayor door. In the church and exconvent of San Miguel, in
Huejotzingo, the cultures that gave origin to the Mexican race intertwist: the
Spanish (inside these, the Arab), and the indigenous. It is about a beautiful
construction of the XVI century.
Key words: Poblano baroque, colonial era, architecture, geometric shape.
Introducción
El estilo arquitectónico en que se apoya esta investigación responde a la definición de Puebla como un estado netamente barroco. El término Barroco
se deriva de la palabra italiana barocco, que significa impuro. El barroco
propiamente dicho en Latinoamérica se conoce como: Barroco sobrio, Barroco rico y Barroco exuberante.
• El Barroco sobrio. Es el primero que florece en América como reproducción del Barroco español (1580-1630).
• El Barroco rico. (1630 a 1730) es un Barroco refinado y detallista, diferente al modelo español, que va conformando un tipo de construcciones con portadas más profusamente adornadas.
285
• El Barroco exuberante. Es una modalidad del Barroco de mediados del
siglo XVIII, que se complace en cubrir la totalidad del espacio con ornamentación, abusando del uso de yeso y argamasa, con lujo de fantasía
y color.
• El templo y exconvento de San Miguel Huejotzingo pertenece a la clasificación del Barroco sobrio.
• En 1525, los franciscanos edificaron el convento en unas barrancas, lugar
hoy conocido como San Juan Loma.
• En 1529, Huejotzingo se trasladó al sitio que hoy ocupa y de aquel primer convento demolido, se hizo otro, que tampoco sobrevivió.
• El actual convento, el tercero construido entre 1544 y 1570 lo dirigió
Fray Juan de Alameda en la parte antiguamente llamada Amililpan.
• El actual Huejotzingo se creó por los vecinos que construyeron el convento y que en gran número se instalaron alrededor de él.
Huejotzingo, con su grandeza material y ornamental de su fachada (Figura
1) constituye sin duda, una de las obras más representativas de los anhelos,
ideales y sentido politico- religioso de los franciscanos de aquella época.
Actualmente es uno de los conjuntos arquitectónicos más grandes y hermosos de los conventos franciscanos y de los mejor conservados en México.
Figura 1: Fachada del Templo.
Posee tres accesos al enorme atrio de 14,000 M2 de extensión. Las dimensiones del atrio con respecto a las de la iglesia, están en relación modular,
mientras la longitud interna de la iglesia es de 60.00m, la del atrio es de
exactamente 120m.
286
La entrada principal del atrio (Figura 2) tiene una triple arcada de arcos de
medio punto ornamentados en la arquivolta por medio de relieves diferentes. Estos están sostenidos por columnas cuyos capiteles repiten la modulación de sus bases. Las columnas de los extremos están empotradas en unas
pequeñas secciones de muro. Limitando este conjunto de arcos se levanta
en cada extremo un pilar. Los tres arcos de la entrada se encuentran rematados por una cruz colocada sobre una peana en forma de frontón roto.
Figura 2 Acceso Principal al Templo y Exconvento.
Cuando nos adentramos por los senderos del atrio, en sus cuatro ángulos podemos apreciar sus hermosas capillas posas (Figura 3) que presentan relieves
de escudos franciscanos y símbolos de la pasión de Cristo. Se construyeron
en 1550. Reciben tal nombre por servir para posar al Santísimo en las procesiones, aunque también se utilizaban como capilla abierta. Los diseños que
presentan en su composición arquitectónica y ornamental, es igual en las
cuatro capillas. La única variante, son los símbolos pasionarios que portan
los ángeles que aparecen colocados sobre las enjutas.
Figura 3. Primera capilla posa destinada a San Juan Bautista.
287
En la segunda capilla posa podemos apreciar en el arco principal a los ángeles que están representados tocando grandes trompetas de las que salen
flores, haciendo referencia al juicio final. En la tercera capilla podemos ver
en el arco principal, que el primer ángel está acompañado de un gallo y una
columna, se relaciona con el momento en que el apóstol Pedro negó a su
maestro y el momento en que azotaron a Cristo. El otro ángel porta un látigo
y un mazo que hacen referencia al momento del martirio de Cristo.
En 1910 durante el movimiento revolucionario la cuarta capilla sufrió la
mutilación de los ángeles, la cruz, el cráneo y los escudos que la decoraban.
Lo único que perdura es el cordón franciscano y la cadena de la arquivolta.
Las capillas tienen una planta cuadrada de 5.40 m. por lado; sobre estas
se levantan los cuerpos cúbicos construidos en piedra formando sillares de
trazo irregular. En cada fachada hay dos accesos perpendiculares entre sí
miden 2.43 m de ancho por 3.50 m de alto y la altura total de cada capilla
es de 10.65 m.
La fachada principal presenta una mezcla de plateresco y mudéjar. El primer
estilo se expresa en el contraste de amplios espacios lisos con reducidos
espacios ornamentados, El segundo se manifiesta, sobre todo, en la forma
conopial del arco de la puerta mayor.
En esta iglesia se entrelazan armoniosamente las culturas que dieron origen
a la identidad de la raza mexicana: la española (dentro de ésta, la árabe), y
la indígena. Se trata de una bellísima construcción del siglo XVI.
Lo más notable en su fachada principal es la portada, (Figura 4) esta se
considera como una de las principales obras Platerescas en México. En el
segundo nivel sólo tiene como adornados, escudos de la Orden a un lado
de la ventana coral. Toda la decoración se encuentra en el primer nivel de
la iglesia, en la puerta de entrada, que luce un arco mudéjar de líneas ondulantes sobre el cual aparecen siete medallones enmarcados por el cordón
franciscano.
288
Figura 4. Portada principal de la iglesia de San Miguel Huejotzingo.
En el costado norte y sur hay tres ventanas en el segundo, tercero y cuarto
tramo. Las ventanas del segundo y tercer tramo son de iguales dimensiones,
las del cuarto tramo son más grandes. Las ventanas tienen un claro abocinado con dos molduras, que sirve de marco al arco de medio punto apoyado
sobre impostas molduradas sobre las cuales descansa el capitel ornamentado con roleos, pequeñas flores y perlas. En él lado norte en el segundo tramo
se abre la puerta lateral o porciúncula.
Como en casi todos los templos del siglo XVI, el interior está formado por
una gran nave rectangular, dividida en cuatro tramos con ábside poligonal.
Conformada por anchos muros de piedra y mampostería, se levanta sobre
una planta de 60m de longitud.
La nave está cubierta por cuatro bóvedas de crucería con nervaduras góticas y bellas tracerías, sin contar la del ábside, cubren espacios de planta
cuadrangular, enmarcadas por cuatro arcos fajones ligeramente apuntados.
(Figura 5)
289
Figura 5. Interior de la iglesia, vista de la nave y la bóveda de crucería.
El sotocoro se abre a la nave por medio de un arco escarzano; del lado de
los muros del templo y en la fachada hay dos grandes ménsulas molduradas
y ornamentadas con hojas de acanto y pequeñas perlas isabelinas. El interior
de la iglesia está poco iluminado, para provocar sentimiento místico entre
los fieles de aquella época.
La entrada al convento es por la portería anexa en el costado sur de la fachada principal del templo, tiene planta rectangular, sobre la que se levantan
los muros que la conforman y techo de viguería. (Figura 6)
Figura 6: El acceso al convento es por la portería.
La portería se abre al atrio por medio de dos amplios arcos de medio punto,
soportados al centro por una monumental columna. De la portería se pasa
al convento a través de una pequeña puerta que tiene un sencillo arco conopial.
290
Los corredores del claustro bajo se abren hacia el patio,(Figura 7) por medio de cinco arcos de medio punto por cada lado, sostenidos por cuatro
columnas por lado de basa ática y fustes lisos; en tanto que los del claustro
alto ostentan arcos rebajados, apoyados sobre columnas similares a las del
claustro bajo. El techo de ambos claustros es de viguería.
El claustro bajo se comunica a la vez con el refectorio y la sacristía, en el
primero se presenta la reconstrucción del antiguo comedor con sillas de la
época. A un lado se realizó la reconstrucción de la cocina.
Figura 7. Vista del Patio del claustro.
En el muro colindante con el templo se encuentran varios nichos, en cuyo
interior se alojan mesas para altares, en la planta baja se abren por medio
de arcos escarzanos; el único nicho que está decorado es el primero, cuya
arquivolta está ornamentada con rosetones tallados en piedra. Los nichos de
la planta alta son cinco.
Formalmente, el convento presenta un fuerte carácter gótico por la composición de la rosca de los arcos, tanto del claustro bajo como del alto, además
por la manera de matar los cubos de las esquinas de los corredores, al modo
escarzano.
Estudio de la forma
En la actualidad no existen estudios de la forma desde el punto de vista
geométrico que aporten elementos suficientes, para integrarlos al ámbito del
diseño. Por tal motivo se está haciendo esta investigación en el templo de
San Miguel Huejotzingo, Puebla.
291
Figura 8. Estudio de la forma en Capilla abierta o de indias.
Figura 9. Estudio de la forma en el Campanario.
Conclusiones
Partiendo de la idea universal acentuada por la escuela de Atenas, de que
“no hay Arquitectura sin Geometría”, durante el desarrollo de este trabajo
sobre el Barroco Poblano en diversos edificios representativos de los siglos
XVI, XVII y XVIII, hemos encontrado ciertas características similares que
destacan un notable e interesante tratamiento formal. Ante estas consideraciones y con el antecedente de haber publicado los libros sobre “El Barroco
Queretano” y “el Barroco Potosino” Concluimos, que la premisa anteriormente mencionada, motivo del presente estudio, se hace evidente también
en la investigación de “El Barroco Poblano”
“no hay Arquitectura sin Geometría”
292
Referencias
[1] Bayona Pedro. Recorridos por el siglo XVI. Primera edición. Centro de Investigaciones
Económicas Administrativas y Sociales. Editorial. Solar Servicios Editoriales S. A. de C.
V. México 2004.
[2] Fernández de Echeverría y Veytia, Mariano, Historia de la fundación de la Puebla de los
Ángeles. 2 vols. Puebla, Altiplano, 1962.
[3] Piña Loredo Margarita y Vázquez Ahumada Cecilia. Míniguía Capillas posas del exconvento franciscano de San Miguel Huejotzingo, Puebla. Instituto Nacional de Antropología e Historia. México 2000.
[4] Salas Cuesta, Marcela, La iglesia y el convento de Huejotzingo, Universidad Nacional
Autónoma de México, México, 1982.
[5] Vargas Lugo, Elisa, Las portadas religiosas de México. México, Universidad Nacional Autónoma de México, Instituto de Investigaciones Estéticas, 1969.
293
Una mujer llamada Ethan: disonancias entre imagen visual y
las funciones de personajes en videojuegos
Blanca Estela López Pérez
Diseño de la Comunicación Gráfica. Universidad Autónoma Metropolitana, unidad Azcapotzalco
[email protected]
Resumen
La emergencia de nuevos espacios para el entretenimiento, ha venido acompañada de discursos que ofrecen el acceso a mundos o metaversos donde el
usuario puede “ser y hacer lo que desee”. Sin embargo, al paso del tiempo
los espacios digitales así como las representaciones gráficas que ofrecen,
han tendido a mostrar más una reiteración de esquemas de pensamiento ya
existentes que nuevas vías para concebir la interacción entre personas. A
través de las observaciones participante y no participante, es posible obtener
evidencias que muestran cómo, en algunos ambientes de juego, las imágenes gráficas manifiestan un contenido distinto de aquello que la jugabilidad
ofrece, generando un alto grado de disonancia entre lo que los videojuegos
muestran en lo visual y lo que demandan que el jugador lleve a cabo como
parte del compendio de reglas. De esta manera, si bien la imagen mostrada
en pantalla puede ser un personaje femenino, las circunstancias a las que
responde la ubican en un rol masculino y viceversa. Para ejemplificar lo
anterior se tomaron los casos de la saga Tomb Raider (Core Design, 1996) y
de Heavy Rain (Quantic Dream, 2010).
Palabras clave: videojuegos, representación gráfica, imagen, decisiones.
Abstract
The presence of new media for entertainment has brought along discourse
about users getting to “be and do whatever they please”. However, time has
shown that both digital environments and graphic images, tend to support
pre-existing thought schemes more than creating new ways of interacting
among people. By the use of direct and indirect observation, it was possible
to obtain some evidence of what´s happening in the game environments
with the relationship between graphic images and playability of videogames.
Even when the screens shows a female character, it is usually responding to
a male role, thus creating dissonance between what is seen and the choices
to be taken by the player. In order to show this phenomena, two games have
been chosen as examples: the Tomb Rider Saga (Core Design, 1996) and
Heavy Rain (Quantic Dream, 2010).
294
Key words: videogames, graphic representation, image, decisions.
Introducción
Dentro de los géneros narrativos, el horror y la ciencia ficción han sido
durante el siglo XX y los inicios del XXI territorios predominantemente masculinos. Desde la literatura hasta los videojuegos más recientes, se han observado historias cuyos personajes rara vez son mujeres, particularmente
los protagonistas; y a pesar de contar con algunas heroínas en pantalla, es
evidente que lo común es que se trate de personajes que piensan y actúan
de la misma manera que sus contrapartes masculinas.
Si se toman en cuenta algunas producciones cinematográficas de ambos
géneros como son Halloween (Carpenter, 1978) y Terminator II (Cameron,
1991), es posible identificar a personajes femeninos en los papeles principales. Sin embargo, esto no implica que lo que actrices como Jamie Lee Curtis y Linda Hamilton interpretan deje de corresponderse con cualquier otro
personaje no necesariamente representado por una mujer. En primer lugar,
no se trata de personajes que, por convicción, hayan decidido hacer caso
del llamado a la aventura; al contrario, estos personajes no se encuentran
en posición de elegir nada. En este sentido, los personajes más bien corresponden a víctimas reactivas que, impulsadas por la desesperación, terminan
sobreviviendo y superando al peligro que las acecha (el asesino serial o la
máquina). Y en segundo lugar, el hecho de ser interpretadas por actrices más
que dar un lugar significativo a la mujer, funge para acentuar su fragilidad y
su condición de víctimas frente a adversarios que, evidentemente, las superan en fuerza y tamaño.
Lo anterior no parece ser superado en el ámbito de los videojuegos. Es frecuente encontrar personajes femeninos cuyo papel en la historia es idéntico
al de un hombre, cuando se trata de un protagónico; en este sentido, cuando
el personaje puede ser caracterizado de manera indistinta para el sistema de
juego, se afirma que opera una función en el sistema narrativo. En el caso
de personajes secundarios, las mujeres suelen ser utilizadas en papeles de
mujeres rudas (hombres), o bien, como femmes fatales. La imagen gráfica
corresponde a una descripción de personaje, pero lo que tiene que operar
dentro del ambiente de juego no corresponde a esa imagen. Sin embargo,
existen títulos que a pesar de que utilizan este tipo de relación mecánica de
juego-imagen, lo hacen en un tono muy distinto y con intenciones que se
mueven en otros registros más afectivos de la experiencia de juego.
El presente texto no persigue un trabajo sobre roles sino sobre funciones
narrativas que han de ser desempeñadas por un personaje sin importar si se
295
trata de un hombre o una mujer; en consecuencia, este tipo de operación
a punta a ejemplificar una disonancia entre la imagen gráfica (expectativa
creada a través del diseño de personaje) y las acciones que el sistema de
juego demanda sean desempeñadas (función). La perspectiva es fundamentalmente narrativa y, en consecuencia, sistémica a pesar de hacer uso de referencias del campo de la comunicación y psicoanalíticas. Dado este perfil,
no se persigue la construcción de explicaciones generalizadas ni universales
ya que cada fenómeno de esta naturaleza opera sobre distintas fuerzas y
causas, mas no por ello los ejemplos trabajados dejan de ser significativos.
Imagen y decisiones
Al trabajar con videojuegos, existen varios aspectos que es necesario considerar con el objetivo de poder ponderar en qué nivel de abstracción es
posible observar los conflictos existentes entre los mostrados por la imagen
visual y lo que el juego demanda para ser resuelto. No se trata de las únicas
posibilidades para abordar diferentes aristas en un videojuego; según los
autores y perspectivas así como los campos de su proveniencia, podrían ser
considerados otros.
Como nuestra atención se centrará, al menos en principio, en la imagen
gráfica, se considerará un nivel de lo mostrado el cual, a través de su expresividad, ayuda a articular la dimensión narrativa del juego [1]. Por medio de los
gráficos, el juego muestra lugares y personajes así como objetos y elementos
para sostener historias y tramas. Estas imágenes gráficas logran cohesionarse
a través de su temática y concordancia de estilo, y en apariencia pueden
presentar el videojuego como un todo integrado. El segundo elemento lo
comprenden las reglas que articulan al juego al acotarlo [2] en tanto tiempo,
espacio y operaciones posibles; el compendio de reglas permite sostener
el sistema de juego y puede correr de manera independiente a lo narrado
(algoritmo). Por ejemplo, si se trata de un videojuego shutter (género donde
el jugador dispara contra objetivos y obtiene puntos), las reglas establecen
una serie de elementos que serán considerados contrarios al jugador quien
deberá defenderse de ellos disparando; los cuerpos oponentes bien pueden
ser asteroides, extraterrestres, soldados, etc., esto no altera las reglas del
juego pero sí la manera en que el jugador se ve involucrado afectivamente
en la actividad de juego. Consideraremos un tercer aspecto, central para el
presente texto, que es la jugabilidad (calidad del juego en términos de sus
reglas de funcionamiento y de su diseño), que tiende a priorizar la posibilidad de que ciertas acciones dentro del juego no estén sujetas a la narrativa[3];
sin embargo, cabe mencionar que mucho de la jugabilidad si bien no tendrá
impacto en la trama per se, sí será observado en la manera en que ciertos
elementos narrativos puedan ser significados en etapas más avanzadas.
296
En el caso del videojuego Heavy Rain (un juego de drama y acción en el
cual un padre de familia debe rescatar a su hijo de un asesino serial), el
personaje de Ethan Mars es controlado por el jugador. Se le presentan varias
decisiones que no tendrán repercusión posterior en la trama pero sí en el
afecto depositado en la experiencia de juego. Por ejemplo, en la segunda
escena en casa, Ethan juega en el jardín con sus dos hijos y ambos le piden
que juegue “avioncito” con ellos; pero Ethan sólo puede cargar primero a
uno y luego al otro, entonces el jugador debe decidir en qué orden jugará
con ellos. Esta decisión no cambia lo que ha de ocurrir a cada uno de los
niños, pero junto con otras decisiones similares, el juego persigue que el jugador sienta a su personaje cercano a los otros para que su pérdida adquiera
mayor significado. Este tipo de mecánicas es utilizado para lograr empatar
las metas del personaje con las del jugador [4], de tal suerte que se logre
empatía por la situación y el sentimiento de pérdida se vea acentuado para
incrementar el efecto de ficción en los siguientes capítulos.
Los aspectos que refieren a la experiencia de juego adquieren gran relevancia, especialmente al tratarse la mayor parte de las decisiones de mecánicas
de juego que apoyan que el jugador se pueda conectar con las víctimas.
Estos juegos, dirigidos mayormente a adultos jóvenes, se apoyan en este tipo
de mecánica para crear empatía que no es inherente a la audiencia; es decir,
el hombre de veintitantos años de edad difícilmente se interesará por el cuidado de un niños, a menos que se vea forzado a involucrarse a través de sus
acciones y metas, pero no con los personajes. Sin embargo, al observar el
tipo de decisiones que el juego usa para crear esta empatía, se trata más de
circunstancias que de manera tradicional corresponden a personajes maternos. En este sentido, si bien Ethan Mars representa visualmente un hombre,
primero padre de familia y después divorciado, mucho del comportamiento
resultado de las mecánicas de juego es predominantemente femenino.
En contraste con las mecánicas de juego que llevan a crear lazos afectivos
con personajes y situaciones, existen otro tipo de dinámicas que tienden
más a reiterar modelos narrativos prexistentes en la cinematografía. El caso
de la serie de videojuegos Tomb Rider ofrece un ejemplo donde ocurre lo
contrario a lo expuesto sobre el videojuego anterior. El personaje principal
de la saga de Tomb Rider es una mujer, Lara Croft, que se dedica a cazar
tesoros y superar misiones, pero la característica principal por la que este
personaje es conocido corresponde a su desproporcional figura voluptuosa.
La imagen gráfica que se muestra en pantalla, representa a una mujer. Sin
embargo, el tipo decisiones que el personaje debe tomar así como las rutas de solución de algoritmos a los que está sujeta, corresponden de manera transparente a las de sus contrapartes masculinos, siendo uno de los
297
ejemplos más notorios el personaje de Indiana Jones creado por el director
George Lucas. Lara Croft es un personaje reactivo que, en muchas maneras, es víctima de las circunstancias y mayormente es forzada a resolver las
misiones y sobrevivir; el tipo de decisiones que debe tomar tienen que ver
más con soluciones operativas para mantener el curso de la historia. De esta
manera, lo que la imagen gráfica muestra resulta disonante ante la función
que el personaje desempeña en el sistema de juego. Es evidente que, para
los fines perseguidos tanto por las reglas como por la narrativa, estos juegos
podrían haber tenido un protagonista masculino (que, de hecho, tienen); sin
embargo, mucho tuvo que ver en la decisión de crear a Lara Croft que el público comprador del juego han sido mayoritariamente hombres [5], quienes
encuentran mayor comodidad en ver durante horas a una mujer que a otro
hombre.
El autor Lajos Egri propone tres dimensiones para la creación de personajes.
El autor explica:
“Antes de que un ser humano pueda tomar una decisión, se requieren
muchos tipos de presión, pero hay tres principales; el fisiológico, el
sociológico y el psicológico. De estos tres tipos de fuerza se pueden
hacer innumerables combinaciones. […] Un cierto tipo de carácter se
desarrollará en su propia línea hasta madurar. Sólo en los malos textos
un hombre cambia sin tener en cuenta sus características.” [6]
Estos tres aspectos si bien son distintos, no se encuentran aislados uno de
los otros; la relación existente entre dos de ellos, dará las características del
tercero. En consecuencia, cuando estas dimensiones no operan de manera
acorde entre ellas, se produce una disonancia; no se trata de un fallo si este
tipo de ruido ayuda a que los demás elementos narrativos se presenten (la
fuerza que hace que se presente el conflicto, por ejemplo), y su solución
implique una síntesis que apoye la premisa narrativa. De no ser así, la intención es distinta, como se observa en casos como el de Tomb Rider, donde
Lara Croft permaneció plana durante varias de las ediciones del juego hasta
el viraje que The Rise of The Tomb Rider promete; en contraste, personajes
como Bayonetta (bruja que utiliza magia y armas de fuego para enfrentar a
las fuerzas angelicales que atacan la Tierra), del juego con el mismo nombre
(Nintendo-Sega, 2009), mantiene la cohesión entre las tres dimensiones al
trascender la función narrativa del personajes y manifestar un rol femenino
pero empoderado, que además permite que se el personaje madure. Es evidente que este tipo de disonancias entre las dimensiones del personaje de
tres dimensiones, no es una característica universal en el medio pero sí una
muy frecuente.
298
De esta manera, se puede observar que el hecho de que las producciones
de videojuegos hagan uso de personajes femeninos, no implica en realidad
una feminización del medio. Las funciones de estos sistemas de juego se
mantienen a pesar de las variantes que ofrecen en lo gráfico. Sin embargo,
existen otros niveles en el diseño de los videojuegos que pueden permitir
otro perfil de pensamiento que no necesariamente corren de la misma manera que lo visual.
Mecánicas de juego y mecánicas de cambio
Las mecánicas de juego que implican la jugabilidad, permiten al jugador
involucrarse con el juego de distintas maneras. Al ofrecer la posibilidad de
elección sin repercusiones en las conexiones lógicas de la trama, el diseño
de videojuegos apuesta por una experiencia cuya carga afectiva sea más
sensible hacia los personajes y su situación de conflicto [7]. Sin embargo,
pocas son las producciones que se arriesgan a romper con los patrones heredados de medios de comunicación anteriores. En medios significativos durante el siglo XX, los personajes masculinos no sólo obtenían mayor tiempo
de exposición en pantalla, sino que sobre ellos recaían la mayor parte de las
acciones [8].
Sin embargo, ante la demanda de un público femenino creciente junto con
algunos cambios que se han dado en los espacios cinematográfico y televisivo, la industria de los videojuegos ha contemplado no sólo el incremento
de personajes femeninos sino la generación de propuestas de nuevas mecánicas de juego. Si bien es cierto que la actitud de las mujeres frente al riesgo
suele ser más reservada [9], también es cierto que mucho de la experiencia
de juego no tiene que necesariamente mantenerse en el ámbito de la acción
rápida y reactiva, sino que también involucra otro tipo de mecánicas. La
empatía creada entre el jugador y los demás personajes suele ser utilizada
para que éste, independientemente de que se trate de un hombre o una mujer, posea un motivador afectivo más eficiente que el sólo querer terminar o
ganar el juego.
Juegos con gran carga narrativa como es el caso de Heavy Rain, apelan
a la sensibilidad de los jugadores para poder ofrecer una experiencia de
juego más significativa. Casos semejantes son Beyond Two Souls (Quantic
Dream, 2013) e, incluso, el premiado Last of Us (Naughty Dog, 2013), ambos son juegos donde las decisiones tomadas por el jugador permiten un
acercamiento a los conflictos que el sistema de juego plantea así como los
inherentes a los relatos. Ya se trate de un problema de bullying o del fin del
mundo, los personajes dentro de estos sistemas de juego no sólo terminan
por ser altamente empáticos sino que resisten en muchos sentidos el ocupar
la posición reactiva de las víctimas.
299
“La posibilidad de jugar es un logro en el desarrollo emocional. El
inicio del juego es símbolo de la confianza del niño en el ambiente,
el niño que juega hace suya una parte de la realidad exterior. El juego
contribuye a la integración de sentimientos ambivalentes.” [10]
Estas mecánicas de juego ofrecen una jugabilidad que hace manifiesta la
maduración del videojuego como medio narrativo para dar sentido a la vida
cotidiana. En consecuencia, admite conflictos de mayor complejidad, cosa
que de muchas maneras es demandada también por las audiencias.
Como consecuencia de lo anterior, no resulta extraño que franquicias como
lo es la serie de Tomb Rider estén por dar un giro inesperado, dada la personalidad que ha distinguido a este título. Para su entrega del 2015, SquareEnix ofrecerá a los jugadores una óptica distinta del personaje Lara Croft[11].
La nueva producción es altamente narrativa y trata sobre la adolescencia
del personaje así como sobre sus motivaciones para escoger la vida de una
caza recompensas. Visualmente ya no se trata del cuerpo de proporciones
exageradas que rayaba en lo deforme, sino que se ha diseñado un cuerpo
joven más natural que va de la mano con una profunda construcción de los
conflictos internos del personaje.
Este tipo de propuesta también atiende a mecánicas de juego más proactivas
donde el jugador no sólo reacciona ante los obstáculos y enemigos dentro
del ambiente de juego. Se trata también de permitir que los jugadores se involucren más a fondo con el personaje, que a estas alturas ha trascendido el
papel de muñeca operadora y se encuentra en una relación más significativa
para la experiencia de juego.
Es necesario en este punto considerar que los cambios de este tipo en las
mecánicas de juego, no necesariamente van de la mano con cambios en los
imaginarios sociales y culturales de los cuales se desprenden las temáticas y
conflictos para medios de entretenimiento como son los videojuegos. Cabe
mencionar que, al menos en Estados Unidos, el mercado femenino representa un 40% del mercado de los videojuegos [12]; y ante un número tan
elevado, es casi esperado que la oferta en el mercado del entretenimiento
participe con nuevos productos.
Conclusiones
Las imágenes gráficas poseen una potente carga cultural que suele refrendar
los esquemas de pensamiento vigentes en un entorno social. Sin embargo,
en medios como los videojuegos, en ocasiones, se hace uso de las imágenes
para construir una parte de un personaje, si se piensa al personaje como una
construcción tridimensional (dimensiones física, sociológica y psicológica);
300
el resto se construye a partir de la posibilidad de tomar decisiones a lo largo
del juego sin afectar el mismo, pero con profundo impacto en la dimensión
afectiva de la experiencia de juego. En este sentido, si bien un personaje
puede verse gráficamente como una mujer, esto no implica que el papel
que opera dentro del ambiente de juego sea femenino; es decir, existirá una
disonancia entre las dimensiones del personaje. Lo mismo ocurre con los
personajes masculinos.
Uno de los aspectos a tomar en cuenta, es que este tipo de cambios en las
mecánicas de juego pueden llegar a generar cambios de sensibilidad en el
pensamiento de las personas que juegan. Sin embargo, es evidente que ese
no es uno de los objetivos primordiales dado que la prioridad es depositada
en atender demandas de consumo de un mercado de mujeres video jugadoras que va en ascenso.
Referencias
[1] Ryan, M.-L. (2001). Beyond Myth and Metaphor: The Case of Narrative in Digital Media.
The International Journal of Computer Game Research, 1.
[2] Juul, Jesper. (2003). The Game, the Player, the World: Looking for a Heart of Gameness.
In: Copier, M., and Raessens, J., (Eds.) Level Up: Digital Games Research Conference
Proceedings, Utrecht: Utrecht University, pp. 30-45. [online]. Disponible: http://www.
jesperjuul.net/text/gameplayerworld/ Fecha de acceso: 10 de septiembre de 2014.
[3] Sicart, M. (2011). Against Procedurality. The International Journal of Computer Game
Research, 11.
[4] Juul, Jesper. (2011). Half-Real: Video Games Between Real Rules and Fictional Worlds.
MIT Press, Estados Unidos de Norteamérica. Pág. 122.
[5] Cohen, Mark. (2000). Lara Croft: The Art of Virtual Seduction. Prima Games, Estados
Unidos de Norteamérica. Pág. 21.
[6] Egri, Lajos. (2009). El arte de la escritura dramática. Fundamentos para la interpretación
creativa de las motivaciones humanas. UNAM, México. Pág. 99.
[7] Jenkins, Ria. (2014). From Lara Croft to Bayonetta: what is a strong female character?
En: The Guardian [online]. Disponible: http://www.theguardian.com/technology/2014/
aug/05/lara-croft-bayonetta-female-games Fecha de acceso: 4 de mayo de 2015.
[8] Thompson, T. L., & Zerbinos, E. (1995). Gender roles in animated cartoons: Has the picture changed in 20 years? Sex Roles, 32, 651-673.
[9] Harris, C.R., Jenkins, M. y Glaser, D. (2006). «Gender differences in risk assessment:
Why do women take fewer risks than men?», Judgment and Decision Making1, pp. 4863.
301
[10]Winnicott, D. (1987) Realidad y juego. Editorial Gedisa. Barcelona. Pág. 75.
[11]Regan, Tom. (2015). New Rise of The Tomb Raider Gameplay Details Emerge. En: IGN
Entertainment US [online]. Disponible: http://www.ign.com/articles/2015/02/12/newrise-of-the-tomb-raider-gameplay-details-emerge Fecha de acceso: 5 de mayo de 2015.
[12]Greengrass, Paul. (2014). Gender in Gaming: Tomb Raider #1. En: Reflections. Film, Media and…Stuff [online]. Disponible: https://kgvreflections.wordpress.com/2014/01/01/
gender-in-gaming-tomb-raider-1/ Fecha de acceso: 4 de mayo de 2015.
302
El método de la prefabricación y su incidencia en la gestión del
diseño y la construcción arquitectónica contemporánea en el
campo profesional mexicano
Tomás Sosa Pedroza, Sue Carolina Andrade Díaz
Universidad Autónoma Metropolitana, Azcapotzalco, División de Ciencias
y Artes para el Diseño
Resumen
La prefabricación es un método contemporáneo de construcción, con aplicaciones de tecnología de punta y con una alta incidencia en la producción
contemporánea mexicana, tanto en lo arquitectónico como en obra civil. El
mercado de la construcción y del diseño contemporáneo de nuestro país, al
igual que en el resto del mundo, se han visto tan notoriamente beneficiados
con la aportación de estos componentes tecnológicos y estéticos en las edificaciones, que sin ellos no sería posible interpretar al quehacer arquitectónico contemporáneo tal como lo percibimos actualmente.
Palabra clave: Prefabricación, diseño arquitectónico, gestión del proyecto,
proceso de enseñanza-aprendizaje UAM-Azc.
Antecedentes
El trabajo por exponer es el resultado parcial de mi tesis de grado en la
UAM-Azc cuyo objetivo es explorar teóricamente el método de construcción llamado prefabricación.
Según los analistas sociales y de la arquitectura mexicana, desde los finales
del siglo pasado las tendencias contemporáneas del diseño en nuestro país
han sido conducidas hacia un claro concepto de modernidad, razonamiento
entendido no como el período histórico denominado “modernismo” ubicado en el siglo XIX sino como un concepto social originado en las primeras
décadas del XX.
Para estos analistas la modernidad es más que un período de cierta época
histórica, es más bien una tendencia social hacia el progreso colectivo, así
vemos que el investigador social Perló M. (1990:9) ubica a la modernidad
“en las artes plásticas se considera al modernismo como un período de unos
15 años que se inicia en 1890 y termina en los primeros años del siglo XX”
pero concluye que desde su perspectiva “el término se asocia más con la
idea de progreso, de cambio, de ruptura que el atraso, que con la ortodoxia
de un movimiento filosófico determinado”
303
La arquitectura mexicana se apropió de la idea de representar a la modernidad desde la segunda década del siglo XX a partir de la necesidad de determinar una identidad nacional después del movimiento armado de 1910
y por el crecimiento poblacional generado por la paz social derivado del
mismo movimiento armado (Canales F.).
La arquitectura sufrió una paulatina transformación a partir de ese momento,
al sustentar su crecimiento como disciplina en el modelo fundamentado en
la realización a través de lo proyectable y abandonado el modelo basado
en la tradición y lo heredado (Villers L., Kochen J. J. y Odériz A.). En esta
etapa de nuestra historia, la modernidad social tenía como fundamento los
postulados europeos del positivismo los que se reflejaban en la arquitectura
a través de diseños eclécticos y con uso de materiales con fuerte presencia
industrializada.
Los factores del cambio que impulsaron hacia este movimiento moderno en
la arquitectura, según Enrique Yánez (Yánez E. 1990), fueron fundamentalmente la implementación de novedosos procesos constructivos emanados
de la revolución industrial europea, en las formas de producir y comercializar el hábitat humano. Fue tal la influencia de estos cambios sociales
que modificaron substancialmente el pensamiento, la educación y la cultura
humana, y que como consecuencia se requirieron de nuevos espacios habitables para satisfacer las recientes necesidades del hábitat, que no existían
anteriormente.
1.
2.
Figura 1. Hotel de CD. de México.
Figura 2. Estación ferroviaria B. A. Argentina.
304
En el período postrevolucionario, cuando el movimiento armado se consolidó a través de instituciones firmes, el Estado se constituyó como el principal
impulsor del desarrollo económico en todos sus sentidos incluyendo la promoción de las obras arquitectónicas y de la infraestructura urbana necesaria
en ese momento (López P. 2011 pag. 31).
Siendo un factor de suma relevancia en este período la exposición de la teoría arquitectónica planteada por el Mtro. Jose Villagran que en esencia definió a la arquitectura como construcción, en donde la sinceridad estructural
y de los materiales utilizados en la edificación era la base de la modernidad,
rompiendo radicalmente con los conceptos anteriores de que los elaborados
recubrimientos de las fachadas y los accesorios de ornato eran la principal
base (Canales F.)
Los años finales de la primera mitad del siglo fueron de gran relevancia para
el crecimiento económico y la industrialización del país, fundamentándolo en la explotación del petróleo recientemente nacionalizado. Es en esta
época cuando las grandes empresas mexicanas se fundan constituyéndose
como fuertes pilares del crecimiento, siendo la empresa ICA (4 de julio de
1947) la más representativa del desarrollo de la construcción arquitectónica
mexicana.
Figura 3. Torres de Satelite.
305
En las décadas posteriores a la segunda mitad del siglo el impulso a la iniciativa privada por parte del Estado derivó en una expansión económica de
crecimiento colaborado denominado como “economía mixta”, igualmente
fundamentado en los ingresos petroleros, desde los años 60’s hasta el año de
1981. Las empresas formales fueron incentivadas por el gobierno mediante
contratos de obra de gran envergadura lo que motivó un gran crecimiento en
la industria de la construcción, particularmente.
Es en este período cuando la iniciativa privada se manifestó como un componente muy sólido en la dinámica económica del país expresándose en el
movimiento arquitectónico a través de una experimentación estructural mediante la utilización de nuevos materiales y sistemas constructivos derivados
de una incipiente industrialización, tendencia dominante por encima de la
experimentación formal en los edificios. (Canales F.).
A partir de la octava década, desde la entrada de nuestro mercado de la
arquitectura al contexto en el que se vive actualmente es notorio que la
recurrencia del concepto de modernidad se encuentra ligado a las tendencias económico-sociales derivadas de la globalización. La tendencia globalizante de los actores productivos de nuestro país se puede considerar como
iniciada en la décadas de los 80’s y 90’s con las firmas de diferentes tratados
comerciales entre México y otros países americanos y europeos.
Sin embargo el factor más contundente para insertar la economía de nuestro país al concepto globalizante, se dio a través del acuerdo comercial del
norte de América llamado TLC, protocolizado en la gestión presidencial de
Salinas de Gortari. Aunque hubo varios antecedentes de firmas comerciales
internacionales, como el Acuerdo General de Aranceles y Comercio (GATT
por sus siglas en inglés) consolidada por el gobierno de De la Madrid (1984),
ha sido el TLC el más influyente en el desarrollo económico del país y como
consecuencia en el entorno arquitectónico.
Es a partir de este evento que se observa en los creadores arquitectónicos
una modificación en sus tradicionales métodos de diseño, renovándolos a
través de la implementación de las herramientas y recursos que las nuevas
tecnologías digitales ofrecen al mercado actual de la Arquitectura y de la
construcción, e incluyendo en estos nuevos métodos de diseño los sistemas
constructivos y materiales de punta del tipo industrializado, que se ofertan
en el mercado local y mundial de la edificación contemporánea.
En los inicios del siglo XXI, gracias a estas novedosas propuestas, las tendencias de las edificaciones desarrolladas en el interior de los campos de
la Arquitectura y el urbanismo de nuestro país han modificado substancial306
mente el estado cultural arquitectónico, reafirmando de manera contundente el concepto de la modernidad. El reflejo en el hábitat mexicano de
las modificaciones mencionadas se encuentra presente en las edificaciones
construidas en los últimos veinte años, a través de diseños con propósitos
más formales de identidad corporativa, a través de la integración de sistemas constructivos más novedosos, más eficientes estructuralmente, más
resistentes y de más rápida colocación.
Igualmente se pueden mencionar en este cambio modernizador a los emprendedores aglutinados en grandes y medianas empresas, nacionales o extranjeras, nuevas o las tradicionalmente establecidas y que a través de investigaciones y patentes recientes aportan dentro del esquema globalizante en
que se desenvuelve el mercado internacional desde esa década, productos
y servicios altamente eficientes en su desempeño, apariencia y economía.
Como en todas las áreas del conocimiento humano, la arquitectura del nuevo milenio y consecuente con la nueva conformación social y sus nuevas
formas de pensar fundamenta su desempeño como ciencia en apoyo a la
sociedad a través de tres componentes: la industrialización de sus procesos
productivos, en las herramientas nacidas de la electrónica digital y la ya
mencionada economía política del Estado fundamentada en el TLC.
La industrialización en la construcción
Se entiende por industrialización aplicada a la arquitectura y la construcción, como un proceso de manufactura que aplica tecnologías avanzadas en
sus métodos de diseño, de gestión administrativa y de fábrica, empleando
insumos mejorados y controlados, y contemplando la transportación y equipos de montaje dentro de su diseño específico, con el objetivo de obtener
una mayor productividad.
La industrialización, aporta a la modernidad arquitectónica contemporánea
insumos y sistemas de alto valor tecnológico lo que ha permitido al arquitecto diseñador y al propio mercado de la construcción hacer uso de opciones
alternativas a la forma tradicional de construir. La implementación de sistemas constructivos novedosos, más eficientes, estructuralmente más resistentes y de más rápida colocación, así como el uso de insumos y materiales
igualmente resistentes, de mejor apariencia y con acabados permanentes,
ha sido la aportación de la industrialización a la Arquitectura catalogada
como moderna.
Contrario a los métodos constructivos aplicados con tecnologías industrializadas, el conjunto de técnicas del tipo artesanal, aplicadas en la cons307
trucción tradicional, se caracterizan por fundamentar su trabajo en el uso
de materiales naturales y en muchas ocasiones en los materiales típicos de
la región, además en el empleo de mano de obra asentada en la tradición
del oficio que desprecia la capacitación técnica, y por último sus resultados
estéticos son producto del sello personal del albañil.
CONSTRUCCIÓN
ARTESANAL
CONSTRUCCIÓN
INDUSTRIAL
Busca el respeto de la tradición del oficio
haciendo solo cambios en caso de no poder
continuar haciendo lo mismo
Cambia al ritmo del desarrollo tecnológico
y lo impulsa hacia el cambio
Su precio es negociado
Su precio está establecido tomando en
cuenta la competencia, la oferta y la demanda
Da en el producto el sello personal de quien
lo creó
Proporciona el producto más acorde posible a las necesidades de la sociedad para
la que fue creado
Calidad de
producción
La calidad final la da el constructor
La calidad la dan las normas, los estándares, los códigos y la satisfacción del cliente
Relación
cantidad-calidad
A mayor cantidad, menor calidad y uniformidad
Cantidad con calidad
Producción
Es única y hecha por un artesano Producción limitada
Su producto es repetitivo y está hecho por
una o varias empresas Producción masiva
Costo de inversión
Casi no se requiere inversión
Se requiere inversión proporcional a lo
producible
Planeación
Sus procesos conllevan improvisación
Sus procesos son planeados y previstos
Tiempos de
producción
Los tiempos de realización son aleatorios
Los tiempos de realización son programados y controlados
CARACTERÍSTICAS
Aplicación
tecnológica
Costo
Diseño
Herramientas nacidas de la electrónica digital
Haciendo un análisis de las primeras prácticas del ambiente digital en el
entorno del diseño internacional de la arquitectura, es posible mencionar
que se originó en los años 60 del siglo anterior, desarrollándose a partir de
entonces una corriente extremadamente dinámica entre los diseñadores.
Como es de entenderse en estos primeros inicios la mayoría de los despachos internacionales no fundamentaban sus esfuerzos proyectuales a través
del ordenador sino que era usado exclusivamente como auxiliar de dibujo
en dos dimensiones. La parte creativa de los proyectos se daba de manera
externa a los ordenadores a través de la croquización, con el apoyo de las
herramientas habituales de dibujo y sobre la tradicional mesa-restirador del
diseñador.
308
El resultado final se concentraba en un conjunto de documentos llamado
proyecto ejecutivo en donde se plasmaba, en dos dimensiones, la creación
del diseñador en cortes, en plantas, fachadas, perspectivas axonométricas,
etc., para efectos de comunicación visual con el cliente, las autoridades y el
futuro constructor de la obra. El empleo de la computadora era escaso y se
limitaba para funciones casi exclusivamente en la faceta de la administración del proyecto.
Posteriormente y gracias a los avances en los programas computacionales de
dibujo a la herramienta virtual se le fue dando mayor participación, sobre
todo en la representación gráfica en dos dimensiones; de plantas, cortes y fachadas. Esta nueva función asignada a los equipos virtuales ayudó a simplificar el trabajo del diseñador, permitiendo el manejo del dibujo a través de
capas que se podían superponer como hojas de papel (los llamados layers),
con la ventaja de hacerlo de manera simultánea.
En la actualidad las herramientas digitales han magnificado tanto las posibilidades de diseño a los arquitectos contemporáneos que permiten previsualizar a la perfección lo inmaterial de la idea arquitectónica, con los
componentes tangibles que tiene la arquitectura como: la estructuración, las
instalaciones, presupuestos y la administración de lo proyectado, etc. con la
ventaja adicional de que esta pre-visualización se puede lograr a través del
dibujo 3D.
Esta visión inmaterial ha fortalecido a la más material de las Artes y esta
misma visión es la que permite la edificación de proyectos con mayores
dificultades técnicas.
La tecnología aplicada a productos y sistemas constructivos también se ha
visto fortalecida por el avance en los procesos de diseño asistidos por computadora, permitiendo a los profesionales de la construcción industrializada
nuevos procedimientos de diseño y de producción. Como resultado final de
esta aportación virtual a la producción industrializada se observan nuevos
planteamientos formales y estructurales en las edificaciones terminadas recientemente generados en sus inicios por la inquietud de los despachos de
los arquitectos actualizados con estas nuevas herramientas de diseño.
309
4.
5.
Figura 4. Torre Bancomer.
Figura 5. Esquema de red Museo Suomaya.
La prefabricación y su incidencia en la gestión del diseño
Por sus industrializados procesos de confección y sus sistemáticos modos de
aplicación en obra, a la prefabricación se le envuelve en el entorno de construcción industrializada, sin embargo debido a las importantes variantes en
el método de diseño y debido a las importantes aportaciones que ha dado al
mercado de la arquitectura contemporánea, a la prefabricación es necesario
considerarla como un método independiente de construir y diseñar.
Aunque el concepto de construcción prefabricada no tiene una definición
semántica muy precisada en el lenguaje común, en la expresión de la práctica arquitectónica sí tiene una connotación bien definida y utilizada con
precisión por los profesionales del diseño y la construcción contemporánea.
El concepto entendido de “prefabricación”, en nuestro ámbito arquitectónico, es básicamente una referencia de tiempo, de distancia y de aplicación de las cargas finales de trabajo de los sistemas y productos fabricados
con ésta técnica, en donde por lo general, los componentes estructurales
de la edificación son elaborados en plantas industriales alejadas de la obra
y transportados y colocados posteriormente en su sitio terminal de trabajo.
Los productos construidos de este modo obtienen todos los beneficios de
un método proceso industrial, como son la reducción en el tiempo de fabricación, la reducción de costos de producción, control de calidad mucho
más estricto, una óptima calidad en su apariencia y mejora notable en la
resistencia estructural.
Utilizando la definición descrita por los autores Raúl Díaz y Heraclio Esqueda en su libro productos de Concreto (ed. IMCyC) se define a la prefabricación como:
310
Como el empleo racional de diseño, materiales, equipos mecánicos
de producción, transporte y montaje, para producir en series repetitivas, fuera de obra o en ella misma, elementos que no necesiten
modificaciones ni complementos, debido a que están diseñados con
bases de coordinación modular, estandarización y tipificación.
6.
7.
Figura 6. Construcción torre alfa.
Figura 7. Construcción L-9 metro.
De donde se derivan palabras clave como las siguientes:
Empleo racional de diseño.- La prefabricación al ser un método de construcción de punta e incluyente obligado de la Arquitectura contemporánea,
integra en sus procesos de producción variados métodos de diseño fundamentados en preceptos industriales y con apoyo de las herramientas de la
computación, todos ellos derivados de las ciencias de la comunicación,
como los de organización, planeación, control, etc., siendo el diseño el eje
rector de todos ellos.
Coordinación modular.- El mercado de la Arquitectura de nuestro país, por
sus formas de desarrollo plantea a los diseñadores un panorama sumamente complicado de conciliación entre diseño y construcción, ya que en él
intervienen dos diferentes sistemas de medición, que hay que decirlo son
escasamente concordantes entre sí. El sistema métrico decimal, que es el
sistema de medición oficial para aplicarse en México y el sistema inglés de
medidas, son los dos sistemas que un diseñador tiene que conciliar durante
el proceso de diseño y que en pocas ocasiones logra a plenitud. El diseño se
desarrolla con el sistema métrico decimal, la construcción del tipo industrial
se fundamenta en el sistema inglés.
Tipificación.- La tipificación, entendida como una acción de normalizar es
aplicada en forma sistemática por la industria de la prefabricación, ya que
las autoridades mexicanas sistematizan oficialmente la mayoría de los procesos de producción aplicados en este tipo de industria.
311
Según esta tesis nos podemos dar cuenta que la prefabricación es un método de diseño que agrupa dentro de sí una serie de elementos o factores
con tendencias industrializadoras, como son: los recursos humanos tanto
técnicos como obreros y administrativos, los recursos de mecanización de
alta tecnología, materiales de última generación y evolucionados procesos
de administración fundamentados en programas de cómputo. Gracias a esta
tendencia industrial del diseño contemporáneo es posible cumplir los objetivos buscados en cualquier proyecto arquitectónico; hábitat más confortable,
a menor costo, más sólido y con reducción de tiempos en su manufactura.
Según esta tesis nos podemos dar cuenta que la prefabricación es un método
de diseño que agrupa dentro de sí una serie de elementos o factores con tendencias industrializadoras, como son: los recursos humanos tanto técnicos
como obreros y administrativos, los recursos de mecanización de alta tecnología, materiales de última generación y en los evolucionados procesos de
administración fundamentados en programas de cómputo.
El diseño y la construcción también se han visto impactados por el avance
de las nuevas herramientas fundadas en las ciencias de la computación en
donde prácticamente en todos sus procesos, tanto en el diseño como en su
aplicación en obra, así vemos que en los despachos de diseño o en las empresas pre fabricadoras la utilización de esta herramienta es indispensable
actualmente para desarrollar sus procesos de ejecución. La nueva herramienta ha permitido la aparición de nuevos procedimientos de construcción, de nuevos materiales y con la inquietud de los arquitectos e ingenieros
por nuevas y más audaces de formas arquitectónicas y estructuras.
Al inicio de este nuevo siglo se observa una tendencia clara de los profesionales del diseño arquitectónico y constructor del hábitat hacia el manejo de
sistemas y materiales prefabricados en sus proyectos, a la par de una tendencia de los empresarios de este mercado por ofrecer productos continuamente renovados y novedosos para el mercado de la construcción en México.
Edificar la nueva arquitectura con bases prefabricadas industriales otorga
al producto terminado valores estéticos y ventajas técnico-constructivas de
gran aporte, además de permitir la edificación en menor tiempo, a menor
costo y reducción considerable de los costos finales de la obra, posibilitando diseños de vanguardia. El uso de maquinaria especializada en todos
sus procesos, la aplicación de insumos de mayor capacidad para resistir los
esfuerzos y el de emplear en los mismos procesos mano de obra altamente
capacitada posibilitan alcanzar tales metas.
312
La prefabricación tiene una serie de ventajas, algunas de las más importantes son:
Ventajas de tiempo.- En la construcción tradicional las fases de la obra
tienen que ser ejecutadas en orden físico, es decir la cimentación es
construida después de haberse ejecutado la excavación correspondiente, la estructura después de la cimentación, los acabados no pueden ser
colocados hasta después de haberse retirado la cimbra de la estructura,
etc., esta circunstancia es obligada por los procesos de construcción
que comúnmente son en base al concreto armado. En la prefabricación
el ahorro de tiempo es posible porque la ejecución de estas mismas
fases es posible, porque mientras en obra se ejecutan los trabajos de la
cimentación, al mismo tiempo la estructura o al menos algunas partes
de la fase, se realiza en la planta industrial de prefabricados.
Ventajas de costo.- La economía de los costos de producción de los prefabricados se logra al utilizarse en su elaboración los fundamentos de
la industrialización, es decir el uso mayoritario de maquinaria especializada, mano de obra capacitada debidamente en sus tareas cotidianas, insumos para cimbras más perdurables (como el acero), insumos
mejorados para concretos, sistematización en los procedimientos de
producción, etc.
Ventajas de calidad.- Sistematizar los procesos y las piezas en su diseño, y
ejecutar industrialmente las piezas prefabricadas refleja ventajas de alta
calidad en su resistencia, en sus uniones y en su calidad estética. Debido a estas posibilidades, generalmente los sistemas y las piezas prefabricadas son diseñadas y construidas con características aparentes.
La prefabricación en el momento de ser contemplada como un componente
sistemático del método de diseño arquitectónico, ha permitido impulsar a
la arquitectura contemporánea hacia un estatus de calidad sin precedente,
por sus características altamente innovadoras, de un alto aporte tecnológico
y de alto valor comercial.
Gracias a esta tendencia industrial del diseño contemporáneo es posible
cumplir los objetivos buscados en cualquier proyecto arquitectónico; hábitat más confortable, a menor costo, más sólido y con reducción de tiempos
en su manufactura.
La prefabricación y su incidencia en la construcción contemporánea
La prefabricación en su faceta de componente constructivo se fundamenta
en una técnica de producción llamada EL PRESFUERZO que utiliza pro313
cesos de alta tecnología y que permite la producción de los componentes
prefabricados de rápida, eficiente, económica y con el valor agregado de
poder ser producidos en serie.
La técnica del pres fuerzo es un proceso de aplicación que desde su empleo
sistemático en la industria, ha logrado impulsar a la prefabricación como un
método constructivo sumamente innovador, altamente técnico y provechosamente ventajoso para el mercado de la construcción, tanto nacional como
internacional. Actualmente, y gracias a todas las ventajas que proporciona
a los industriales de la construcción, esta técnica permite ofrecer opciones
sumamente atractivas que reduce en tiempo y costos y aporta una excelente
calidad de producción a las edificaciones arquitectónicas actuales.
El principio estructural del pre esfuerzo es intuitivo y su origen se pierde en
la historia, de las técnicas y el artesanado. Es una técnica general que se
puede aplicar a cualquier material de construcción como; el acero, el concreto, la madera, cerámica, etc., sin embargo es en el sistema de concreto
reforzado en donde los industriales de la construcción han enfocado sus
esfuerzos comerciales y de investigación, desarrollando materiales y sistemas constructivos con tecnología de punta más evidentes, ofreciendo a la
Arquitectura productos industriales y métodos de construcción mucho más
ventajosos en tiempo, calidad y costo.
Se puede definir al pre esfuerzo como:
La creación intencional de esfuerzos de compresión, adicionales y permanentes en una estructura o conjunto de piezas, con el propósito de
mejorar su comportamiento y resistencia bajo condiciones de servicio
altamente demandantes y por sus técnicas de aplicación estos esfuerzos son normalmente aplicados en los extremos de los elementos estructurales.
F= fuerzas intencionales de presfuerzo
P= carga de diseño sobre la viga
314
En el dibujo se representa gráficamente la función del preesfuerzo en una
viga simplemente apoyada. En los extremos de la pieza colada previamente
se aplican las fuerzas F de compresión que anulan parcial o totalmente a la
deformación de pandeo que se produce naturalmente en el centro ocasionado por el peso propio de la pieza y por la carga permanente P.
Una estructura o un elemento aislado al que se le pueden anular o contrarrestar artificialmente algunos esfuerzos de tensión en sus partes internas,
reacciona más favorablemente a todas las cargas de diseño o incidentales,
además de ofrecer al diseñador opciones mucho más viables de aplicación
en estructuras grandes o pesadas o en estructuras con diseños arquitectónicos poco convencionales.
En la técnica del concreto pres forzado la resistencia a todos los esfuerzos
producidos en las estructuras por la aplicación de las cargas y sobrecargas, naturales e inducidas, se logra con la utilización del material único, el
concreto que se pre comprime de manera permanente. El acero utilizado
en los elementos pres forzados posee características estructurales diferentes
al utilizado clásicamente en el concreto premezclado, puesto que en estos
elementos el acero es el medio para aplicar la fuerza de compresión externa,
y en teoría podría quedar por fuera del propio concreto.
8.
9.
Figura 8. Mesa de pretensados.
Figura 9. Aplicación de postensados puente mezcala.
La técnica constructiva del pres fuerzo es un término que engloba dos métodos de aplicación, ambos respetan fielmente su teoría de diseño y buscan
los mismos objetivos. El pres fuerzo puede aplicarse en la construcción a
través de dos métodos
315
El pretensado y el postensado
Cada método tiene sus características propias de aplicación que los hacen
viables a las diversas circunstancias de obra que se presentan en el mercado de la construcción actual, ya sea en obras de edificación, urbanismo o
infraestructura urbana.
Conclusiones
Como ha sido expuesto, la prefabricación es un método de diseño puntualizado como tecnología de punta y que tiene una alta incidencia en la
producción arquitectónica y de obra civil en el mercado contemporáneo
de la construcción, pero que a pesar de que es un método de producción
altamente rentable y cada vez más influyente en la praxis arquitectónica, todavía es un tema escasamente teorizado y pobremente documentado desde
la visión del diseño arquitectónico.
La ausencia de información documentada en el contexto mexicano sobre
las ventajas que ofrecen los sistemas y productos prefabricados y sobre las
condicionantes de su uso, repercuten directamente en la gestión del diseño
profesional y lo que es peor en una baja incidencia de aplicación en las edificaciones construidas durante los finales del siglo XX y al principio del XXI
del mercado mexicano, que según la Asociación Nacional de Industriales de
la Prefabricación y el Presfuerzo (ANIPPAC por sus siglas) apenas alcanza
el 3% de utilización en las edificaciones construidas a partir del inicio de
este siglo. Cone estos porcentajes se puede deducir que la prefabricación
todavía no no alcanza todo su potencial como herramienta de producción
arquitectónica, actualmente.
En mi opinión y en razón de razón de la realidad planteada es urgente modificar los tradicionales métodos de diseño de las futuras edificaciones por
diseñarse y construirse, volteando a los nuevos horizontes que el mercado
mexicano ofrece al diseñador y constructor del hábitat contemporáneo con
el fin aprovechar en su máxima dimensión las ventajas tecnológicas, de costo y de calidad que ofrece esta nueva herramienta llamada prefabricación.
316
10.
11.
Figura 10. Cámara de senadores.
Figura 11. Oficinas administrativas en monterrey.
Referencias
[1] Canales Fernanda. La Construcción De La Modernidad En México. Revista Arquine # 68.
México 2014
[2] Enrique X. De Anda. Historia De La Arquitectura Mexicana. Gg. 2013
[3] Gustavo López Padilla. Nueva Arquitectura Mexicana. Editorial Designio Unam. 2011
[4] Edward R. Burian. Modernidad Y Arquitectura En Mexico. G.g. Mexico. 1998. Entrevista
Al Arq. Alberto Perez-Gomez.
[5] (http://eadic.com/blog/prefabricacion-vs-industrializacion/).
317
Un acercamiento a la actual postura política virtual
desde la mirada del Diseño
Betsabee Álvarez Jiménez
Facultad de Arquitectura y Diseño, Universidad Autónoma del Estado de
México
[email protected]
Resumen
En este trabajo reconoce al “meme” como el neopasquin. En este caso se
analiza un neopasquin político siguiendo la estructura propuesta por Ch.
Perice de la abducción para llegar a un resultado que nos pueda explicar
la imagen. Si se lee al meme como neopasquín político se podrá comprender que cualquier escrito anónimo puede formar parte de su definición. El
presente escrito, si bien, no se encarga de delimitar los mercados, si habla
acerca de uno “El mercado virtual”, quien lo conoce o quien lo ve. Pero, sin
embargo, está presente; es este mercado el que difunde la publicidad política. Dentro de lo que engloba este escrito refiere al marketing político a la
comunicación política y al proceso que lleva a cabo esta para dar a entender
su mensaje a las masas.
Este trabajo trata de articular estos conceptos con la ya distribución mediatizada de los neopasquines y en él habrá una planteamiento como resultado,
un acercamiento entre México y Chile haciendo un análisis del neopasquín
usado para el manejo de los nuevos mercados.
Palabras Clave: meme, neopasquin, significado, comunicación, virtualidad
Introducción
En este artículo se discute el nuevo uso del pasquín y neopasquín dentro de
la neo-comunicación o llamada Folkcomunicación por Luis Beltrão (1965).
Él habla de las relaciones comunicacionales entre sociedades marginales
urbanas y rurales. Se pregunta: ¿Qué pasa, pues con las sociedades invisibles? El presente escrito, si bien, no se encarga de delimitar los mercados,
si habla acerca de uno “El mercado virtual”, quien lo conoce o quien lo ve.
Pero, sin embargo, está presente pues; es este mercado el que difunde la
publicidad política o la también llamada Folkmarketing político, a raíz del
autor Beltrão.
318
El pasquín político tiene como característica el ser furtivo, satírico, o presentarse de manera burlona o sarcástica ante los ojos del espectador para
informar de algo, es muy común que no lleve firma de quien lo ha hecho y
es un medio de difusión que pretende llegar a las más personas que pueda.
En este sentido y de manera virtual se presenta al “meme”.
Se introduce el termino “meme” en 1976 “The Selfish Gene” como el gen
que se mimetiza de otros. “(…)Necesitamos un nombre para el nuevo replicador, un sustantivo que conlleve la idea de una unidad de transmisión
cultural, o una unidad de imitación. «Mímeme» se deriva de una apropiada
raíz griega(…)Espero que mis amigos clasicistas me perdonen si abrevio mímeme y lo dejo en meme”(Dawkins:1990;211).
El meme trata de mimetizarse, como lo hacen las modas, los lenguajes, los
medios de producción etc. “(...) Al igual que los genes se propagan en un
acervo génico al saltar de un cuerpo a otro mediante los espermatozoides
o los óvulos, así los memes se propagan en el acervo de memes al saltar de
un cerebro a otro mediante un proceso que, considerado en su sentido más
amplio, puede llamarse de imitación.” (Dawkins:1990;212).
El “meme” no solo es la propia imitación sino la comprensión de un nuevo
sentido de información. Debemos entonces estudiarlo y leerlo como neopasquin, parte del lenguaje. Y por ende parte de la comunicación.
Del mismo modo que el pasquín el meme se ha caracterizado por ser irónico en sus criticas, es del mismo modo viral y anónimo, siendo esparcido
por las redes sociales en la virtualidad es casi imposible saber quién es la
persona que lo introduce al ciberespacio.
Dentro de los nuevos elementos de la comunicación, uno de ellos, es que se
ha globalizado la información en las elecciones presidenciales de los países
del mundo. Se ha encontrado que el actual pasquín político, es el tipo de
afiche o libelo que ha ido evolucionando junto con la globalidad de la información. El pasquín político actual forma parte de la comunicación masiva
en las nuevas tecnologías. Por lo tanto, se pueden plantear alternativas de
análisis en las que, el neopasquín (político) propagandístico de las campañas para la elección presidencial, es un tipo de comunicación de masas, y
que, por medio de su reconceptualización, dentro de los esquemas de las
condiciones de las tecnologías actuales ayudarán a la comprensión y crítica
de los signos utilizados en las campañas políticas en México.
319
Figura 1. Neopasquín político: en la comunicación de masas y su re-conceptualización.
Que las reglas del juego de la comunicación política sean de procedencia
mediática no quiere decir que los medios se conviertan en un factor independiente, inmunes a la influencia manipuladora de otros actores. Puesto
que son los medios los encargados de poner en relación a la política con su
público en todo momento y siempre que pueda aquella tratara de alternar
en beneficio propio de la información política. Mas difícil la tienen los ciudadanos, tercer actor de esta comunicación, debido a que son más bien un
objetivo a conquistar y a persuadir por políticos y medios, antes que actores
en sentido propio (Ortega; 2011: 12).
Uno de los fines inmediatos de la comunicación política es este sentido
de empoderamiento y de mantener el control, como decía Maquiavelo, un
príncipe prudente no puede mantener fidelidad en las promesas cuando tal
fidelidad redunda en prejuicio propio. Si bien mantener el control de la comunicación hace que el pueblo se sienta en conformidad y en tranquilidad,
también, es cierto que lo que los gobernantes buscan es mantener el poder
de la sociedad en control y para esto se valen de los recursos mediáticos y
el juego con la imagen.
Thomas Hobbes habla del Leviatan, mencionado en la Biblia en el libro de
Job, donde lo describe: El Leviatan como creación de Dios cuya monstruosidad consiste en que ningún individuo tiene tanta fuerza o poder como él,
de tal modo que careciendo de temor ante los más poderosos, Leviatan simboliza -lo que poéticamente se clasifica como- la ley para todos los hijos del
orgullo (…) Si tiene sentido alguno, decir que los ciudadanos hobbesianos
tienen miedo al estado… (Carrillo; 2002: 268).
Es así como se llega a la conclusión, basados en la teoría del Leviatan de
Hobbes, que el empoderamiento es uno de los factores determinantes dentro del juego político en que se afirma el poder, por así decirlo, el poder
lo tiene alguien indefinible o amorfo. Hobbes presenta al Estado como un
monstruo o una máquina de poder.
320
La folkcomunicación, envuelta en los pasquines actuales
La folkcomunicación, propuesta teórica planteada hace más de 40 años por
el periodista y profesor brasileño Luiz Beltrão (1965), es entendida en sus
propias palabras como “...el proceso de intercambio de informaciones y
manifestaciones de las opiniones, ideas y actitudes de masa, a través de
agentes y medios vinculados directa o indirectamente con el folclore” (Arroyo; 2008).
La folkcomunicación es la resistencia de la cultura popular, la comunicación de los marginados rurales y urbanos. Los culturalmente marginados. Se
basa en un estudio de medios y de agentes de información de datos y expresión de ideas. De lo que se habla, pues, es de una comunicación subalterna
o marginada. Esto dice que es un tipo de comunicación en movimiento.
El nuevo pasquín político toma fuerza en las redes sociales, como un medio alterno de la comunicación siendo nuevo y reaccionario. Los pasquines
actuales se vuelve una resignificación simbólica de la propia identidad política/juvenil. Supone la cercanía de la institución que se ha hecho vieja y
se creé que es para los nuevos viejos. Pero la juventud conoce y reconoce
la propia esfera política y la hace propia para resignificar y hacer parte a los
demás y acerca su significación hacia las de los otros y se crea una globalidad de información donde no solo la identidad nacional es importante, sino
la nacional global genera una propia visión local.
¿Cómo se puede jugar con los mismos signos dentro de los significados y
a su vez resignificar con los mismos signos para que los signos virtuales se
transformen en nuevos y útiles para las nuevas redes sociales?
La folkcomunicación parece validarse hoy tanto o más que antes, pues, en el
nuevo siglo presenciamos una transformación sin precedentes en la historia
de la humanidad que está definiendo una nueva sociedad contemporánea,
con nuevas formas de expresión de las aspiraciones y expectativas populares
(Arroyo; 2008). En este mismo panorama, la folkcomunicación es un medio
para el estudio y entendimiento de los pasquines actuales ya que es este
movimiento de la comunicación fuera de los limites legales pero sin dejar
de ser legitimada por los actores que los hacen y los que están alrededor.
321
Figura 2. Neo-pasquín político en el espacio de la Folkcomunicación.
El mercadeo político y el actual pasquín
El marketing (término en inglés) es una de las herramientas más utilizadas
dentro de la publicidad y los medios sirven para posicionar productos y
servicios. En la actualidad los medios de comunicación han sido una ayuda
fundamental en el marketing. Hoy en día la mercadotecnia, no solo ha servido para publicitar y vender productos, sino que es también de gran ayuda
para posicionar en un mercado electoral, a un candidato o a un partido
político.
De la mercadotecnia habría de desprender la mercadotecnia política, cuya
función primordial, en los regímenes democráticos, es precisamente la movilización de los medios para manipular la voluntad colectiva que, consciente o inconscientemente, sanciona la legitimidad del poder (Montero;
2006: 7).
Actualmente el marketing político es reconocido como posicionador en las
elecciones de algún aspirante político. El marketing político es una de las
bases de la política para poder empañar u ocultar obstáculos que pudieran
tener para la gente. La política, por su naturaleza, necesita darse a conocer,
por lo cual, se vale de la comunicación política para el intercambio de la
información dentro de sus usos políticos y/o electorales. El marketing político, se vale de la comunicación política para dar por entendido su trabajo.
Desde los años cincuenta, las técnicas de la mercadotecnia, que hasta entonces habían tenido un papel clave en el campo de la promoción de ventas
de productos y en el “posicionamiento” de marcas, en la siempre fluctuante
preferencia de los consumidores, se han encadenado a una nueva vertiente
poniéndose al servicio de la política, a la que, en un principio trasladaron
los mismos supuestos al redefinir al ciudadano, como consumidor, y al candidato, como el producto, quien es exhibido en las pantallas de la televisión
–siguiendo el símil de Régis Debray- con el papel de la estrella (Montero;
2006: 18).
322
Puesto que son los medios los encargados de poner en la relación a la política con su público en todo momento y siempre que pueda aquella tratará
de alterar en beneficio propio la información política. (Ortega:2011;12). La
marketing político movido por el publicidad política vende productos políticos que llegan a su público meta a partir de las imágenes generadoras de
informaciones y/o comunicados que son los encargados de hacer la comunicación política.
“…La comunicación política es el conjunto de técnicas que permiten
captar las necesidades que un mercado electoral tiene, estableciendo,
en base a estas necesidades, un programa ideológico que las soluciones y ofreciéndole un candidato que personalice dicho programa al
que se apoya e impulsa a través de la publicidad política…” (Barranco; 1994: 13).
La política entonces se ha convertido es un juego lucrativo para la mercadotecnia y para los personajes que se encuentran dentro de ella, siendo pues,
que la política se vale de ellos para convertirlos en un artículo vendible. Pero
no sólo es la política, sino que los candidatos en ella se mueven. Es innegable que la mercadotecnia política tiene en la actualidad una importancia
fundamental y es materia de especial preocupación de parte de los analistas
y los sectores más conscientes de la clase política (Montero; 2006: 20).
La comunicación política se ha vuelto indispensable para la promoción de
los asuntos políticos. La comunicación política forma parte de la experiencia de venta de la política. Es condición para poder negociar entre el emisor
y (el) los receptores el resultado de este intercambio, que sin embargo, es
lucrativo para una de las dos partes. La comunicación puesta al servicio de
la política y, en consecuencia de los políticos (Montero; 2006: 7).
En la política hay una estrecha relación entre el político y el electorado o
quizá eso debería ser, un ambiente estrecho entre ambos. Lo real es que,
tanto la comunicación política y el marketing político han generado estos
caminos, pero con ciertos ruidos al momento de hacer que el mensaje llegue
al receptor. Esto es, que han creado neopasquines o los llamados “memes”,
que han sido parte importante en la época actual. Los pasquines políticos
actuales han entrado de manera viral por todas las redes sociales conformando una forma de pensamiento o varias alrededor de la política actual.
Y ha reconfigurado esta forma ambigua entre la propaganda y la publicidad
política volviéndola así mediática y globalizada.
323
Un acercamiento a los actuales pasquines o a los memes
Un pasquín es un escrito anónimo que se fija en sitio público, con expresiones satíricas contra el Gobierno o contra una persona particular o corporación determinada. (RAE: 26/11/13)
En Italia se colocó una estatua llamada pasquino en honor a un zapatero
muy conocido en Roma, en ella se hizo costumbre colocar escritos a sus
pies sin autor, eran anónimos y cualquiera podía leerlos. El pasquín es un
libelo o folio colocado en las calles o el plazas con contenidos satíricos, en
su inicio fue conocido por sus acusaciones hacia el papa entre los siglos
XVI y XIX. (RAE: 26/11/13) Los pasquines no solo fueron llamados así, por
una falta de tolerancia o rebeldía, fue porque se tenía por claro, que era una
fuente confiable, porque la gente que escribía no tenía casi nada que perder
o al menos no tenían tanto miedo porque fueran descubiertos y de alguna
forma se mostraba como una posible fuente confiable de información, pero
lo que, si era característico y para resolver su seguridad era que no tenían
el nombre escrito, no eran firmados. Los multimedios, hoy tienen esta misma característica o posibilidad. Y he llegado a esta postura puesto que: El
pasquín político hace el juego dentro de los multimedios de reproducir informaciones y crear ese círculo que lo convierte en comunicación entre los
internautas. A éste, comúnmente, se le ha llamado ”meme” que ha sido un
nombre generado dentro de los multimedios por la gracias de poder mimetizarse dentro de los medios casi sin ser percibido.
La transmisión cultural, los procesos de formación y circulación de ideas
que se imponen rápidamente en una época o en una sociedad determinada,
siguen unos caminos que no son alterables a los que describen las teorías
clásicas de la información o de la comunicación que estudian los canales,
los sistemas de codificación, los medios de comunicación, etcétera y que
no se reducen tampoco a los mecanismos de difusión o transmisión cultural
estudiados por los antropólogos o los sociólogos sino que, supone además
un proceso de asimilación mental y afectivo que se efectúa en interacción
con el medio cultural, y que manifiesta los rasgos propios de un proceso
evolutivo. (Cortés; 2013)
Los “memes” han facilitado, poder burlarse de forma frontal y tan desfachatada de la política y de casi cualquier cosa que nadie le ha tomado como
ofensa directa, como algunos otros comentarios hechos en medios masivos
como televisión y radio… que se ha vuelto tolerado entre las hegemonías
de la política, iglesia y medios. Pero, hay estados totalitarios que han puesto
normas duras contra “pasquineros”. En México, el Estado de Veracruz ha
impuesto castigos y multas contra cibernautas-pasquineros.
324
Desde el ámbito de la semiología se empieza a señalar que la transmisión
cultural se sustenta en procesos que impregnan el conjunto del tejido social
y que van más allá de las consabidas presiones de los medios de comunicación. Así, recientemente, Umberto Eco señalaba que “desde hace varios
decenios circula la teoría, según la cual, los medios de comunicación no
siempre crean opinión, sino que refuerzan la que ya circula (Cortés; 2013).
La única preocupación en la actualidad del neopasquin o el “meme”, es en
qué medida puede hacerse viral, de otra forma no tendrían la aceptación en
las masas. Aceptación que dentro de muchos mercados virtuales tiene. Ya
que los memes hoy en día pueden ser el medio para hablar o burlarse casi
de cualquier cosa.
En Chile empezaron a tomar fuerza en el pasado movimiento estudiantil
2011-2012. Los estudiantes chilenos hicieron gran uso de estos, como un
autodiscurso de lo que estaba pasando en su entorno y para reconocerse
dentro del grupo. Estos son discursos autodirigidos al mismo movimiento.
Ambos discursos son inconmensurables, poseen un desacuerdo profundo y
no es posible un consenso (Holzmann ; 2012: 4).
Con el uso de los actuales pasquines políticos, se puede desafiar al sistema,
que si bien, no generan cambio, están ahí para gritar la inconformidad por
la cual fueron hechos. En el caso chileno, los memes marcaban el curso del
movimiento y la lógica del propio.
Gran parte del movimiento estudiantil se configura y organiza a través de
la red, lo que hace necesario explorar el lado del movimiento en cuanto se
desarrolla al alero de las tecnologías que proporciona internet, medio por el
que se difunde información, noticias, videos, etcétera, y mediante el cual se
organizan (Holzmann; 2012: 6).
En el contexto mexicano pasa algo similar, los movimientos sociales no se
hicieron esperar al enterarse de los candidatos presidenciales en el mismo
año, del mismo modo que los estudiantes Chilenos, la juventud mexicana
empieza hacer uso de las redes para poder organizarse. Los actuales pasquines políticos empiezan a rodar en la red desde que aparecen las imágenes
de los candidatos presidenciales para las elecciones del 2012-2018. Surgieron memes que empiezan a utilizar las redes para conocer y ridiculizar
y/o ensalzar a candidatos presidenciales. El movimiento juvenil, #yosoy132,
utiliza las redes sociales para organizarse para que los conozcan y para dar
a conocer movilizaciones. Los pasquines políticos surgen en este momento
para disfrazar y poner a salvo la integridad de los propios jóvenes.
325
Tanto Chile como México empatan los movimientos juveniles generados
por causas distintas, pero exigiendo ambos un cambio radical, los pasquines
políticos actuales ayudaron en estos procesos: mexicano y chileno.
Método de análisis: Abducción
Pasquín político actual
El método que se usa para este análisis de pasquín político es el propuesto
por Ch. Peirce, la forma más sencilla (según mi percepción) de llegar a un
hipótesis definible, es decir que es lo más obvio que nos podría explicar una
imagen dada y como se explica.
Para Peirce la abducción es primero (existencia, actualidad); la deducción va
en segundo lugar (posibilidad, potencialidad); y la inducción en tercer lugar
(generalidad, continuidad). La abducción juega el papel de producir ideas
nuevas o hipótesis. La deducción funciona como una forma de evaluar las
hipótesis. Y la inducción justifica a la hipótesis con datos empíricos. (VargasMendoza:2006;17)
Figura 3. Josefina y Pinochet.
Este pasquín que en Junio del 2012 rodó por las redes sociales es uno de los
mejores ejemplos encontrados donde pueden conocer y reconocer rastros
de ambas posiciones políticas, en México y en Chile.
Abducción: La abducción es la búsqueda de un patrón de regularidades en
el fenómeno estudiado y así poder sugerir una hipótesis. (Vargas-Mendoza:2006;17)
En este pasquín se plantea una unión entre la posición política de Josefina
Vázquez Mota (candidata presidencial en México 2012-2018) y el ex dictador de Chile Augusto José Ramón Pinochet Ugarte (1973 y 1990). Esta unión
presupone la similitud en características entre ambos actores políticos.
326
Deducción: Deducir es derivar consecuencias lógicas desde las premisas. La
conclusión es verdadera, dado que las premisas sean también verdaderas.
(Vargas-Mendoza:2006;18)
Si se sabe que Pinochet fue uno de los más grandes violadores de derechos
humanos. Rígido al mandar en un país por su antecedente militar. Al situar a
Josefina Vázquez Mota junto al se puede deducir que si ella llegara (pensando en ese momento) a la presidencia el proceso presidencial sería algo muy
familiar a el periodo del ex dictador chileno.
Inducción: Las proposiciones y las aserciones no están en el mismo nivel de
conocimiento. (Vargas-Mendoza:2006;19)
Se sabe que en la dictadura de Pinochet hubo acusaciones de violaciones
de los derechos humanos las cuales no fueron del todo esclarecidas. Se le
acuso de tortura y asesinatos, acciones ilegales e ilegitimas. La candidata
presidencial es conocida por su inclemencia para algunos asuntos legales
dentro de sus periodos como dirigente. Se le acuso de la coacción del voto a
mujeres pertenecientes al programa oportunidades (México). Se le acuso de
ser cómplice de los muertos durante el periodo presidencial de Felipe Calderón Hinojosa (2006-2012). En su paso en la SEDESOL (Secretaría de Desarrollo Social) fue culpada de algunas faltas en el tema de desarrollo social.
Resultado del análisis
• Tanto Augusto Pinochet como Josefina Vázquez representan a la derecha, o podría aseverarse ultraderecha. Pinochet por su parte, es el símbolo del fascismo en Latinoamérica. Josefina recordada en México por
robos y caros regalos a la iglesia, desvíos de recursos para poblaciones
de escasos recursos (población tarahumara) y la amenaza de continuar
con la guerra que el ex Presidente Calderón habría iniciado en 2006,
donde se contabilizan 47 mil 515 asesinados (Siempre: presidencia de
México, GÓNGORA, Genaro.), una cifra similar a la que reconoce Chile durante el periodo de Pinochet de mas de 40,000 muertos (El País, DÉLANO Manuel). Pero solo esto es lo que reconoce el gobierno, en ambos
(México-Chile) casos no se sabe a ciencia cierta cual es la cifra real.
Se presupone que a partir de este análisis la combinación de la imagen de
Pinochet con Josefina Vázquez, la forma de dirigir a un país de la candidata
por el PAN (Partido Acción Nacional) podría reflejar la manera de Augusto
Pinochet. Que de tal forma se obtendrán los mismos resultados o seria muy
parecido lo que pasaría en el país bajo su régimen.
327
Conclusiones
El pasquín político es un elemento actual, utilizado en el ciberespacio como
un elemento de comunicación “libre”. Es un elemento que puede ayudar o
ser un crítico (“enemigo”) de la política no democrática, porque, siempre
estará ahí para criticarla o para ayudar a su buen entendimiento. Es posible
llamar al meme neopasquín, porque la naturaleza de ambos es mimetizarse en el ambiente político-propagandístico, y en ambos casos es posible,
investigarlos, analizarlos para poder concebir, su influencia y crítica en los
resultados políticos donde intervienen. El neopasquín es el resultado de un
proceso de comunicación libre, y el proceso mediático que ha tenido como
centro la crítica a la política.
Respecto al análisis del pasquín, presentado para su crítica desde el diseño
y la semiótica, se tiene que, sin ahondar en su propuesta específica y particular, un pasquín puede ser analizado tanto en su propuesta gráfica como
discursiva. El mensaje presentado contiene todo un ejercicio de comunicación y éste puede generar una respuesta crítica por parte del receptor. En
el ciberespacio se pueden tener diferentes niveles de respuesta, puede ser,
desde, un simple “like” hasta un comentario y más aun compartirla entre los
demás usuarios de la red, para que cumpla su función de comunicación, su
folkcomunicación.
Referencias
[1] Arroyo Carlos M. (2008). Folkcomunicación: aportes para la reflexión de un campo en
crecimiento. REDALYC Numero 60. México
[2] Barranco S. Francisco J.(1994). Técnicas de Marketing Político. Red editorial Iberoamericana. México
[3] Carrillo C. Lucy. Thomas Hobbes y El concepto de estado constitucional de derecho.
Revista de estudios políticos. Nueva Época, Núm. 117. Julio-Septiembre 2002
[4] Cortés Morató Jordi. ¿Qué son los memes? Introducción general a la teoría de memes.
29/11/13 http://biblioweb.sindominio.net/memetica/memes.html
[5] Dawkins Richard (1993). El gen Egoísta: Las bases biológicas de nuestra conducta. Salvat. Barcelona
[6] El país revisado el 9/12/13 DÉLANO MANUEL http://elpais.com/diario/2011/08/20/internacional/1313791208_850215.html
[7] Holzmann I. Juan F (2012). Memes y caricaturas del movimiento estudiantil Chileno.
Santiago de Chile.
[8] Montero L. Francisco X.(2006) Los mercenarios de la imagen: Mercadotecnia vs Democracia. Siglo XXI. México.
[9] Ortega Félix (2011) La política mediatizada. Alianza editorial. Madrid España.
328
[10] Real Academia Española 26/11/13
http://buscon.rae.es/drae/srv/search?id=SEyrC9b4aDXX2UAXQVqJ
[11] Siempre presidencia de México revisado el 9/12/13 Góngora, Pimentel, Genaro David
http://www.siempre.com.mx/2012/01/los-muertos-de-la-guerra-de-calderon
[12] Vargas-Mendoza Jaime E. (2006), La filosofía de la ciencia de Charles Peirce: Lecturas
para un seminario, Asociación Oaxaqueña de Psicología A.C. México.
329
Lina Bo Bardi y su universo
subversiva y revolucionaria, vanguardista y crítica
Maricarmen Ramírez Hernández
División de Ciencias y Artes para el Diseño,
Universidad Autónoma Metropolitana
[email protected]
Resumen
A Lina en el centenario de su nacimiento 1914-2014. Las emociones se
apretujan en el estómago, la nítida luz se refleja en el verde esmeralda de
la vegetación. Ahí, al frente, se asoma cauta la geometría de su casa-hogar.
Inicia la aventura. Arquitecta, artista, diseñadora de muebles y modas, artesana, vanguardista, revolucionaria y critica, dueña de una personalidad
y mirada que arrasaron los prejuicios y los límites impuestos en una época
marcada por el fascismo. Por ello, cuando en 1946 pisa tierras brasileñas,
manifiesta, “Me sentí en un país inimaginable donde todo es posible”. Se
apasiona por la naturaleza tropical y por el pueblo brasileño, que a decir de
la misma Lina “No está contaminado por la soberbia y el dinero”. Este ejercicio tiene como único objetivo revelar a las nuevas generaciones la historia
de una arquitecta-revolucionaria que elige a Brasil como su país, en donde
actuará siempre bajo una actitud ética y comprometida, imbuida por los
principios de igualdad, justicia social y democracia. Empuña al arte como
arma en contra de la opresión y a la ciencia como su aliada, encaminando
sus pasos en la búsqueda de la completa libertad de creación. Transformando para siempre el paisaje cultural brasileño.
Palabras clave: Revolución, transformación, democracia, arquitectura y paisaje
Introducción
“Los que deberían haber sido años de sol,
de azul y de alegría, los pasé debajo de la tierra,
corriendo y descendiendo bajo bombas y metrallas”.
Aquilina Bo Bardi
Brasil es doblemente mi país, es mi “Patria por Elección”
Lina Bo Bardi
Es una mañana prodigiosa, un grupo de amigas viajan en un autobús que las
lleva de Campinas a Sao Paulo, el tiempo apremia, se abullonan en el sillón,
disfrutando anticipadamente del placer próximo a disfrutarse. Recorrer los
330
camellones, jardines y arquitectura de la Universidad de Sao Paulo (USP) ,
sus veredas pobladas de especies maravillosas y pequeños simios cabeza de
león… más tarde, la promesa de visitar la casa de Lina Bo Bardi, arquitecta,
artista, diseñadora de muebles, escenógrafa, editora e ilustradora, vanguardista y revolucionaria. Las emociones se apretujan en el estómago, la luz
es especial, un calorcito recorre la espalda, los olores despiertan memorias
ancestrales, la boca hace agua adivinando el placer del maracuyá, acaí o
cajú, la exuberante vegetación cubre la mirada de esmeralda, olores cálidos inundan el ambiente.
El recorrido de la USP a la casa de Lina es sorpresivo, la ciudad nos envuelve. Arquitectura en altura. Nos sorprenden los espacios reglamentarios
entre edificio y edificio, acostumbrados como estamos a enfrentarnos a una
ciudad de México donde los edificios se apretujan unos al lado de los otros
sin permitirse ni siquiera respirar, apenas una junta constructiva de 10 centímetros los separa, y resguarda de la indeseada proximidad, en Sao Paulo el
viento envuelve a los edificios.
El ritmo, la pulsión de Sao Paulo es avasallante, es una ciudad vital con una
vida intensa de día y noche. Sin embargo, la desigualdad está presente.
Periferias polarizadas hacen evidente que este lugar de jauja no puede sustraerse a la realidad de toda América Latina. La pobreza abraza a amplios
sectores de nuestras ciudades. Mis amigas conversan y yo logro sustraerme
por unos instantes. Mi mirada sobre Brasil se agudiza y no puedo evitar
preguntarme ¿Que percibió Lina, que se entregó a Brasil sin titubeos?
Nos aproximamos por fin a la “Casa de Vidrio” –hoy Instituto Lina Bo e P M
Bardi- hogar de Lina y Pietro María Bardi (su esposo). Una densa vegetación casi la cubre por completo, apenas adivinándola detrás de una espesa
cortina de árboles inmensos, enredaderas, cubrepisos y arbustos de la más
diversa variedad. La casa que se imbrica con la naturaleza establece una
respetuosa comunión con el contexto y confina el universo infinito de una
mujer ejemplar. Lina Humanista, arquitecta, artista, su historia está por develarse.
El lugar en que nacemos no es una elección. Si lo es aquel donde decidimos vivir.
Achillina Bo Bardi, nombre completo de Lina (su sobrenombre Achillina di
Enrico Bo) nace en Roma en 1914, en Prati di Castello, barrio que surgió
cuando la ciudad se transformó en capital de Italia. Cuando era pequeña
(Figura 1) iba a Bordighera en el límite con Francia, Niza y Cannes a visitar
a su abuelo materno quien vivía en Taliacozzo. Su abuelo era médico, vivía
331
en una casa antigua y muy bonita –comentaba Lina-. También gustaba de
ir a la playa en Ostia un puerto de Roma. En su juventud gustaba de acudir
a espectáculos de variedades, esto no era del gusto de su madre, pero tenía
un tío que era periodista, un gran cómplice, él era quien la llevaba a los espectáculos. Otra de sus pasiones era el cine, disfrutaba particularmente las
películas alemanas americanas y francesas, (Instituto Lina Bo e P.M. Bardi
2008).
Figura 1. La infancia de Lina y sus primeros años de escuela. Fuente: Instituto Lina Bo e
P.M. Bardi (Documento oficial).
Su formación es artística, estudia diseño en el Liceo Artístico y posteriormente en la Facultad de Arquitectura de la Universidad de Roma. Paradójicamente ella nunca quiso ser joven, ella “quería tener historia”. Sin embargo terminó aborreciendo la formación que recibió ya que se centraba
en la observación de monumentos antiguos. Descontenta con la formación
totalmente tradicionalista que impartían rechazaba esa orientación valorada
por el fascismo y decide trasladarse a Milán. A su llegada se vincula, e inicia
una etapa de trabajo con el líder del movimiento por la valoración de la
artesanía Italiana, quien además es arquitecto. Este encuentro será determinante en su vida.
A la par de su formación como arquitecta y artista, establece tempranamente
un profundo compromiso político colaborando con el Partido Comunista
Italiano. Como parte de sus actividades políticas se integra a la resistencia
en contra de la ocupación alemana. De manera que los que habrían de ser
años de juventud, alegría y producción profesional se tornan en años de
lucha clandestina (Figura 2). Definir a Lina obliga a una amplia gama de
adjetivos, humanista, brillante, inteligente, revolucionaria, critica.
332
Figura 2. Lina en Milán Italia, mayo de 1945, en un barrio popular construido durante el
fascismo. Fuente: Instituto Lina Bo e P.M. Bardi.
Finalmente termina la Segunda Guerra Mundial y Lina se casa con el historiador y crítico de arte Pietro María Bardi, y ambos deciden Viajar a Brasil, se
embarcan para cruzar el Atlántico (Figura 3), Lina Lleva en la Maleta un alud
de emociones y deseos, empieza una nueva etapa, la promesa de un nuevo
lugar, toda vez que avista desde el barco la ciudad de Olinda – Ciudad a
la que llega el barco en el que viajaron-, vientos renovadores sacuden su
melena, esboza una sonrisa esperanzadora, desembarcan y al pisar tierra la
escucho decir…“Me sentí en un país inimaginable donde todo es posible”,
ese lugar era Brasil, el lugar prometido.
Figura 3. Nápoles 1946 abandonando Italia. Fuente: Instituto Lina Bo e P.M. Bardi.
Arquitectura de dos mundos. O entre la metralla y la pasión
En este nuevo mundo (Figura 4) Lina encuentra el lugar propicio para crear
en libertad, a decir de Aniello Avella (2014) “La posibilidad de construir
333
un mundo nuevo para un pueblo nuevo (…) Hija de una tradición muy antigua, ella devora y es devorada por la arquitectura popular. En ese banquete
antropofágico la arquitectura convive y se mezcla con el diseño, la museología, la educación y la realización teatral y cinematográfica”. Se perfila así,
una creadora comprometida con la complejidad del proyecto, el contexto,
pero particularmente con los seres humanos que habitarán la arquitectura.
Figura 4. Olinda en Recife, primer encuentro de Lina con Brasil. Fuente: Instituto Lina Bo e
P.M. Bardi.
Su arquitectura estará influenciada por el viejo mundo en el que creció se
formó y al cual rechazó y el nuevo mundo que se ofrece complaciente, a su
apetito, Lina siempre pondrá de relieve los valores éticos y sociales del arte
heredados de su origen, bajo este código que estará presente en sus obras
se materializa su doble esencia Italia-Brasil, ella se encargará de depositar
en sus obras lo mejor del viejo y nuevo mundo, elige finalmente una vida
comprometida y se nacionaliza brasileña. “Cuando la gente nace –escribe
Lina- no escoge nada, nace por casualidad. Yo no nací aquí, escogí este
lugar para vivir. Por eso, el Brasil es doblemente mi patria, es la patria que
elegí…” (Aniello Avella 2014).
De la misma forma eligió trabajar para los más pobres, aunque eso no le
impidió realizar grandes obras, pero siempre obras que tuvieran un impacto
en la comunidad. Lina fue siempre cercana al pueblo, viajo por todo Brasil,
pero estableció profundos vínculos afectivos con una región especial…el
nordeste de Brasil, concretamente a Bahía en donde se vincula a grandes
personalidades tanto de Brasil como de Italia –ya que en ese momento otros
intelectuales importantes de Italia se dejaban seducir por la efervescencia
imperante en esta región del mundo. El golpe militar de 1964 la obliga a
regresar a São Paulo. (Enciclopedia Itaú de Artes Visuales)
334
De esta profunda experiencia asume los rasgos de lo que califica como
“arquitectura pobre”. Y podemos citar como ejemplos representativos de
esa etapa de su carrera los soportes museográficos de la exposición A Mão
do Povo Brasileiro [La Mano del Pueblo Brasileño], 1969, hechos con tablas
de pino de segunda calidad; el edificio del Sesc Pompéia, 1977, adaptación
de una antigua fábrica de tambores; el Teatro Oficina, 1984, construcción
que disuelve la rigidez de la relación escenario-asistencia por medio de la
creación de un teatro-pista, como un sambódromo. Después de esta fructífera e inspiradora etapa su vida queda marcada para siempre (Aniello Avella
2014).
“El legado de la temporada nordestina dejo incorporado para siempre
en su producción artística la forma de una radical experiencia de simplificación de lenguaje, la arquitectura pobre, como ella acostumbraba a decir, es un modo de devorar la cultura popular y conjugarla con
las soluciones más osadas de vanguardia. La aristocracia del pueblo,
expresión típica de la lengua de Lina, que recuerda el espíritu heroico
apuntado por Rosellini, es un concepto cuyo origen está en el pensamiento de Antonio Gramsci, el teórico del socialismo y fundador del
Partido Comunista Italiano, que muere por consecuencia de un largo
y duro presidio, impuesto por el régimen fascista”. ( Aniello Avella
2014)
Lina vivió así, sin concesiones, comprometida con las causas más justas.
Se definía así misma como comunista, sin embargo nunca se pliega a las
instituciones, y sostiene a lo largo de su vida una férrea lucha contra toda
forma de explotación y opresión. Lina fue a decir de Jorge Amado (citado
por Aniello Avella), “Una suerte de figura tutelar de las artes bahianas. La
dictadura militar, reaccionaria y oscurantista, la obligó a irse de Bahía”. Y
regresa a casa, Sao Paulo (Figura 5), a la avenida Paulista, a su casa de cristal
en Morumbi…
Figura 5. Dos de sus principales obras en San Paulo . El Centro Cultural de Pompéia y el
MASP, Museo de Arte de San Paulo. Fuente: Instituto Lina Bo e P.M. Bardi impresao oficial.
335
El banquete antropofágico de Lina
Ella devora y es devorada por la arquitectura popular, en un “banquete antropofágico”, sin precedentes. Tal parece que al engullir las costumbres, la
belleza, la cultura de las comunidades con las que trabajó pudieran transmutarla en la cosa misma, nutrirla, darle vida, largo y renovado aliento…
como cuando una madre a su hijo recién nacido dice: quisiera comerlo, en
un acto de profundo amor, ser en su hijo y ser para su hijo, su hijo en ella
y ella en él, los dos la misma esencia, la misma carne, la misma piel. Esta
visión permea para siempre su vida.
La antropofagia que surge como tema en la poesía se convirtió en el tema
central de la XXIV Bienal de Sao Paulo 1998 y adquiere vigencia. Antes
Lina de alguna manera abrazo y se nutrió de este banquete antropófago.
Este encontrarse en el otro, ser el otro, nace a mi parecer de la pasión que
Lina desarrollo desde su llegada a Brasil en 1946, por las artesanías y el arte
popular, y una genuina preocupación por entender e imbuirse en la cultura
brasileña, a través también, de su acuciosa capacidad de observación.
La observación antecede a la arquitectura
La sensibilidad de Lina Bo Bardi, su capacidad de conmoverse y su capacidad de observación acuciosa, ese agotar los pequeños detalles, los más
nimios, será en el tiempo un rasgo en su trabajo cotidiano. Como explica en
alguno de sus textos, es posible la reconstrucción de la historia de la civilización solo si estamos atentos a los pequeños cascos, restos y lascas, que
almacenaban en sus grietas y dobleces una vida de información. Su potente
narrativa espacial se equipara a su profunda lucidez al escribir, a su narrativa
en donde nos comparte su visión del mundo, su arquitectura, su pensamiento en torno a las artes, el diseño, la teoría de la arquitectura y por supuesto
la manera en que establece una estrecha relación con los seres humanos y
con la naturaleza.
Para Lina la arquitectura se mixtura con todos los diseños, así, en mayúsculas, museología, la educación, la realización teatral y cinematográfica, el
diseño de joyas y accesorios, escenografía entre algunos de sus intereses.
Su forma de vida sus obras y dibujos- diseños dan cuenta de ello. En la
casa de cristal, su casa en Morumbi, construyó una atmosfera especial en
cada rincón. Universos y narrativas infinitas nos sorprenden agazapadas en
su intimidad, cada resquicio, cada habitación en su morada constituyen
en sí mismos universos que nos narran paso a paso, los materiales, colores,
texturas, olores de los que ella se rodeaba a todas las escalas. El contexto.
La arquitectura. Los muebles. Los objetos. Los significados, simbolismo e
imaginarios que subyacen, en todas y cada una de sus obras.
336
Escribir y diseñar
Su obra es emblemática pero no prolifera, logró construir poco, sin embargo
sus edificios definen los paisajes paulistas. Paralelamente escribe intensamente, registra sus memorias, realiza ensayos críticos sobre su obra, se posiciona respecto a otros arquitectos, de igual manera realiza ensayos sobre la
historia de la arquitectura y realiza trabajo crítico sobre ello. Su creatividad
no conocía de límites, estaba en creación permanente. Lo mismo diseñando
un edificio para la cultura, que una pequeña casa en un pueblo distante, que
sus joyas o accesorios. Así mismo la escritura le apasionó y fue una tarea que
no abandonó nunca.
Las problemáticas que aborda en sus escritos son complejas, en el libro Lina
por escrito, textos escogidos de Lina Bo Bardi (2009) podemos encontrar:
A moradia nos bairros habitacionais em Roma, Arquitetura e natureza: a
casa na paisagem; disposição dos ambientes internos; Na Europa a casa do
Homem ruiu; Casa de Vilanova Artigas; Bela criança; Duas construções de
Oscar Niemeyer; Residência no Morumbi; Teoria e filosofia da arquitetura;
Cultura e não cultura; Arquitetura ou Arquitetura ; Inatualidade da cultura,
A escola e a vida; Casas ou museus?; A invasão O Arte industrial solo por
mencionar algunos de sus textos.
El dibujo-diseño en su narrativa
Lina escribe ensayos, panfletos, crítica y poesía pero también dibuja-diseña
desde temprana edad, lo mismo hace grabado, acuarela, oleo o muestra su
dominio en el diseño-dibujo. Poseía una imaginación vivida, algunos de sus
temas favoritos estaban vinculados con el mar, la naturaleza, las ciudades y
la arquitectura. Su universo creativo también estaba habitado por princesas
atrapadas en las rocas o sorprendidas por remolinos marinos, ya en sus primeros trabajos mostraba cierto domino con el manejo de la acuarela, una
de sus técnicas favoritas. Para los años veinte gustaba de representar escenas
de la cotidianidad, en ellas estaba presente el paisaje natural y urbano, así
como las relaciones humanas, las festividades y los personajes entrañables
de cada una de las ciudades y pueblos que pintaba.
En los años 30, desde mi punto de vista empieza a ahondar en los pequeños
detalles, en sus dibujos a lápiz y acuarelas es ostensible su acuciosa observación, y el estudio detallado, minucioso de los objetos, personas o plantas
que dibujaba. En sus trabajos a lápiz podemos encontrar algunos rostros
en los que pone un particular énfasis en el delineado del contorno y en los
ojos logrando gran expresividad. En lo que se refiere al dibujo de vegetación
también a lápiz, encontramos entre sus trabajos el estudio y composición
de pequeños arreglos de plantas o detalles de vegetación en los que pone
337
especial cuidado en el juego de sombras y los pliegues de las hojas. Percibo
sus trabajos de acuarela como meros estudios o exploraciones y divertimentos, sin embargo desarrolla una narrativa propia que la caracteriza y que más
tarde abonará y servirá de plataforma para sus obras más emblemáticas.
El trabajo final que Lina presenta para su graduación (escuela para madres
solteras 1939) pone de manifiesto el lenguaje arquitectónico que más tarde
la caracterizará. Así mismo el diseño de mobiliario que tanto la apasionaba
se muestra en algunas láminas elaboradas con acuarela, en ellas detalla, los
muebles, así como su funcionamiento, los accesorios e incluso la textura y
transparencia de las telas se insinúan en un trabajo de trazo seguro y claro.
En los cuarenta sus trabajos ilustran una de las revistas más importantes de
la época “Domus” dirigida por la misma Lina y Pagani, el diseño de modas,
de interiores y de mobiliario son temáticas incorporadas a la revista. Por la
misma época también participa en la revista “Estile”, “Belleza” “Cuaderni
di domus”, “Illustrazione Italiana” y “Grazia” dan cuenta del talento de la
mancuerna Lina-Pagani. También la revista “A” que aparece en 1946 fundada y dirigida por Lina, Bruno Zevi y Carlo Pagani. Para los años cuarenta,
sus diseños-dibujos alcanzan plenitud. El trazo de la línea, seguro, contundente. Escenas de interiores, rincones de la ciudad, mobiliario y objetos
caracterizan su narrativa. Es precisamente en el año 46 que su vida, sus
dibujos-diseños tendrán un giro sorprendente, sin perder nunca su esencia.
Su arquitectura es poesía y práctica científica.
Para Lina la arquitectura era estructura y forma un binomio insoslayable,
acompañado de un juego de espacios, luz y sombra, juego de composición
y exploración de escalas. Resuenan voces cercanas Italia- Brasil, italiano
y portugués. Mediterráneo y trópico. Fascismo y libertad creadora. Desde
luego ella elevaba la estructura al nivel de poesía. Logrando equilibrio entre el profundo conocimiento de los materiales, conjuntamente con una
exploración minuciosa de su potencial estético. Alcanzando en sus obras la
más grande manifestación de dignidad y plenitud.
Ana Carolina de Souza Bierrenbach en su artículo Entre textos y contextos
(www.vitruvius.com.br/revistas/.../arquitextos), nos muestra una visión muy
acertada acerca de la arquitectura de Lina. En este trabajo Ana Souza identifica dos caminos que nos aproximan a las concepciones de mundo generadas por la arquitectura de Lina. En el primero de ellos queda de manifiesto
como concibe y de qué manera participa el ser humano en su arquitectura,
y cita a Lina:
338
“Si fuera necesaria una definición de arquitectura (...) sería quizás la
de una aventura en la cual el hombre es llamado a participar como
actor, íntimamente; a definir la no gratuidad de la creación arquitectónica, su absoluta adherencia al útil, (...) pero no por esto menos ligada
al hombre “actor”; quizás esta pueda ser, siempre que sea necesaria,
una definición de arquitectura. Una aventura estrictamente ligada al
hombre, vivo y verdadero”. Lina Bo Bardi.
Queda claramente manifiesta la importancia que el hombre-ser humano
tiene como protagonista en su arquitectura. Y enfatiza al hombre vivo y
verdadero, el que vive, respira, recorre y se apropia de los espacios de sus
recovecos y pliegues, participando así de la experiencia de habitar. El segundo texto –enfatiza Ana Souza- Lina plantea su posición respecto al binomio
arquitectura-naturaleza y explora las diferencias entre. Arquitectura orgánica y arquitectura no organiza, nuevamente una cita de los textos de Lina que
aclara esta posición:
“Eligimos para este discurso el tema de la arquitectura y de la naturaleza, que podemos traducir, en términos estrictamente arquitectónicos
y críticos correspondientes a arquitectura orgánica y arquitectura no
orgánica, o arquitectura clásica y arquitectura romántica. (...) ¿Qué se
entiende por arquitectura orgánica, natural? Se entiende una arquitectura que no se limita a priori, una arquitectura “abierta” que acepta la
naturaleza, que se acomoda a ella, que busca mimetizarse con ella,
como un organismo vivo, una arquitectura que llega a asumir formas
de un mimetismo, como un lagarto sobre las piedras al sol. (...) ¿Qué
se entiende por arquitectura no natural, arquitectura que encuadra la
naturaleza sin formar parte de ella? Una arquitectura delicadamente
apoyada en la naturaleza, (...) una arquitectura que vigila la naturaleza pero que no le da confianza y puede estar tanto aquí como allá.
(...) La primera posición en íntimo contacto con la naturaleza y la
segunda suficiente en sí, separada de la naturaleza. (…) ¿Qué hay de
real en estas dos categorías? Existe realmente un compartimiento estanco orgánico-natural y racional-no-orgánico? (...)Cualquier obra de
arte valida es orgánica en cuanto responde a principios verdaderos,
naturales, orgánicos. (...) Ninguna obra valida huye de la ley de la
organicidad en tanto que es natural y no modificable por el hombre.
(...) La arquitectura orgánica fascina, pero en la no orgánica nosotros
sentimos una profecia: (…) el plano no existe en la naturaleza, pero el
hombre lo ha pensado y puede usarlo.” [3]
Podemos observar a través de este fragmento como Lina a lo largo de su
quehacer como arquitecta mantendrá siempre unidos en un binomio inseparable a la naturaleza y al hombre (Figura 6) . A través de algunas de sus obras
podemos observar con claridad cómo se mantiene fiel a este pensamiento.
339
Figura 6. Casa de Cristal en Morumbi, Sao Paulo, queda de manifiesto el respeto de Lina
por la naturaleza, esta casa la habito hasta su muerte. Fuente: Instituto Lina Bo e P.M. Bardi
documento oficial.
La arquitectura se materializa a través de la democratización del conocimiento
A manera de conclusión
Pensamiento: Lina desarrolló una visión-acción amplia e interdisciplinaria.
Su trabajo rebasó los campos del diseño, la arquitectura y el urbanismo.
Supo trascender y actuar con resiliencia después de vivir en Italia devastadoras experiencias provocadas por el fascismo. De manera que cuando
llega a Brasil en 1946 comprende como nadie la cultura brasileña desde
una mirada no solo antropológica sino compleja. Y une vanguardia estética
y tradición popular. Se concreta así un pensamiento que tuvo en su arribo a
Brasil “Me sentí en un país inimaginable, en donde todo era posible”.
Piedras contra brillantes: desde niña colecciono “cosas” piedras, conchitas,
y rocas de Abruzzi. Pedazos de fierro y toda suerte de pequeños objetos.
Colecciono también colores, el rosa fue siempre su preferido. En su adolescencia, absorta se detenía en una vitrina de Via Condotti, a admirar joyas
antiguas y camafeos, este hábito, marco su vida (imagen 7) y su profesión,
se detenía en los detalles. Por eso amo a Brasil con sus piedras maravillosas.
340
Arte y ciencia: Empuña al arte como arma en contra de la opresión y a la
ciencia -arquitectura y practica científica- como su aliada. Y encaminando
sus pasos en la búsqueda de la completa libertad de creación. Sus huellas
quedaron grabadas en la memoria y en la vida cotidiana, desde las más importantes ciudades como Sao Paulo hasta las más pequeñas comunidades,
allí su arquitectura vigila para asegurarles un futuro, sellado por la libertad,
democracia e igualdad.
Imagen 7. diseños de sombreros, y joyería de Lina Bo Bardi. Fuente: Instituto Lina Bo e P.M.
Bardi documento oficial.
Agradecimientos
En Lina me encontré. Gracias: Lina poesía. Lina ciencia. Lina coleccionista,
Lina puente. Lina interfase-interface. Lina pasión y razón. Lina escalera.
Lina casa de cristal. Lina artesana. Lina vanguardia. Lina mujer. Lina piedrasjoyas. Lina arte. Lina transparencias, Lina pasión y plenitud. Lina humana,
luchadora, revolucionaria, absoluta y plena.
Referencias
[1] Ana Carolina de Souza Bierrenbach. Entre textos y contextos, la arquitectura de Lina Bo
Bardi. Consultado el día 4 de julio de 2014. www.vitruvius.com.br/revistas/.../arquitextos
[2] Aniello Angelo Avellas, 2009
[3] Bardi L. (1999). Igreja Espírito Santo do Cerrado, Editorial Blau, Lisboa.
[4] Contribuição Propedêutica ao Ensino da Teoria da Arquitetura, Instituto Lina Bo e P.M.
Bardi. São Paulo. (1957).
341
[5] El arquitecto de dos mundos. Lina Bo Bardi, uma italiana construtora de Brasil. Consultado el dia 2 de julio de2014. www.revistaapuntes.uc.cl/letras/html/6_publicaciones/
pdf.../tl44_7.pdf
[6] Enciclopedia Itaú de Artes Visuales. Bardi, Lina Bo (1914 - 1992). Consultado el día 6 de
julio de 2014. www.itaucultural.org.br/.../enciclopedia
[7] Lina por escrito, Instituto Lina Bo e P.M. Bardi. São Paulo. (2009).
[8] Lina Bo Bardi, Instituto Lina Bo e P.M. Bardi. São Paulo (2008).
342
La creación e interpretación musicales de las mujeres en
las orquestas sinfónicas mexicanas
Artemisa Margarita Reyes Gallegos
Humanidades y Artes. Instituciones: Universidad Nacional Autónoma de
México / Instituto Politécnico Nacional
[email protected] / [email protected]
Resumen
La orquesta sinfónica goza de una importante tradición y desarrollo en el
ámbito de la música clásica. Para el desarrollo de su actividad son imprescindibles dos elementos: los músicos intérpretes y las obras de los compositores que conforman el repertorio de los conciertos. La actividad interpretativa se realiza por 80 a 100 músicos que ejecutan distintos instrumentos
musicales y un director que la preside. De esta organización musical, únicamente un reducido porcentaje lo constituyen las mujeres, del mismo modo,
la dirección orquestal femenina tiene poca presencia en la programación de
las temporadas en nuestras orquestas. En los últimos años, bajo el rubro de
políticas de “equidad de género” y con motivo de la celebración del “día
internacional de la mujer”, se preparan programas conformados con obras
de creación femenina, aun así no todavía no se logra la suficiente representatividad.
Este estudio expone un panorama actual de la presencia femenina en la actividad musical de las orquestas sinfónicas mexicanas.
Palabras clave: Música, orquesta sinfónica, mujeres, intérprete, directora de
orquesta, compositora.
Abstract
The Symphony Orchestra has an important tradition and development in the
field of classical music. For the development of its activity are essential two
elements: the musicians performers and the works of composers who shape
the repertoire of the concerts. The interpretative activity is carried out by 80
to 100 musicians who perform different musical instruments and a conductor, who presides over it. This ensemble only a small percentage are women,
in the same way, the orchestral female direction has little presence in the
performing of the musical seasons in our orchestras. In recent years, under
heading of “gender equity” policy and for the occasion of the celebration of
the “international women’s day”, have been presented symphonic programs
343
comprised works by female creation, but still it doesn’t achieve enough representation.
This paper presents an outlook about the female involvement in the current
context of the musical activities inside of the Mexican symphonic orchestras.
Key words: Music, symphonic orchestra, women, performer, woman conductor, woman composer
Introducción
La trayectoria que han recorrido los distintos ensambles de instrumentistas
para establecer su organización interna ha visto transcurrir varios siglos desde que se empezaron a conformar los primeros grupos que ya atendían a la
distribución de los instrumentos y su participación dentro del conjunto sonoro, cuya disposición se fue estabilizando y precisando hasta llegar a conformarse en lo que hoy reconocemos como orquesta sinfónica. Con varios
siglos de trayectoria, la presencia femenina en esta organización musical,
aun hoy, es exigua.
Sea como haya sido este desarrollo, una orquesta se integra por un conjunto de personalidades tanto individuales —dirección— como colectiva
—instrumentistas— con un fin común: ‘hacer sonar’ la música. Para ello se
requiere distribuir funciones con base en las características de las diferentes familias de instrumentos y la capacidad técnica de los ejecutantes con
jerarquías y responsabilidades acordes a dichas características. Asimismo,
para la creación de la materia prima, es decir, lo que se ha de “hacer sonar”
se requiere de la obra musical. Básicamente en la sinfónica interactúan tres
perspectivas para entender y ejercer el quehacer musical: la creación, la
dirección y la ejecución instrumental.
El acceso de la mujer a la educación y el desarrollo social y profesional
fueron de las importantes banderas enarboladas en los movimientos sociales
del siglo XX, reivindicando su derecho a la igualdad de oportunidades y la
‘equidad de género’, lo que incluye su integración en el mundo de la música
clásica.1
La presencia de la mujer en la actividad musical ha de estudiarse desde diferentes perspectivas, quizá los aspectos más determinantes en el desarrollo
de las carreras musicales femeninas han sido el matrimonio y la maternidad,
que de manera importante han determinado su inclusión laboral en general
y su aceptación en el campo musical profesional. No menos importante son
1 (GARCÍA GIL & PÉREZ COLODREDO, 2014, pág. 174); (QUEROL GUTIÉRREZ, 2014, pág. 242).
344
cuestiones como el desempeño y la evaluación de las audiciones de ingreso,
al respecto, afortunadamente en los últimos años se han extendido las audiciones a cortina cerrada, con lo que, según algunos estudios se ha incrementado su ingreso a las orquestas sinfónicas.1 Algunos otros aspectos a valorar
son los requisitos de permanencia, conveniencia de condiciones laborales,
las relaciones laborales con los compañeros, horarios hábiles, conciliación
familiar-laboral.2
De acuerdo con los datos publicados por el Instituto Nacional de Estadística y Geografía (INEGI) las mujeres constituyen el 37.88% de la población
económicamente activa ocupada, sin embargo, en la actividad sinfónica del
país, tan solo representan el 25%.3
Las mujeres en la actividad musical en México
Cuando indagamos sobre la aportación de las mujeres a la historia de la
música ‘culta’, ‘clásica’ o ‘académica’, encontramos escasas referencias. Si
bien es cierto que la práctica musical nunca ha sido ajena a las mujeres,
ejemplos de ello se encuentran a lo largo de la historia en todas las culturas,
su participación se ha privilegiado para el ámbito doméstico y el religioso.4
En el contexto occidental de los últimos siglos, los principales espacios de
actividad musical femenina eran:5
La familia aristócrata.- en cuyo seno la mujer aprendía, entre otras labores
domésticas, a interpretar algún instrumento musical
El convento.- uno de los pocos lugares donde la mujer podía desarrollarse
musical y/o intelectualmente
Las familias con tradición musical.- cuando se aprende la música en el seno
de la familia y se sigue la tradición si alguien de sus miembros ha sido músico
Los conservatorios de música se fundaron con el objetivo de formar músicos competentes en la ejecución del repertorio clásico, fueron opciones de
desarrollo educativo y profesional para las mujeres que les permitía desem1 Véase por ejemplo Orchestrating impartiality: the impact of “blind” auditions on female musicians (GOLDIN &
ROUSE, 1997).
2 (SETUAIN BELZUNEGUI, 2014, pág. 19).
3 (INEGI, 2014).
4 Un detallado estudio respecto a la actividad musical en las escoletas musicales de los colegios de niñas en la
Nueva España se encuentra en La música en las instituciones femeninas novohispanas (MURIEL & LLEIDÍAS, 2009).
5 (SOLER OCAMPO, 2011, págs. 50-51).
345
peñarse como profesoras, pero que en la mayoría de los casos era tomado
como afición: para ‘ornato y recreo’.1
En México, la actividad orquestal que de alguna manera precede a la orquesta sinfónica, inició en el siglo XIX; no es mucho lo que se ha dedicado
a su estudio y menos aún al estudio de su conformación y desempeño por
géneros, es decir, cuál y cómo ha sido la participación de hombres y de mujeres de manera cualitativa y cuantitativa. Esta situación permite advertir que
es éste un campo fértil para la investigación musicológica, que además nos
permitiría comprender la situación social, laboral y académica de nuestros
músicos y en particular de las mujeres que la integran.
La orquesta es la entidad sonora en la que la habilidad de tocar en ensamble, de escuchar e integrarse con todas las secciones instrumentales, de asumir en el momento indicado, la acción asignada en la partitura y de seguir
las instrucciones de la dirección para transitar entre las diferentes voces de
la orquestación; es una labor de disciplina y trabajo conjunto liderado por
el director para llegar a la interpretación de la obra que el compositor ha
creado. En este ámbito idealmente se trascienden las referencias de lo femenino y de lo masculino en pro de una concepción musical. En los siguientes
apartados veremos cuál es la situación en cuanto a la participación por géneros en los diferentes aspectos de la actividad en las orquestas sinfónicas
mexicanas.2
Presencia femenina en la bio-bliografía musical mexicana
Empecemos por revisar la representación femenina en algunas muestras de
bio-bibliografía musical mexicana de los siglos XX y XXI. La revisión de
ocho fuentes representativas,3 nos muestra la mínima inclusión femenina
en dichas ediciones, coincidentemente también solo la de Consuelo Carredano es de autoría femenina. En estas fuentes, de 618 apartados dedicados
a músicos, se les dedica escueta atención a 46 mujeres —entre las que figuran una santa: Cecilia y, una compositora francesa—, de todas, las más
populares gozan a como máximo de tres o dos menciones entre las fuentes
revisadas. (Tabla 1).
1 (GARCÍA GIL & PÉREZ COLODREDO, 2014, págs. 174-176)
2 Los datos con los que fueron elaborados los análisis aquí presentados se tomaron de las páginas web de
las orquestas. Si bien no siempre se encuentran actualizadas, son el referente ‘oficial’ publicado por dichos
organismos.
3 (GRIAL DE, 1965); (MONCADA GARCÍA, 1966); (ÁLVAREZ CORAL, 1980); (CARREDANO, 1994); (ORTA
VELÁZQUEZ, 1996); (SOTO MILLÁN, 1996); (SOTO MILLÁN, 1998) y (SACM).
346
Tabla 1. Mujeres músicas en la bio-bibliografía musical mexicana.
Mujer mencionada
Año de publicación
Especialidad
Menciones
Agudelo Y Murguía Graciela Josefina Eugenia
1945-
Compositora
3
Álvarez Lucía
1948-
Compositora y pianista
2
Anitúa Yáéz Fanny
1887-1968
Cantante
2
Granillo González Ma. Del Consuelo
1962-
Compositora
2
Grever María
1855-1951
Cantante y compositora
2
Guraieb Rosa
1931-2014
Compositora y pianista
2
Lara Ana
1959-
Compositora
2
Ortiz Gabriela
1964-
Compositora
2
Peralta Castera Ángela
1845-1883
Cantante
3
Rodríguez Ramírez Marcela
1951-
Compositora y guitarrista
3
Vázquez Lilia Margarita
1955-
Compositora y pianista
2
Villanueva Mariana
1964-
Compositora
2
Ahora bien, de la cuantificación de nombres que aparecen en las fuentes revisadas, en la Gráfica 1 se puede apreciar la marcada inclinación por resaltar
a los hombres músicos. En cuanto al porcentaje del total de las menciones
en todas estas fuentes, las mujeres representan tan solo el 9%. (Gráfica 2).
Gráfica 1. Bio-bibliografía musical mexicana
347
Gráfica 2. Mujeres y hombres en la bio-bibliografía musical mexicana.
La mujer en las orquestas sinfónicas mexicanas
Llegado este punto, oportuno es definir quiénes ‘hacen’ la música en la orquesta sinfónica. Una orquesta se integra con músicos que desempeñan diferentes actividades muy especializadas, cada una de estas figuras tiene sus
propias características; (Tabla 2) sin embargo, de manera general, cuando
nos referimos al músico de orquesta, la figura con mayor representatividad
es la del atrilista.
Tabla 2. Músicos en la orquesta sinfónica.
Creadores
Compositores Arreglistas
Atrilistas
Concertino / repetidor
Músico principal y co-principal
Músicos de fila
Músicos extra
Músicos suplentes
Solista(s)
Instrumentista
Cantante
Instrumentistas
Intérpretes
Directores
Titular
Asistente
Huésped
La dirección musical
Cuando la orquesta se complementó con más instrumentos y se agruparon
los instrumentos por familias, los ejecutantes configuraron un grupo cada
vez más numeroso; a su vez, el desarrollo de los instrumentos permitió una
escritura más compleja. Coordinar el ensamble requirió de mayor especialización. Como en tota actividad de conjunto en la que los participantes
son cada vez más numerosos y diversos, la orquesta requiere que todos sus
integrantes actúen de manera coordinada, precisa, disciplinada, hacia un
348
fin común: necesita para ello de un líder que determine la directriz de la
interpretación, función que desempeña el director, quien se convierte en el
intérprete de la idea del compositor plasmada en la partitura y líder de la
agrupación. La música involucra el liderazgo a varios niveles, el principal es
el del director, están además, a otro nivel, el del concertino y de los principales o jefes de sección.
La presencia de mujeres en la dirección musical sinfónica es un suceso relativamente nuevo, pues aunque el primer director profesional, en el sentido
que hoy lo tenemos, apareció a mediados del siglo XIX, tan solo hay unas
cuantas mujeres en el ámbito internacional dirigiendo orquestas; la mujer
subió al pódium hasta el siglo XX.1
La interpretación instrumental en el atril
En cada orquesta sinfónica confluyen diferentes particularidades instrumentales y personalidades, aun así se presentan generalidades. Ocurre que ciertos instrumentos son ejecutados principalmente por hombres, en tanto que
otros lo son mayoritariamente por mujeres. Al respecto se han elaborado
diversas argumentaciones, tales como: la forma y fuerza empleada en la
producción del sonido; el registro y su relación con el tamaño y el peso; el
prestigio de la familia instrumental asociado al origen y el desarrollo histórico y social de cada uno de ellos; el tipo de repertorio disponible.2 Al lado
de estos considerandos está la connotación de género que se ha dado a los
instrumentos musicales por lo que la tradición ha dispuesto que el arpa, por
ejemplo, sea un instrumento femenino, mientras que los alientos metal sean
propios para los hombres.
A continuación se desglosan algunos datos relativos a la conformación y distribución por sexo de los integrantes de 14 orquestas sinfónicas mexicanas,
ellas son: Filarmónica de Jalisco, Filarmónica de la UNAM, Filarmónica de
Querétaro, Filarmónica de Toluca, Sinfónica de la Universidad Autónoma de
Nuevo León, Sinfónica de la Universidad Autónoma del Estado de Hidalgo,
Sinfónica de Michoacán, Sinfónica de Minería, Sinfónica de Xalapa, Sinfónica del Estado de México, Sinfónica del Estado de Puebla, Sinfónica del IPN,
Sinfónica Nacional, Sinfónica Sinaloa de las Artes.3
En la revisión de las nóminas de las orquestas estudiadas se contabilizaron
1158 músicos en total, de los cuales 291 son mujeres y 867 son hombres,
por lo que las mujeres representan la cuarta parte de los instrumentistas.
1 (CHENG, 1998, pág. 82); (QUEROL GUTIÉRREZ, 2014, pág. 242).
2 (SETUAIN BELZUNEGUI, 2014, pág. 30).
3 Información obtenida de las páginas web oficiales de los orquestas, actualizada al 3 de septiembre de 2014.
349
(Gráfica 3). Si se hace el análisis por secciones instrumentales, se puede
apreciar con mayor detalle las diferencias en la distribución. (Gráfica 4)
Gráfica 3. Distribución del personal en las orquestas sinfónicas.
Gráfica 4. Distribución del personal por secciones Instrumentales.
Enfocando aun más el análisis, es decir, si se cuantifica la presencia masculina y femenina por instrumentos, es posible apreciar que la mayoría de las
mujeres se encuentra en el área de cuerdas, sustancialmente en los violines
(aunque tan solo significan la tercera parte de los concertinos); en orden descendente siguen las violas, los violonchelos y las flautas. (Gráfica 5) Respecto al arpa, en cifras absolutas se contabilizaron 12 mujeres, pero si se toma
en cuenta que su número en cada orquesta es de uno y excepcionalmente
de dos (y que frecuentemente no se cuenta con ninguno de base), entonces
el porcentaje de mujeres arpistas es del 80%, el más alto en todo el conjunto
–como dato complementario es oportuno mencionar que la primera mujer
mexicana que tocó en una orquesta sinfónica en el país fue la arpista Eustolia Guzmán;1 también en el piano hay una mayor proporción femenina.
1 (TAMAYO, TAMAYO, & (coords.), 2000, págs. 61-80).
350
Gráfica 5. Atrilistas en las orquestas sinfónicas mexicanas.
El caso de la orquesta de una institución académica
Su conformación por instrumentos
Para el presente estudio se tomó el caso de la Orquesta Sinfónica del Instituto Politécnico Nacional (OSIPN), agrupación con medio siglo de trayectoria
profesional. Precisamente esta orquesta tuvo de marzo 2009 a junio 2013
como directora artística a la Dra. Gabriela Díaz Alatriste, primera directora
mexicana asignada a la titularidad de una orquesta institucional en nuestro
país. La OSIPN está conformada por una plantilla de 80 músicos, de los
cuales el 20% son mujeres. Como se muestra en la Gráfica 6, las secciones
de metales y las de maderas (a excepción de las flautas) están integradas
únicamente por hombres. [17]
La presencia de solistas
El solista es un intérprete en la orquesta sinfónica, que no obstante su alto
desarrollo musical, es un invitado esporádico. Su participación depende del
repertorio que integra los programas, por lo que puede ocurrir que haya conciertos que no requieran de solistas. Una muestra de su actividad la hemos
obtenido de la revisión de la programación de la OSIPN. Entre 2009 y 2011,
las mujeres solistas representaron el 28.5%, 72% y 37.5% respectivamente,
del total de la programación con solistas. El desglose anual se muestra en la
Gráfica 7.
351
Gráfica 6. Participación por género de solistas en la OSIPN
Gráfica 7. Participación por género de solistas en la OSIPN
Autores de las obras musicales
A través de la historia se han producido composiciones de gran nivel realizadas por mujeres, que, no obstante, tienen una mínima inclusión en la programación de las orquestas. La representación de la composición femenina
en los conciertos sinfónicos es aun menor que la de la interpretación instrumental, la relación entre compositoras y nivel de desarrollo económico y
políticas de ‘equidad de género’ no es una proporción directa.1
En justificación de esa equidad, y con motivo de celebrar el ‘Día internacional de la mujer’ se programa un concierto en el que las obras son mayoritariamente de compositoras. Sin embargo, al ser únicamente un concierto
con estas características al año, no parece significar una ‘equidad’ real. En
la Gráfica 8 se muestra la comparación entre la programación de obras compuestas por hombres y por mujeres entre enero de 2009 y junio de 2014.
1 (RAMOS, 2010, pág. 10).
352
Gráfica 8. Compositores mexicanos en la programación de la OSIPN
Algunas reflexiones
En este análisis de la situación actual de las mujeres en las orquestas sinfónicas mexicanas, se destaca que si bien en México el porcentaje promedio
de las mujeres económicamente activas ocupadas es de casi 38%, en las
orquestas sinfónicas nacionales tan solo alcanza tan solo la cuarta parte del
total. En los últimos años ha habido una mayor promoción de la actividad
de las mujeres en la música, en su mayoría, impulsada por mujeres, o bien
como propaganda de políticas de inclusión y equidad de género, acciones
que, loables y valiosas, son aún insuficientes para lograr los objetivos que
enuncian.
Actualmente es posible encontrar algunos ejemplos de bibliografía y discografía sobre mujeres en la música: intérpretes, directoras, compositoras, musicólogas tanto estudios históricos como de la presente época, es así como
es posible reconocer exponentes en estos rubros musicales con obras y actividad del más alto mérito. Cada día son más las obras musicales de compositoras, programadas en conciertos sinfónicos y de cámara. Para lograr una
suficiente valoración de la obra y actividad de la mujer en la música todavía
habrá que impulsar acciones contundentes de difusión y promoción.
Referencias
[1] ÁLVAREZ CORAL, J. (1980). Compositores mexicanos. Biografíoas de 40 músicos desaparecidos (Sexta edición aumentada 1993 ed.). México: Edamex.
[2] ARBENA, J. (2014). Mujeres en la creación musical de México (review). From Latin American Music Review, Volume 24, Number 1, Spring/Summer 2003. (P.
Muse, Productor) Recuperado el 2 de septiembre de 2014, de http://muse.jhu.
edu/login?auth=0&type=summary&url=/journals/latin_american_music_review/
v024/24.1arbena.pdf
[3] CARREDANO, C. (1994). Ediciones Mexicanas de Música. Historia y catálogo. México:
CENIDIM - CONACULTA.
353
[4] CHENG, M.-h. (April de 1998). Women Conductors: Has the train left the station? (F. o.
Institute, Ed.) Harmony(6), 80-90.
[5] GARCÍA GIL, D., & PÉREZ COLODREDO, C. (março de 2014). Mujer y educación musical (Escuela, Conservatorio y Universidad): Dos historias de vida en la encrucijada del
siglo XX español. Dedica. Revista de Educação e Humanidades(6), 171-186.
[6] GOLDIN, C., & ROUSE, C. (1997). Orchestrating impartiality: the impact of “blind”
auditions on female musicians. NBER working paper series. Working paper 5903 (págs.
1-46). Cambridge: Labor Studies.
[7] GRIAL DE, H. (1965). Músicos mexicanos (5ª reimpresión 1973 ed.). México: Diana.
[8] INEGI. (13 de agosto de 2014). Ocupación y empleo. Indicadores de ocupación y empleo al segundo semestre de 2014. Recuperado el 2 de octubre de 2014, de Instituto
Nacional de Estadística y Geografía : http://www3.inegi.org.mx/Sistemas/temas/Default.
aspx?s=est&c=25433&t=1
[9] Las mujeres en la música. (8 de marzo de 2012). Zona FrancaMX.
[10]MONCADA GARCÍA, F. (1966). Pequeñas biografías de grandes músicos mexicanos (2ª
edición 1979 ed.). México: Framong.
[11]MURIEL, J., & LLEIDÍAS, L. (2009). La música en las instituciones femeninas novohispanas. México: UNAM, Instituto de Investigaciones Históricas; Universidad del Claustro de
Sor Juana.
[12]ORTA VELÁZQUEZ, G. (1996). 100 biografías en la historia de la música. México: Instituto Politécnico Nacional.
[13]QUEROL GUTIÉRREZ, C. (março de 2014). Las directoras de orquesta como ejemplo de
liderazgo femenino. Dedica. Revista de Educação e Humanidades(6), 233-248.
[14]RAMOS, P. (Enero-Junio de 2010). Luces y sombras en los estudios sobre las mujeres y
la música. Revista Musical Chilena(213. Año LXIV), 7-25.
[15]SACM. (s.f.). Sociedd de Autores y Compositores de México. Recuperado el 9 de septiembre de 2014, de Compositores. Música mexicana de concierto: http://www.sacm.
org.mx/mmc/redes-cont3.html
[16]SETUAIN BELZUNEGUI, M. (2014). El acceso de las mujeres a las orquestas en España.
En V. Pliego de Andrés, & R. C. Madrid (Ed.), La musa invisible. Actas de las jornadas
sobre música y mujeres 2013 (págs. 19-42). Madrid: Musicalis.
[17]SOLER OCAMPO, S. (diciembre de 2011). La situación de la mujer en el ámbito musical actual como docente, intérprete, compositora y directora de orquesta. Hekademos.
Revista Educativa Digital(10, año IV), 45-56.
[18]SOTO MILLÁN, E. (. (1996). Diccionario de compositores mexicanos de música de concierto. Siglo XX (Vols. I (A-H)). México: Sociedad de Autores y Compositores de Música,
Fondo de Cultura Económica.
[19]SOTO MILLÁN, E. (. (1998). Diccionario de compositores mexicanos de música de concierto. Siglo XX (Vols. II (I-Z)). México: Sociedad de Autores y Compositores de Música,
Fondo de Cultura Económica.
[20]TAMAYO, L., TAMAYO, S., & (coords.). (2000). El arpa, de la modernidad en México: sus
historias. México: UAM / Azcapotzalco.
354
La mujer y el diseño universal
Ana Laura González Rodríguez
Universidad Autónoma del Estado de México, Facultad de Arquitectura y
Diseño, Ciencias y artes para el Diseño
[email protected]
Resumen
La mujer actualmente ya no se conforma con ser madre y esposa, ahora se
preocupa también por tener una educación que le permita no solo tener
un lugar en el mundo laboral sino también aportar algo a la sociedad, al
alcanzar un mayor nivel cognitivo es capaz de distinguir problemáticas que
afectan el desarrollo de su propia familia y/o comunidad y tratar de crear un
cambio de conciencia.
Enfrentarse a una discapacidad, no es fácil, sea temporal o permanente, tampoco lo es el estigma que representa la mala denominación y entendimiento de esta condición, la sociedad actual vive un ritmo de vida demasiado
rápido, los que se quedan atrás difícilmente logran tener un lugar en ella,
las barreras arquitectónicas y urbanísticas de las ciudades acrecientan este
problema, la movilidad y la accesibilidad no son fáciles para la población,
aun cuando no se tengan discapacidades.
El Diseño Universal, también llamado diseño para todos o incluyente, se
ha convertido en una herramienta fundamental para que las personas que
tienen alguna discapacidad logren una independencia y autonomía en su
entorno, usado ampliamente en países europeos, en México lleva relativamente poco tiempo de ser empleado, y en el contexto de la ciudad de Toluca aún se enfrenta a graves barreras para su correcta aplicación.
Palabras Clave: barreras, peatón, Toluca, discapacidad, urbanismo.
Abstract
Women currently already is not content with being a mother and wife, is
now also concerned about having an education that allows you to not only
have a place in the world of work but also contribute something to society,
to achieve a higher cognitive level is able to distinguish problems that affect
the development of their own family or community and to try to create a shift
in consciousness.
355
Face a disability, it is not easy, either temporary or permanent, nor is the
stigma that represents the bad naming and understanding of this condition,
current society lives a too fast pace of life, those who are left behind hard
they manage to have a place in it, the architectural and urban barriers of
cities increase this problem, mobility and accessibility are not easy for the
population even when disabilities are not taken.
Universal design, also called design for all and inclusive, has become an
essential tool to make people who have disabilities to achieve independence
and autonomy in your environment, widely used in European countries, in
Mexico takes relatively little time be used, and in the context of the city of
Toluca is still facing serious barriers for its correct implementation.
Key words: barriers, pedestrian, Toluca, disability, urban planning.
Introducción
¿Por qué una mujer arquitecta se preocupa por el tema del diseño universal
y la discapacidad?
Como profesional: la arquitectura y el urbanismo conforman una especialidad, como disciplina enfocada al tema, es importante para las ciudades
actuales relacionarse con todos sus miembros, constantemente la población
urbana tiene nuevas necesidades y con ellas llegan nuevas formas de cubrirlas.
Como mujer: Tener un familiar que es ejemplo de ser una persona con discapacidad debido a una enfermedad degenerativa como es el Parkinson, la
cual ha provocado el deterioro de sus funciones motoras, esto le dificulta salir a la calle debido a la inestabilidad de sus movimientos, esta observación
se convirtió en inquietud al comprobar que, efectivamente, las calles de esta
ciudad, no están preparadas para que todas las personas las recorran y se
convierten en verdaderos obstáculos muchas veces insalvables, esta misma
inquietud es la que ha guiado mis pasos a través del proceso de hacer un
postgrado.
Esta exposición está dividida en dos partes:
La primera, se refiere a diferenciar los conceptos de persona con discapacidad y persona con capacidades diferentes, esto a razón de que actualmente
existe una confusión y creencia que el primer término es despectivo, peyorativo o discriminativo y que el segundo tiene una connotación positiva. La
segunda parte está enfocada a identificar que es el Diseño Universal con
una posterior contextualización a la ciudad de Toluca.
356
Persona con discapacidad vs persona con capacidad diferente
El concepto de discapacidad fue empleado hasta mediados del siglo XX y ha
evolucionado históricamente durante siglos, así como también los valores
que le han dado forma, los cuales han formado la apreciación parcial del
término formando una historia incompleta y por lo tanto estereotipos que
continúan hoy día.
Actualmente en la mayoría de los textos consultados, que hablan sobre aquel
o aquellos con alguna limitación física o mental se les denomina como persona con discapacidad, tanto en documentos internacionales, tal es el caso
de la ONU con la Convención sobre los derechos de las personas con Discapacidad y Protocolo Facultativo, o sus organismos UNESCO, OMS, entre
otros; así como organismos nacionales, como son el INEGI e IMSS y documentos como la Ley General para la Inclusión de las personas con discapacidad, es decir este término es el correcto y aceptado a nivel mundial.
La convención sobre los derechos de las personas con Discapacidad y Protocolo Facultativo menciona que la discapacidad es un concepto que evoluciona y que resulta de la interacción entre las personas con deficiencias y las
barreras debidas a la actitud y al entorno que evitan su participación plena
y efectiva en la sociedad, en igualdad de condiciones con las demás (ONU,
2006, pág. 2); las personas con discapacidad incluyen a aquellas que tengan
deficiencias físicas, mentales, intelectuales o sensoriales a largo plazo.
Así mismo a nivel nacional INEGI nos menciona que la concepción de discapacidad se ha transformado en las últimas décadas al dejar el enfoque
médico-biológico, en el que las enfermedades y/o las deficiencias corporales juegan un papel central, para logar una visión más integral y contextual,
donde la discapacidad es el resultado de la interacción de múltiples factores
tanto de orden médico-biológico como contextuales (las características del
entorno físico, social, cultural, personal, familiar, etc.).
En otras palabras, una persona con discapacidad no sólo es aquella que presenta una determinada deficiencia física o enfermedad, sino la que, dado un
estado de salud y las características del entorno (tanto físicas, como de actitudes) se ve afectada su capacidad para realizar sus actividades cotidianas.
“Para hacer referencia a la población con discapacidad se han usado términos como el de “impedidos”, “inválidos”, “minusválidos” o
“incapacitados”. Estas y otras expresiones han estado estrechamente
relacionadas con actitudes sociales y culturales; no obstante, parece existir el acuerdo de que estos términos no son los más afortunados para referirse a las personas con discapacidad. Demetrio Casado
357
(1990) plantea que adjetivos como los antes señalados, son calificativos sustantivados que, aunque pudieran parecer neutrales, presentan
por lo menos tres sesgos: son términos de significado negativo, que no
corresponden con las facultades y capacidades subsistentes en las personas con discapacidad; denotan perpetuidad sin conceder espacio a
la rehabilitación, además de ser identificaciones que sustituyen a la
persona por su circunstancia
La siguiente tabla sintetiza las perspectivas que se han conceptualizado sobre la discapacidad, llamados modelo médico y social y que son retomados
por INEGI.
Tabla 1. Diferencias entre modelo médico y modelo social de la discapacidad.
Modelo Médico
Modelo social
Visión
Problema causado por una enfermedad, trauma o estado de salud que requiere cuidados
médicos, en forma de tratamiento individual
Conjunto de condiciones creadas por el ambiente social.
Características
Adaptación de la persona al resto y cambio de
conducta por medio de la rehabilitación.
Inferioridad biológica o fisiológica de la
persona, que busca la normalización de la
persona
Las interpretaciones médicas han contribuido
históricamente a la construcción social de la
dependencia
Fracaso del entorno social para ajustarse a las
necesidades de las personas con carencias
Opresión social que se manifiesta en los entornos, la idealización de la inteligencia y la
competencia social
Responsabilidad colectiva para hacer las modificaciones ambientales necesarias que posibiliten y permitan alcanzar la participación plena
de las personas con discapacidad en todas las
áreas de la vida social
“Sin embargo, en nuestro país durante los años 2001 y 2002, el gobierno foxista acuñó un concepto: personas con capacidades diferentes. A través de los años, éste se ha difundido entre la ciudadanía,
autoridades y medios de comunicación de todo el país” (Alva RuizCabañas, 2010).
Personas con Capacidades Diferentes, Personas con Capacidades Especiales, Personas con Necesidades Especiales: Desde el principio de
igualdad propio a las personas humanas, no existen las capacidades
diferentes o necesidades especiales. Todos y todas tenemos las mismas
capacidades (potenciales, reales, en desarrollo) y necesidades (amar
y ser amados, comer, vestirse, tener salud, sobrevivir). Todas y todos
compartimos la misma esencia humana en igualdad.
Lo que nos diferencia no tiene que ver con nuestras capacidades o
necesidades esenciales y cuando no existen barreras en el entorno, se
pueden manifestar y satisfacerse en igualdad (Movimiento Congruencia)
358
Algunos ejemplos del significado de una capacidad diferente serían: un niño
de 2 años que por su estatura no es capaz de alcanzar objetos de una mesa,
las condiciones propias de su edad no se lo permiten, una mujer que es surda tiene la capacidad de escribir o manipular objetos con la mano izquierda
de una manera más sencilla que con la mano derecha, de igual manera una
persona invidente tiene la capacidad de leer o escribir en braille, sistema
que una persona vidente no puede siquiera comprender, una adolescente
sorda que es capaz de comunicarse con su familia o amistades por medio
del lenguaje de signos.
Estos ejemplos demuestran que todas las personas, presenten o no alguna
discapacidad, tienen capacidades distintas, que pueden ser aprendidas o
desarrolladas de acuerdo al contexto donde se desarrollen.
Este contexto muchas veces es el que permite que una persona con alguna
limitación física o mental se convierta en discapacitada fuera del mismo,
donde su zona de confort se encuentra amenazada al no poderse desenvolver libremente, dado que el diseño de esos espacios u objetos es incorrecto,
al no poderse usar por todas las personas, bajo esa idea es que se crea el
concepto de Diseño Universal.
Diseño Universal
Diseño Universal es un concepto creado por el arquitecto americano
Ron Mace, que consiste en la creación de productos y entornos diseñados de modo que sean utilizables por todas las personas en la mayor medida posible, sin necesidad de que se adapten o especialicen.
El objetivo del diseño universal es simplificar la vida de todas las personas, haciendo que los productos, las comunicaciones y el entorno
construido por el hombre sean más utilizables por la mayor cantidad
posible de personas con un costo nulo o mínimo. El diseño universal beneficia a personas de todas las edades y capacidades, es una
aproximación a la generación de entornos y productos que puedan
ser utilizados por el mayor número de personas posible. (Hernández
Galán, 2011, pág. 15)
Como variantes o sinónimos del diseño universal se encuentran el diseño
para todos, diseño incluyente o diseño accesible, todos se refieren a lo mismo, es el diseño que tiene en cuenta la diversidad humana, la inclusión social y la igualdad. “El Diseño para Todos tiene como objetivo principal hacer
posible que todas las personas dispongan de igualdad de oportunidades”
(Hernández Galán, 2011, pág. 16).
Así mismo se habla de accesibilidad refiriéndose a esa cualidad del
medio físico que permite acceder a él con seguridad, emplear sus
359
recursos, relacionarse y comunicarse con sus contenidos y con las
demás personas. No se trata de generar acciones específicas para personas con discapacidad sólo ante la necesidad de superar algún obstáculo específico, existente de antes. Ahora se habla de mejorar la calidad de vida, de manera general, global, en un ámbito más, como es
el de la accesibilidad, en el que está implicada toda la sociedad y en
todos los lugares: en los espacios naturales, en los municipios rurales,
en las grandes ciudades, en los medios de transporte, en la comunicación e información. (Hernández Galán, 2011, pág. 20)
Al tratarse de una metodología de diseño que se adapta al momento, el Diseño Universal contribuye a la prevención y la eliminación de obstáculos
para la integración, tanto psicológica como educativa o con respecto al ámbito familiar, cultural, social, profesional, urbano y arquitectónico. (Soren,
2010, pág. 12)
Según el Center for Universal Design de la Universidad de Carolina del Norte el diseño universal debe seguir los siguientes siete principios:
Equidad de uso: el diseño es útil y comercializable para personas con diversas capacidades.
• Dispone del mismo significado de uso para todos los usuarios: idéntico
siempre que sea posible y equivalente cuando no lo sea.
• No provoca segregación o estigmatización a ningún usuario.
• La provisión de privacidad y seguridad debería ser igual para todos los
usuarios.
• El diseño es atractivo para todos los usuarios.
Flexibilidad de uso: el diseño se adapta a un amplio rango de preferencias
individuales y capacidades.
• Permite escoger el método de uso.
• El acceso y uso se adapta a la mano derecha o izquierda.
• Se adapta a la precisión y exactitud de los usuarios.
• Se adapta al ritmo de los usuarios.
Simple e intuitivo: el diseño es fácil de entender independientemente de
la experiencia, conocimiento, nivel cultural o capacidad de concentración.
360
• Elimina la complejidad innecesaria.
• Cumple las expectativas y la intuición del usuario.
• Se adapta a un amplio rango de habilidades culturales y de lenguaje.
• La información está ordenada en función de su importancia.
• Genera avisos e información útil durante y después de finalizar la tarea.
Información perceptible: El diseño transmite la información necesaria de
forma eficaz para el usuario, independientemente de las condiciones ambientales o de sus capacidades sensoriales.
• Utiliza diferentes modos (táctil, sonoro, escrito, pictográfico) para presentar la información esencial.
• Dota de suficiente contraste entre la información esencial y el entorno
• Permite la compatibilidad entre los diferentes dispositivos y adaptaciones
utilizados por las personas con problemas sensoriales.
Tolerancia al error: el diseño minimiza el peligro y las consecuencias negativas producidas por acciones accidentales o no intencionadas.
• Ordena y distribuye los elementos de modo que se minimice el riesgo
y los errores. Los elementos más usados se dispondrán de forma más
accesible, los elementos peligrosos serán eliminados, aislados o protegidos.
• Facilita avisos de peligro o error.
• Facilita elementos de seguridad ante fallos.
• Disuade de la realización de acciones inconscientes en tareas que requieren atención.
Bajo esfuerzo físico: el diseño debe ser usado de forma cómoda y eficiente
con el mínimo esfuerzo.
• Debe permitir al usuario mantener una posición natural del cuerpo.
• Minimiza las acciones repetitivas.
• Minimiza los esfuerzos físicos continuados.
Espacio suficiente de aproximación y uso: dimensiones y espacio apropiadas para permitir el acercamiento, alcance, manipulación y uso independientemente de tamaño del cuerpo del usuario, su postura o movilidad.
361
• Facilita un amplio campo de visión de los elementos importantes para
cualquier usuario, independientemente de que esté asentado o de pie.
• Permite el alcance de todos los componentes de forma cómoda independientemente de la posición.
• Facilita el espacio adecuado para el uso de ayudas técnicas o de asistente
personal (Hernández Galán, 2011, págs. 17-19).
“Además de estos principios, también hay que prestar atención a las
diferentes etapas del proceso del Diseño Universal, sobre todo en lo
que se refiere a los proyectos nacionales o locales, que han de ser
resistentes, perdurables y de un coste mínimo” (Soren, 2010, pág. 14).
El contexto de Toluca
Los países europeos han realizado acciones continuamente para la integración y accesibilidad de todos sus habitantes a la vida común, pero en países
como México las leyes que apliquen los principios del diseño universal son
muy pocas, en el caso del estado de México se encuentra la Ley para la
protección, integración y desarrollo de las personas con Discapacidad, pero
este no es aplicado de manera integral, dado que la discriminación y exclusión aún es un gran problema, y especialmente en ciudades como Toluca,
con graves problemas a nivel urbano, donde la accesibilidad y movilidad
para el peatón con alguna limitación física es mínima.
1.
2.
Figura 1. Cambios bruscos de nivel en banquetas.
Figura 2. Banqueta rota.
Alexander Naime hace una breve y clara descripción de la situación que
atraviesa esta ciudad respecto a los derechos del peatón:
Toluca se ha ido haciendo desconocida para sus propios habitantes. Sus
constantes transformaciones, la falta de un sentido de convivencia, los propósitos compartidos de quienes viven en un mismo espacio físico, se han
362
ido diluyendo por la necesidad de sobrevivencia que las condiciones económicas han ido imponiendo.
Caminar por su calles se ha hecho una tarea casi heroica. Día a día, el
peatón, el hombre que camina por la calle, se enfrenta a situaciones
que constantemente lo excluyen de la vida de la ciudad.
El peatón sufre cada día más agresiones y la ciudad va confinando a
sus habitantes a espacios cada vez más reducidos. El caminar se ha
constituido en una tarea exclusiva para los más aptos, para aquellos
que tienen la habilidad de sortear infinidad de obstáculos. El peatón
de nuestra ciudad debe ser un hombre o mujer sano, con habilidad
para correr en cualquier momento con reflejos perfectamente coordinados que le permitan enfrentar cualquier eventualidad…
…Ser ciego en la ciudad significa estar condenado a una vida dependiente, a no tener derecho a disfrutar de un espacio de convivencia,
ni a escuchar las voces de otros o a sentir el sol en otros espacios que
no sean los propios. Andar en silla de ruedas expone a la compasión
y a la agresividad. La ciudad está proscrita para quien padezca de un
problema físico. (Naime, 2000, págs. 89-90)
3.
4.
Figura 3. Vehículo obstruyendo paso peatonal.
Figura 4. Vehículo estacionado sobre la banqueta.
Para efectos del presente trabajo de investigación sería imposible hablar de
los problemas urbanos que representa la ciudad de Toluca en su totalidad,
por esta razón el estudio se acota al área correspondiente a la colonia Morelos y específicamente a la calle de Horacio Zúñiga, en el tramo que comprende Sitio de Cuautla hasta Andrés Quintana Roo.
Haciendo un poco de historia, en los setentas, con el Prof. Carlos Hank
González (1970-1975), se implanta un programa masivo de construcción
de vivienda, creando para este fin los organismos: INFONAVIT, FOVISTE
y FIVIMI, el Gobierno Estatal del Estado de México crea el ISSEMYM, el
instituto AURIS (cuyo objetivo es regular la tenencia de tierra, urbanización
363
del suelo y la construcción de vivienda). En Toluca se autorizan 8 fraccionamientos: Valle Verde, Izcalli primera y segunda sección, Colonia Morelos,
Rancho Dolores, Salvador Sánchez Colín, Independencia Tercera sección y
Don Camilo, los cuales fueron de tipo popular.
Así, mediante un proceso lento de asimilación por imitación, la sociedad
se ha venido acostumbrando a vivir en una vivienda “moderna” (de actualidad), respetando esquemas funcionales y de organización similares a los de
otros países. En México sigue prevaleciendo los modelos anteriores; si acaso
un tanto adaptados con introducción de algunos equipamientos.
La era del Funcionalismo (1950-1989) marcó importantes cambios en la
ciudad de Toluca en cuanto a la vivienda, se nota más intención, en estos
periodos se construyen diferentes fraccionamientos, condominios y subdivisiones en donde las construcciones de tipo de interés social se dan en
mayor cantidad. Los conjuntos habitacionales que resaltan el pensamiento
arquitectónico del funcionalismo en Toluca son: Colonia Federal (1960), Benito Juárez (1965), Colonia Izcalli Toluca (1971), Colonia Granjas y Morelos
(1975).
Hablando específicamente de una de estas colonias funcionalistas, la Morelos, ya es mencionada en el bando municipal de 1973 como sector, incluyendo también Granjas y Federal teniendo las siguientes colindancias:
Al norte con Valentín Gómez Farías, entre Boulevard Xinantécatl y Andrés
Quintana Roo, continua por Quintana Roo en dirección sur hasta paseo Xinantécatl, en dirección poniente con el camino a Tlacotepec, en dirección
noroeste hasta cerrar con Paseo Xinantécatl, continuando por este hasta Valentín Gómez Farías.
Actualmente esta colonia esa habitada en su mayoría por adultos mayores
que por sus condiciones físicas y médicas se han convertido en una población sumamente sensible a padecer alguna discapacidad, a nivel urbano
el espacio público representa una grave barrera para su integración y desarrollo, tomando de ejemplo la calle de Horacio Zúñiga donde se ubican
algunos centros de reunión de adultos mayores como son el centro de Jubilados y Pensionados del Instituto de Seguridad Social del Estado de México
y Municipios (ISSEMYM), que ofrece talleres para los maestros jubilados,
además de incluir en sus instalaciones un área habitacional; y la Iglesia de
los Desamparados.
En esta misma calle pueden observarse diversas barreras que dificultan el
paso a toda clase de peatón donde se categorizan las siguientes:
364
•
•
•
•
•
•
•
•
•
•
•
•
Esquinas que no cuentan con rampas para sillas de ruedas
Rampas para silla de ruedas improvisadas y mal construidas
banqueta levantada por las raíces de los árboles
banqueta agrietada o botada,
postes de luz y señalizaciones que obstruyen el paso en las esquinas,
tapas de registro mal colocadas,
registros de Telmex obstaculizando el paso,
accesos vehiculares que obstruyen el libre paso a peatones,
arboles obstruyen el paso,
bolardos que minimizan el paso por las esquinas
comercios que obstruyen el paso por diversas causas
escalones localizados a la entrada de comercios
5.
6.
7.
8.
Figura 5. Bolardos en esquina y vehículo estacionado en franja peatonal.
Figura 7. Raíces levantadas, poste de luz y caseta telefónica obstruyendo el paso.
Figura 8. Rampa mal construida, pierde continuidad con la banqueta siguiente.
Figura 9. Banqueta agrietada y botada en distintos punto.
En esta calle como en tantas otras de esta ciudad es omitido el hecho que
sostenibilidad y accesibilidad confluyen al plantear la movilidad sin exclusión; “a menudo se olvida que el sistema primordial de movilidad es el
peatonal… La movilidad sostenible implica una mejora de la calidad de
vida urbana y la aplicación de criterios de sostenibilidad ambiental y social”
365
(Juncá Ubierna, 2011, pág. 166).
“La cadena de la movilidad accesible ha de garantizar recorridos e itinerarios accesibles que configuren mallas, lo más tupidas posible, que faciliten
el desenvolvimiento y uso de los espacios de uso público y el acceso a los
de uso privado en las diversas escalas de manzana, barrio, ciudad, área metropolitana, región y país” (Juncá Ubierna, 2011, pág. 168).
La inexistencia de esta cadena de movilidad en la calle de Horacio Zúñiga,
ejemplo de este trabajo, imposibilita el garantizar una igualdad de derechos,
de oportunidades y sensibilización hacia el peatón y sobre todo al que presenta alguna discapacidad.
Conclusiones
Mujer arquitecta: Ser mujer y arquitectura es formar parte un combo muy
especial, representa poder observar cosas tan simples, tan cotidianas, que
fácilmente son obviadas o pasan desapercibidas, de una manera diferente,
con una sensibilidad distinta, y saber que podemos representar un cambio,
porque esa es la naturaleza de la mujer, la entrega y dedicación que le damos a nuestra profesión, a nuestra vida y a nuestra familia es única.
Arquitectura y el urbanismo de las ciudades actuales, arquitectura universal:
Ciudades como Toluca que actualmente buscan una apertura al cambio de
mentalidad de sus habitantes, se enfrentan a dos problemas, por un lado,
una población peatonal abrumada e indefensa ante la pérdida del sentido de
seguridad en el espacio público, dado por calles y avenidas que no muestran
ningún tipo de cuidado y protección por parte de las autoridades, y por otro
la obsesión por diferenciar muy bien las fronteras del espacio público y el
espacio privado, pero sobre todo de quien es el usuario de cada uno.
Esa pérdida de control se ve reflejada directamente en la arquitectura y urbanismo de las ciudades actuales, que desesperadamente intentan adaptarse
al crecimiento desmedido de su población y de los vehículos automotores,
pero muy pobremente a las necesidades del peatón y sobre todo del peatón
con discapacidad, que es el más vulnerable, pero es el que debe aparentar
más fuerza.
Es por ello que el diseño universal es una herramienta básica para permitir
espacios y entornos accesibles para toda la población, evitando la discriminación y exclusión del peatón en espacios públicos y privados, al contrario
es incluido y tratado como igual, pero para que esto sea posible también
la mentalidad de la población debe cambiar, y ser también universal, per366
mitiendo ver a las personas por lo que pueden aportar y no por lo que no
pueden hacer.
Tema actual de la senectud y la discapacidad en términos generales: No se
puede negar la estrecha relación que existe entre las personas de la tercera
edad y la discapacidad, las condiciones mismas del envejecimiento provocan cambios en las capacidades físicas y sensoriales de los individuos, también es cierto que los avances científicos avanzan cada día más, permitiendo
que las personas vivan más tiempo y por lo tanto la población de adultos
mayores crece cada día más, sin embargo es importante hacer conciencia
que tener una discapacidad o ser un adulto mayor no es el fin del mundo y
quitar el estigma que representan estas palabras, la discapacidad no define
lo que una persona es, como tampoco lo es llegar a una cierta edad, son
simplemente condiciones a las que cualquier persona puede y debe enfrentar.
Soluciones: técnicas, humanas: Se puede pensar que realizar un proyecto
siguiendo los principios del diseño universal es algo fácil, existen reglamentos y manuales, que sirven de guía, hablan sobre medidas antropométricas
y ergonómicas, tamaño de circulaciones, porcentajes de desniveles para
rampas, tratamientos de pisos, entre otras cosas, pero no es tan fácil como
seguir un manual al pie de la letra, las técnicas a utilizar deben realizarse
siempre conociendo a la población que la va a utilizar, las condiciones
de cada ciudad, cada colonia y cada calle pueden ser muy diversas, estas
técnicas deben ayudarnos primeramente a valorar el contexto en el que se
desenvuelven los peatones con discapacidad, posteriormente definir técnicas de apoyo a la movilidad, orientación (visual y auditiva), accesibilidad a
los espacios y seguridad ante los vehículos y otros peatones.
Las reacciones que provoca la discapacidad se deben en gran medida al
desconocimiento y miedo que nos da el otro, aquel que esta postrado en
una silla de ruedas, no puede ver, oír o hacerse entender. Nadie está listo
para esa clase de pruebas, pero, ¿cómo verlo?, ¿cómo entenderlo y sobre
todo como apreciarlo?, romper las barreras arquitectónicas y urbanísticas
sería el primer paso, crear espacios públicos accesibles, donde todos sean
bienvenidos y aceptados, para que las diferencias desaparezcan y los puntos
de encuentro florezcan.
367
Referencias
[1] Alva Ruiz-Cabañas, J. (14 de Noviembre de 2010). el término correcto. El Universal.
[2] Bauman, Z. (2013). Miedo liquido. La sociedad contemporanea y sus temores. México
D.F.: Paidós.
[3] Hernández Galán, J. (2011). Introducción. En F. ONCE, Accesibilidad Universal y Diseño
para Todos. (pág. 269). Ediciones de Arquitectura.
[4] INEGI. (2004). Las personas con discapacidad en México: Una visión censal. Aguascalientes.
[5] INEGI. (2012). “Estadisticas a propósito del día internacional de las personas con discapacidad”.
[6] Juncá Ubierna, J. A. (2011). Diseño de Transporte accesible. En F. ONCE, Accesibilidad
Universal y Diseño para Todos. Arquitectura y Urbanismo. (pág. 267). Ediciones de Arquitectura.
[7] Naime, A. (2000). Ciudad invisible . Toluca: Instituto Mexiquence de Cultura.
[8] ONU. (2006). Convención sobre los derechos de las personas con Discapacidad y Protocolo Facultativo.
[9] Soren, G. (2010). Hacia una plena participación mediante el diseño universal. Madrid,
España.
368
Estudio de movilidad en personas con esclerosis múltiple
Erika Vanessa Coéllar Vázquez
Posgrado en Diseño. Ciencias y Artes para el Diseño. Universidad Autónoma Metropolitana - Azcapotzalco
[email protected]
Resumen
Este artículo presenta información relevante sobre el proyecto de investigación para pacientes con esclerosis múltiple. En la primera parte se habla
sobre los aspectos generales de la esclerosis múltiple (EM), tales como sus
principales síntomas. Posteriormente, se detalla el proyecto de investigación
que se llevó a cabo con un grupo compuesto por doce sujetos de estudio.
Los resultados presentados evalúan el rango de movilidad en diferentes articulaciones mediante el equipo y software ErgoMov/IBV de valoración articular del Instituto de Biomecánica de Valencia, España, el cual se encuentra
en el laboratorio de Ergonomía, en la Universidad Autónoma Metropolitana
- Azcapotzalco.
Palabras clave: esclerosis múltiple, biomecánica, ergomov.
Abstract
This paper presents the research project conducted with twelve patients with
multiple sclerosis. In the first part discusses the general aspects of the disease multiple sclerosis (MS), such as the main symptoms. Subsequently,
the research project was carried out with a group consisting of twelve study
subjects discussed. In these subjects their ranges of motion were evaluated
in different joints using the computer and ErgoMov / IBV valuation software
articular Institute of Biomechanics of Valencia, Spain, which is in the Ergonomics Laboratory at the Universidad Autonoma Metropolitana – Azcapotzalco.
Keywords: multiple sclerosis, biomechanics, ergomov.
Introducción
La presente investigación está enfocada a la enfermedad de esclerosis múltiple, sus características, así como, a la evolución en los pacientes. En el
Instituto de Biomecánica de Valencia en España, existe un programa de valoración articular, que evalúa la movilidad del paciente, midiendo rasgos de
diferentes articulaciones como el cuello, los hombros, los codos, las muñecas, la espalda, las caderas, las rodillas y los tobillos, básicamente.
369
En primera instancia, el artículo define las características de la enfermedad
y expone los principales síntomas. En el desarrollo del presente se describe
la metodología del proyecto de investigación, concerniente a la valoración
articular de doce pacientes con esclerosis múltiple, miembros de la asociación Unidos Combatiendo la Esclerosis Múltiple (UCEM), midiendo en ellos
sus mayores rangos en grados de movilidad.
La valoración se realizó en el laboratorio de Ergonomía en la Universidad
Autónoma Metropolitana – Azcapotzalco, uno de los requisitos para los participantes fue que asistieran con ropa cómoda como camiseta, shorts y tenis,
con el fin de colocarles electrogoniómetros, que son dos bloques terminales
unidos mediante un resorte, colocados sobre la piel.
¿Qué es la esclerosis múltiple?
La esclerosis múltiple es:
“un trastorno crónico del sistema nervioso central – formado por el encéfalo y la médula espinal – caracterizado por la pérdida de mielina.
Esta es una sustancia blanca que actúa como una vaina recubriendo
los nervios. Desde el momento que va desapareciendo comienzan a
producirse placas de tejido endurecido, proceso conocido como esclerosis.” (Carrón, 2013: 60).
En la esclerosis múltiple la pérdida de mielina es determinante en la capacidad motriz, visual y cognitiva, puesto que al irse perdiendo, se hace lento
el flujo de información que va desde cerebro a los músculos. “La mielina es
una estructura que cubre los axones y su función principal es dar velocidad
al impulso nervioso […]” (Cuevas, 2010: 2).
Los casos de esclerosis múltiple han incrementado, es actualmente “considerada como la causa de discapacidad neurológica más frecuente en el
adulto joven, después del traumatismo craneoencefálico.” (Cuevas, 2010:
XI). Esta enfermedad tiende a aparecer “entre el segundo y tercer decenios
de la vida, pero se han se han observado casos tanto en niños como en personas de la tercera edad.” (Cuevas, 2010: 4).
Las personas del sexo femenino se ven mayormente afectadas en una proporción tres a uno, en contraste con el sexo masculino. Aún en la actualidad
se desconoce su causa, pero se piensa que puede estar entre predisposición
genética y factores ambientales, por lo que si hubiera en la persona la susceptibilidad genética, se cree que pueden darse una serie de eventos alea370
torios en donde el cuerpo “falla en reconocer lo propio de lo ajeno, a esto se
le conoce como enfermedad autoinmunitaria.” (Cuevas, 2010: 4).
Los síntomas pueden variar de persona a persona dependiendo las áreas del
sistema nervioso central que hayan sido afectadas, pero los síntomas principales que pueden presentarse en una crisis son: pérdida del equilibrio, parálisis, ataxia (falta de coordinación), temblores, debilidad, hormigueo, problemas visuales, pérdida de fuerza o sensibilidad, problemas en la función
sexual, problemas de memoria a corto plazo, alteraciones urológicas,…”
(Carreón, 2013: 60).
Valoración del grupo de estudio con ErgoMov/IBV
El grupo de estudio del proyecto de investigación estuvo integrado por doce
pacientes con esclerosis múltiple, miembros de la asociación de Unidos
Combatiendo la Esclerosis Múltiple (UCEM). El grupo estuvo compuesto por
sujetos de ambos sexos, por nueve mujeres y tres hombres, en un rango de
edades de 10 a 45 años de edad, quienes tienen diferentes niveles de motricidad, lo que motivó a evaluarlos en sus rangos de movilidad.
Se determinó evaluar al grupo de estudio en su rango de movilidad a través
del equipo y software ErgoMov/IBV Evaluación articular, del Instituto de Biomecánica de Valencia en España. El programa fue desarrollado para registrar
ángulos en distintas articulaciones, medidos a través de electrogoniómetros,
permitiendo el registro dinámico de los ángulos al estar en movimiento el
sujeto de estudio.
Las funciones del programa son la monitorización o visualización en la pantalla de la computadora de los ángulos medidos en las articulaciones valoradas y la generación de gráficas temporales de medidas. El equipo ErgoMov
consta de los siguientes componentes: un ordenador de registro (computadora portátil); tarjeta de adquisición de datos DaqCard; unidad de visualización K800; unidad portátil K800; tres electrogoniómetros; así como, diversos
cables que facilitan la conexión entre los diferentes elementos del equipo y
finalmente el alimentador de la unidad K800.
ErgoMov cuenta con tres electrogoniómetros: un goniómetro de un solo eje,
el torsiómetro Q150 y dos goniómetros de dos ejes de la serie SG, que permiten la medición simultánea de ángulos en dos planos si así es necesario.
Los goniómetros de ErgoMov permiten la valoración de las articulaciones
de cuello, hombros, codos, muñecas, dedos de las manos, espalda, caderas,
rodillas y tobillos.
371
Figura 1. Componentes del equipo ErgoMov. Manual de usuario, pág. 2.2.
Figura 2. Conexión de los elementos. Manual de usuario, pág. 2.3.
Debido a la condición de los sujetos de estudio y el tiempo necesario para
evaluar todas las articulaciones antes mencionadas se decidió solamente
valorar la movilidad en espalda, caderas, rodillas y tobillos, debido a que
son las que principalmente se utilizan en la marcha. Todas las valoraciones
fueron llevadas a cabo en el laboratorio de Ergonomía, se les solicitó a los
participantes asistieran con ropa cómoda, como camiseta, shorts y tenis para
permitir la colocación de electrogoniómetros sobre la piel de los participantes.
Los tres electrogoniómetros se utilizaron con los objetivos antes descritos:
el torsiómetro Q150 que ayuda a valorar los movimientos en la espalda,
torsiones entre otros movimientos; dos electrogoniómetros: SG150 (largo),
el cual registra los canales 1 y 2, utilizado para valorar las articulaciones de
la caderas y rodillas; el electrogoniómetro corto SG65 por otra parte registra
los canales 3 y 4, empleado para valorar tobillos. Los electrogoniómetros
captan los ángulos articulares generando una tensión eléctrica.
372
La unidad portátil K800 permite la conexión de los electrogoniómetros que
registran en la computadora las ondas de movimiento realizadas por el sujeto al ejecutar diversos movimientos, produciéndose diferentes ondas que
pueden ser a través de cuatro canales. La tarjeta de adquisición de datos por
su parte, ayuda a obtener una lectura continua de los ángulos medidos y
convierte las señales eléctricas angulares a valores numéricos.
Al grupo de estudio se les realizaron cuarenta y dos valoraciones articulares,
algunas de ellas fueron las siguientes: flexiones laterales de tronco, flexión e
híper-extensión de tronco, circunducciones de tronco, torsiones de tronco,
extensión de cadera, híper-extensión de cadera, abducción de pierna, híperabducción de pierna y en la valoración de tobillos se valoraron la dorsi-flexión, plantar-flexión, aducción, abducción y circunducciones, entre otras.
Figura 3. Gráfica temporal de flexión lateral derecha de tronco. Usuario 3.
Figura 4. Gráfica temporal de flexión lateral derecha de tronco. Usuario 10.
373
Resultados
Finalmente, se obtuvieron 504 gráficas temporales por los 42 movimientos
de los doce sujetos de estudio, en las que se puede apreciar mayor o menor
definición en las ondas, lo que significa mayor o menor movilidad. En las
Figuras 3 y 4 por ejemplo, correspondientes a la flexión lateral derecha de
tronco, el sujeto de la Figura 3 tiene una movilidad limitada, calificándola
en 13.7 grados y el sujeto de la Figura 4 con 47.5 grados tiene mayor rango
de movilidad con respecto al sujeto anterior.
Estas valoraciones se hicieron con el objeto de conocer el estado actual en
el rango de movilidad de los sujetos de estudio como se observan los resultados de los 12 sujetos en la tabla de abajo, correspondientes a la flexión
lateral derecha de tronco. Por cuestiones de espacio no es posible presentar
las 42 tablas con todos los resultados obtenidos en las valoraciones.
Tabla 1. Elaboración propia a partir de los datos obtenidos. Resultados de los 12 sujetos de
estudio en flexión lateral de tronco.
Conclusiones
La capacidad motriz en una persona con esclerosis múltiple varía, es decir,
no influye directamente el tiempo que tenga diagnosticado, puede suceder
que una persona con diez años con la enfermedad tenga mayor movilidad
que otra que apenas tenga dos años con ella. La condición de salud en una
persona con esclerosis múltiple puede ser un tanto inestable, debido a varios
factores, uno tal vez a la incorrecta prescripción del medicamento correcto
por el médico neurólogo desde que es diagnosticado.
Otro factor, puede ser que no se cuente con el medicamento y se tenga que
cambiar a otro parecido que no tenga el mismo efecto que el anterior lo que
repercute en el sujeto en su capacidad motriz, principalmente en fuerza y en
equilibrio. Cabe señalar, que además del medicamente apropiado, es necesario que el paciente tenga una constante y apropiada rehabilitación física
que mantenga en movimiento constante todos o la mayoría de los músculos.
374
Referencias
[1] Carrón, J., Arza, J. (2013). Esclerosis múltiple: análisis de necesidades y calidad de vida
de los afectados y su entorno. Multiple Sclerosis: Needs analysis and qualitity of life of
affected people and their environment. Revista Española de Discapacidad I (2). 59-75.
[2] Cuevas, C. (2010). Esclerosis múltiple. Manual para médicos no neurólogos. Planeación
y Desarrollo Editorial, S.A. de C.V. México.
[3] Geiger, W. y Reich, D. (2012). Esclerosis múltiple: esperanza en la investigación. National Institute of Neurological Disorders and Stroke. Estados Unidos de América. Recuperado el 15 de enero de 2013 de: http://espanol.ninds.nih.gov/trastornos/esclerosis_multiple.htm#top
[4] IBV (2008). ErgoMov/IBV Manual del usuario. Versión 2.0.2. Instituto de Biomecánica
de Valencia, España.
[5] Izquierdo, M. (2008). Biomecánica y sus bases neuromusculares de la actividad física y
el deporte. Editorial Médica Panamericana. Buenos Aires, Madrid. Recuperado el 21 de
mayo de 2014 de: http://books.google.es/books?hl=es&lr=&id=F4I9092Up4wC&oi=fnd&pg=PA6&dq=biomecanica&ots=ZmtJhrlKCE&sig=cJ-cZohYoCnkAffK-RhZD93c7so#
v=onepage&q=biomecanica&f=false
[6] Lacote, M., Chevalier, A., Miranda, A., Bleton, J., Stevenin, P. (1984). Valoración de la
función muscular normal y patológica. Masson, S.A. España.
375
“La formación del diseñador industrial para
promover el diseño inclusivo”
Aideé Peña Martín, Omar Eduardo Sánchez Estrada
Centro Universario UAEM, Universidad Autónoma del Estado de México
[email protected]
Resumen
Muchas son las actividades que deben realizar los diseñadores industriales
para satisfacer las necesidades actuales; sin embargo es necesario destacar
el compromiso que la disciplina tiene con la sociedad, es por ello que los
docentes del programa educativo de Diseño Industrial del Centro Universitario Universidad Autónoma del Estado de México (UAEM) Valle de Chalco,
se han preocupado por determinar criterios y estrategias para desarrollar
proyectos de diseño que atiendan necesidades incluyentes, derivadas de diversas problemáticas que emergen en la sociedad. El objetivo principal es
potenciar los proyectos de diseño y su relación con el entorno. Por tal motivo la metodología desarrollada en el presente trabajo inició con un estudio
teórico-práctico de los componentes del problema, así como la aplicación
de una técnica para el análisis de problemas, además la aplicación de entrevistas y encuestas a estudiantes de quinto semestre de la licenciatura en
Diseño Industrial de la asignatura de diseño de mobiliario. En ese sentido
podemos decir que el diseño inclusivo hace referencia a la equidad, ya que
el diseñador tiene la oportunidad de atender de forma precisa la diversidad
cultural y el reconocimiento de las diferencias, esto le permite desarrollar
alternativas para resolver situaciones económicas, culturales y biológicas
que se presentan en un contexto determinado. Por lo anterior es necesario
sensibilizar a los estudiantes sobre las desventajas que afrontan las personas desde su diversidad y actividad cotidiana, identificando las necesidades
reales a través de un diseño integral e inclusivo, sin olvidar a las personas
discapacitadas en un contexto de usabilidad desfavorable.
Palabras Clave: Diseño Inclusivo, formación, estrategias
Abstract
There are many activities to be performed by industrial designers to meet
current needs; however it is necessary to highlight the commitment that the
discipline has with society, which is why teachers of Industrial Design of the
University Center UAEM Valle de Chalco educational program, have been
concerned with identifying criteria and strategies to develop design projects
that address inclusive needs stemming from various problems that emerge in
376
society. The main objective is to promote design projects and their relationship with the environment. For this reason the methodology developed in
this study began with a theoretical and practical study of the components of
the problem and the application of a technique for the analysis of problems,
and the application of interviews and surveys to students in fifth semester
Bachelor’s degree in Industrial Design furniture design course. In that sense
we can say that the inclusive design refers to equity, as the designer has the
opportunity to address precisely the cultural diversity and the recognition
of differences, this allows us to develop alternatives to solve economic, cultural and biological situations presented in a given context. Therefore it is
necessary to sensitize students about the disadvantages facing people from
their diversity and everyday activity, identifying real needs through a comprehensive and inclusive design, not to mention people with disabilities in
the context of unfavorable usability
Key Words: Inclusive Design, training, strategies, teaching and learning.
Introducción
En la actualidad la Universidad Autónoma del Estado de México afronta
desafíos como: el fortalecimiento de los valores, la atención de los derechos
humanos, el desarrollo de proyectos sustentables e igualmente una transformación de la educación a partir del estudio y análisis de problemas reales,
que permitan generar nuevos e innovadores modelos educativos para inferir
y aplicar el conocimiento asertivamente.
Ahora bien el diseño como principio básico está ligado estrechamente a
la solución de problemas actuales. Por consiguiente las necesidades que
surgen con el paso del tiempo están ligadas a situaciones emocionales y
psicológicas, las cuales aumentan la proporción del problema, por ello es
necesario diseñar a partir de estudios antropológicos, etnográficos, así como
antropométricos y ergonómicos para aumentar la calidad de vida de la sociedad.
Por lo anterior es necesario romper paradigmas dentro y fuera del aula, tanto los docentes como los estudiantes y de esta forma acelerar las diferentes
alternativas de solución. Cabe mencionar que los docentes ahora juegan
el papel de facilitadores y los estudiantes el de constructores de su propio
conocimiento, esto significa que se requiere experimentar con nuevos métodos de aprendizaje que den la posibilidad de promover el Diseño Inclusivo.
El docente debe reconocer cuando sea necesario el desarrollo de nuevas
competencias y de esta manera no sólo instruir sino educar a los estudiantes
para que busquen y seleccionen la información adecuada, además de pro377
mover su capacidad de análisis, síntesis y comparación de contenidos para
facilitar nuevos y mejorados ambientes que favorezcan la usabilidad por el
mayor número de personas.
El objetivo primordial del Diseño Inclusivo es incorporar a las personas con
necesidades especiales y específicas a las actividades diarias para simplificar
la realización de las tareas cotidianas mediante la construcción de productos y entornos más sencillos de usar con el mínimo esfuerzo, facilitándole la
vida a las personas de diferentes habilidades y edades. El Diseño Inclusivo
como herramienta para el proceso de enseñanza aprendizaje, habilita las
acciones hacia la tendencia mundial del diseño universal ayudando e impactando en los diferentes ámbitos y niveles educativos del diseño Industrial.
Desde este punto de vista el diseño se definiría como cualquier actividad
humana “que se oriente a la resolución planificadora y lógica de problemas
que admiten soluciones óptimas o satisfactorias” (Ledesma,1997).
Mace (1997) define al diseño Inclusivo como: “el diseño de productos y
entornos con el fin de que sean usables por el mayor número de personas
posibles, sin necesidad de adaptación o diseño especializado” El diseño inclusivo como paradigma del diseño, tiene propósitos claros como la producción de entornos con fácil acceso, capaces de albergar el mayor número
de personas sin importar su condición y sin tener que rediseñar o adaptar
lo ya construido de forma especial para alguien. De esta manera Muñoz
(2011) indica que se empieza a hablar del diseño sin barreras, con una
mirada holística que elimine en su totalidad el asistencialismo y que parta
de la diversidad humana, con todo lo que esto implica, permitiendo a cada
ser humano un goce pleno de su vida cotidiana, con entornos sencillos que
beneficien a todos en sus habilidades. El diseño inclusivo, no sólo se limita
al diseño caritativo o social, su principal reto es el desarrollo de técnicas
que permitan el desarrollo del capital humano y de productos provechosos
para un gran numero de personas que demandan equidad de circunstancias
y convivencia.
Es por esta razón que los diseñadores deben estar al nivel de las exigencias
que la sociedad demanda y prestar atención a situaciones de carencias, detectar problemáticas y proponer mejoras que logren la inclusión de la mayoría de los usuarios y con ello mejorar la calidad de vida de las personas
al favorecer la usabilidad de los diseños y evitar la discriminación de uso de
los productos a personas discapacitadas o que padezcan alguna limitación
por su edad, genero o nivel de capacidad física.
378
Metodología
Para realizar la promoción del diseño inclusivo se desarrolló una propuesta
de enseñanza aprendizaje a partir de criterios de diseño inclusivo, entrevistas, encuestas y la aplicación de una técnica de análisis de problemas, esto
permitió la sensibilización de los docentes y estudiantes acorde con las necesidades específicas que se presentaron en los diferentes casos de estudio.
El sentido de viabilidad de los proyectos es importante para promover la inclusión y garantizar la autonomía personal de los usuarios, evitar las limitaciones a partir de productos que se adapten a cualquier individuo y entorno
como sea posible, además de considerar verdaderamente sus necesidades
permite romper la tendencias del diseño exclusivo.
Para el desarrollo de estrategias de enseñanza aprendizaje se consideró la
generación y promoción de las culturas inclusivas apoyadas principalmente
en dos aspectos: reconocer las características de los usuarios y establecer
valores inclusivos, en donde se plantea el análisis de los entornos tantos
sociales, culturales y económicos, además de una evaluación sistemática de
los procesos de aprendizaje, con la intervención y dirección del profesorado
y los expertos en el desarrollo de los diseños. Las estrategias para fomentar
el diseño inclusivo se aplicaron en los estudiantes de quinto semestre de la
licenciatura, interesados en las unidades de aprendizaje como: teoría del
diseño y diseño de mobiliario, ya que estas asignaturas abordan significativamente la parte teórica, por otro lado se realizó un estudio detallado del
usuario y de esta manera los proyectos fueron encaminados a:
a) Promocionar la igualadad y equidad de uso.
b) Reestructurar los elementos básicos del mobiliario para atender la diversidad en factores de usabilidad.
c) Garantizar el uso del proyecto de diseño.
d) Desarrollar expectativas del profesorado sobre las posibilidades de todos los proyectos y su materialización.
Los conceptos descritos sustentan la educación inclusiva en el desarrollo
de las propuestas hacia el Diseño Inclusivo. Cabe señalar que dentro de
la estrategia para fomentar el diseño inclusivo se analizaron los conceptos
básicos del diseño universal y diseño para todos, además de realizar un análisis a partir de la técnica FODA, esto permitió detectar indicadores que favorecen el nivel de integración e inclusión en los requerimientos de diseño.
(Lazzari, 2012). A continuación se presenta la tabla con el análisis FODA
sobre el Diseño Inclusivo.
379
cc
Debilidades
Desarrollo de planes de mejora para que se concreten los diseños inclusivos y
la integración de la mayoría.
La falta de adecuación normativa
en los proyectos, dificultando la
aplicación del diseño universal.
Decretos y leyes sobre igualdad y violencia de género.
Implementación de unidades de aprendizaje como respuesta a necesidades
globales, de convivencia e interculturalidad.
Revisión y replanteamiento de los procesos formativos y seminarios de trabajo
para su integración en la práctica.
La escasa implementación de
proyectos globales a partir de la
estructura curricular. Como consecuencia los estudiantes difícilmente los estudiantes competencias
específicas para el diseño inclusivo
Proyectos de diseño que tienen en cuenta el enfoque de género en la atención
a la diversidad.
Baja exigencia para la habilitación
de proyectos de diseño para todos
por parte del docente hacia el discente.
Oportunidades
Amenazas
El reconocimiento de la diversidad como una tendencia global.
Bajas expectativas en los proyectos
inclusivos.
Desarrollo de metodologías para la implementación de diseños inclusivos.
Flexibilidad en la organización, articulación y desarrollo de proyectos inclusivos.
Recursos Humanos para el desarrollo de proyectos inclusivos.
Elaboración de planes de mejora por parte del Centro Universitario
Las Tic´s como paradigma en los talleres de diseño y los de materialización.
La escasa cultura de diseño inclusivo del profesorado para guiar hacia
un diseño universal.
El pensamiento de diseño exclusivo y las nuevas tendencias de
diseño.
Figura 1. Análisis FODA sobre el diseño Inclusivo.
Después de la obtención de criterios a partir de la técnica FODA y la revisión de los valores inclusivos en 28 proyectos de diseño de quinto semestre,
por parte de los docentes titulares de los talleres de diseño, se obtuvo lo
siguiente:
Figura 2. Gráfica que indica el porcentaje de igualdad, equidad y justicia aplicada en los
proyectos de diseño.
380
Como se puede observar en la gráfica la mayoría de los proyectos desarrollados atendieron la equidad, quedando con porcentajes menores la justicia
e igualdad; por consiguiente el principal reto del diseño de mobiliario es
lograr la integración de los requerimientos que promueven los valores inclusivos de la mayoría de la mayoría de los usuarios.
Resultados
Cabe destacar que después de haber realizado las encuestas y entrevistas
durante el desarrollo de los contenidos de la asignatura de mobiliario, los
estudiantes desarrollaron con mayor interés los requerimientos de uso para
el diseño de mobiliario y de esta forma se atendió la diversidad como un
requerimiento esencial. Los proyectos en su prefiguración se definieron a
partir de necesidades y situaciones reales, incluyendo el seguimiento de
algunas de las actividades esenciales de los usuarios primarios, con ello
se amplió la garantía de uso de los objetos de diseño y su materialización,
además se fortalecieron las prácticas, de producción y presentación de los
proyectos de diseño industrial, integrando los saberes del diseñador a través
de su trayectoria académica.
Figura 3. Tabla de porcentaje indicando la usabilidad de los conceptos básicos del diseño.
De esta forma los estudiantes indicaron que los conceptos como ergonomía
y antropometría son esenciales para el desarrollo de mobiliario y permiten
identificar las interacciones que se presentan en los diferentes intervalos de
uso de un objeto de diseño, aunado a ello fue posible mejorar las técnicas
de producción y los estudios necesarios para determinar los requerimientos
de función y ergonomía cognitiva al desarrollar los proyectos (Cañas ,2001).
381
Conclusiones
Los proyectos desarrollados en el curso promovieron diferentes metodologías para el diseño, enfocandose en las mejoras de métodos y procedimientos hacia el diseño inclusivo. Las experiencias en diversos escenarios así
como las acciones e interacciones del usuario en el diseño de mobiliario,
encaminaron a la comunidad estudiantil a comprender la importancia de la
inclusión de los entornos y de las personas en cualquier proyecto de diseño.
Además podemos afirmar que la teoría del diseño que fundamenta los proyectos, privilegia el cuidado y bienestar de las estructuras sociales, asimismo
de las personas y el ambiente en general.
A partir de los resultados obtenidos en los diferentes proyectos, se lograron
descubrir barreras y necesidades existentes, de igual manera aportar en el
desarrollo de las soluciones en cumplimiento de las directrices de la investigación. Es precisamente desde estos escenarios que el diseño inclusivo y la
participación activa de las personas en las soluciones de diseño industrial,
elevan a un nuevo nivel la tarea del diseñador a partir de los proyectos de
diseño socialmente responsable.
Referencias
[1] Alzate, M. C. M. (2011). El diseño inclusivo como mediador para la transformación social. Traza, 2(4).
[2] Cañas, J. J., & Waerns, Y. (2001).Ergonomía Cognitiva: Aspectos Psicológicos de la interacción de las personas con la tecnología de la información. Ed. Medica Panamericana.
[3] Lazzari, L., & Maesschalck, V. (2012). Control de gestión: una posible aplicación del
análisis FODA. Cuadernos del CIMBAGE, (5).
[4] Ledesma, M. V. (1997). Diseño gráfico, ¿un orden necesario? En Arfuch, L., Chaves,
N. y Ledesma, M. (1997) Diseño y comunicación. Teorías y enfoques críticos. Buenos
Aires:Editorial Paidós.
[5] Ledesma, J. (Ed.) (2008), La imagen social de las personas con discapacidad. Estudios en
Homenaje a José Julián Barriga Bravo, Madrid, Colección cermi.es, número 35, Ediciones Cinca/CERMI. Disponible en: http://www.cermi.es/esES/ColeccionesCermi/Cermi.
es/Lists/Coleccion/Attachments/60/Laimagensocialdelaspersonascondiscapacidad.pdf
Última consulta enero 28 de 2015.
[6] Mace, R. L., Connell, B., Jones, M., Mueller, J., Mullick, A., Ostroff, E., ... & Vanderheiden, G. (1997). Principles of universal design. last accessed March,24.
382
El Reuso del Agua Residual Tratada y Cambio Climático
Carmen Julia Navarro-Gómez1, Eduardo Florencio Herrera-Peraza2, Humberto Iván
Navarro-Gómez3, María Socorro Espino-Valdés1, Adán Pinales Munguía1,
Jorge Antonio Ortiz2 y Estela Montes Carmona4
Área de Investigación: Ciudades competitivas e inteligentes. Institución:
Universidad Autónoma de Chihuahua1, Centro de Investigación de Materiales Avanzados2, Universidad Autónoma de Chapingo3 y Universidad
Veracruzana4
[email protected]
Resumen
El cambio climático natural o inducido representa un gran riesgo para los
recursos hídricos. Según estimaciones de las organizaciones mundiales, el
50% de la población mundial vive bajo un estrés hídrico. Por lo que el reuso del agua en la actualidad es una política ampliamente aceptada, como
sustitución de agua de primer uso o como fuente para actividades que no
requieren la calidad de agua para consumo humano.
Sin embargo, es poco el análisis realizado del impacto del uso del agua residual tratada en las comunidades.
El objetivo de este trabajo fue determinar la existencia o no de impactos
negativos de esta acción, dada la complejidad y características de la calidad de agua residual tratada; el trabajo se centró en la transformación de
los compuestos nitrogenados inorgánicos como son: nitrógeno amoniacal
(NH3), nitritos, nitratos (NO3) y óxido nitroso. Abordar a este último, el cual
es gas de efecto invernadero permite una visión holística de los procesos de
estos compuestos analizados.
El impacto de esta política de reuso se evaluó con el monitoreo en un punto
de aplicación en la ciudad de Chihuahua, así como los análisis de muestras
de agua residual tratada y del gas emitido en dicho punto. Para la interpretación se utilizó modelos de estadísticos Multivariante, tanto de Análisis de
Varianza (ANOVAS) como de Análisis de Componentes Principales (ACP).
El resultado obtenido manifiesta emisiones de Óxido Nitroso (N2O) que pueden contribuir al efecto de cambio climático por el reuso de agua residual
tratada, sin embargo esta emisión puede ser mitigado o controlado con medidas simples durante el manejo y operación del reuso.
383
Palabras clave: Saneamiento, Cambio Climático, Óxido Nitroso, Nitratos,
Reuso del agua
Introducción
El cambio climático representa un gran riesgo para: los recursos hídricos,
la actividad económica y la estabilidad política. Según estimaciones de las
organizaciones mundiales, se dice que el 50% de la población mundial
vive bajo un estrés hídrico (Figura 1), aunado a que los recursos hídricos se
encuentran bajo una fuerte presión de población en aumento, así como a la
extracción excesiva y la creciente contaminación. Hoy en día, los problemas de agua siguen siendo grandes en muchas agendas nacionales, especialmente en las naciones en desarrollo.
Figura 1. Indicador del estrés hídrico a nivel mundial (Revenga et al, 2002).
El reuso es derivado del reemplazo del agua potable en actividades que no
requieren esta calidad, lo que permite disponer de mayor caudal o volumen para satisfacer la demanda creciente de agua potable. Estas acciones
cuentan con casos de aplicación por más de 20 años. Se puede citar como
ejemplos los de Dan, Israel y los de Arizona en Estados Unidos.
Sin embargo, los análisis que se han realizado al respecto, están relacionados con la estimación del valor económico que se recupera de esta práctica,
mediante el análisis de costo-beneficio, al satisfacer la demanda de agua
potable y no recurrir a nuevas fuentes.(Lluria, 2011).
La reutilización del agua no potable en sustitución de la potable se ha demostrado en regiones con escasez de agua por ser una fuente segura y una
de las soluciones más eficaces para el ahorro de la misma. El beneficio puede ser considerable, ya que el 30-70% de las extracciones de agua son para
el abastecimiento público (Bixio et al., 2005a)
384
Al obtener resultados satisfactorios en cuanto a la sustitución de agua de
primer uso por agua residual tratada, se priorizó mundialmente la necesidad
de potencializar la gran cantidad de agua residual tratada para la agricultura
y al uso municipal. (UNEP, 2002). Sin embargo, esto puede ser que provoque una recarga artificial no intencional, dada la característica de calidad
de agua, en la cual se tienen parámetros orgánicos e inorgánicos, los cuales
unos son degradables, otros transformables o acumulables.
El reuso de agua residual podría ser identificado como una actividad, cuya
política está destinada a la conservación y uso sostenible de la biodiversidad
y los ecosistemas que mejoren las opciones de adaptación y mitigación del
cambio climático, propuesto por el Intergubernamental Panel sobre el Cambio Climático (IPCC). En 1988 se estableció el Grupo Intergubernamental de
Expertos sobre el Cambio Climático, para evaluar la información científica,
técnica y socioeconómica que permitiera comprender al cambio climático
inducido por el ser humano, sus impactos potenciales y las opciones para la
mitigación y la adaptación. (IPCC, 2002) Por ello es importante abordar las
políticas públicas de manera holística, con la finalidad de anticipar de ser
posible la vulnerabilidad de los ecosistemas o en caso necesario medidas de
mitigación y adaptación.
La mayoría de los documentos referentes a las repercusiones del riego con
agua residual tratada (ART), sobre las propiedades del suelo y la movilidad
de sus componentes de calidad del agua, se basan en investigaciones cortas
y recientes con series incompletas de los datos. Los efectos a largo plazo del
riego con esta fuente están en incipiente evaluación.
Uno de los rubros que el IPCC indica como factor de cambio climático es el
efecto invernadero, que aunque se produce en forma natural, cuando parte
de la radiación solar que atraviesa la atmósfera, donde es absorbida por la
superficie terrestre, cambia su longitud de onda y se re-emite como radiación infrarroja, la que es absorbida en la tropósfera y devuelta a la tierra por
las nubes y en algunos gases, denominados genéricamente gases de efecto
invernadero (GEI).
La principal preocupación ambiental es que estos gases, aunque en condiciones naturales se encuentran en bajas concentraciones atmosféricas, poseen tiempos de persistencia en la atmósfera muy prolongados (Tabla 1) y
tienen un aporte antropogénico importante, lo que genera un escenario de
emisiones y potenciales efectos progresivos y acumulativos en el tiempo,
debido a la sinergia del poder de calentamiento de cada uno de ellos.
385
Tabla 1. Características de los principales GEI (Lara, 2003; IPCC, 2007).
El óxido nitroso generado como resultado de la quema de biomasa (detritos
vegetales, combustión del petróleo y volatilización desde suelos fertilizados), también deriva de la actividad microbiana en aguas residuales, suelos
y océanos, durante la degradación de la materia orgánica nitrogenada; y las
mayores fuentes proceden de la agricultura (Mackenzie et al., 1998; IPCC,
2002).
Lo trascendental de este gas, es que posee una capacidad calórica que equivale a 310-320 veces la del CO2 en un escenario de 100 años (IPCC, 1997).
Por otra parte, el IPCC considera que la degradación biológica de la materia
orgánica presente en las aguas servidas, constituye una de las numerosas
fuentes antropogénicas para estos GEI, independientemente si las aguas son
tratadas o no en una planta de tratamiento y más si son utilizadas para riego
de superficies.
Los objetivos de esta investigación fueron identificar, medir y cuantificar
los componentes nitrogenados inorgánicos presentes en la calidad del agua
residual tratada que pudieran derivar en la generación de óxido nitroso y así
contribuir a los GEI.
Materiales y Métodos
El alcance de la investigación se logró mediante la caracterización del sitio
experimental, equipamiento e instrumentación, con el fin de obtener las
variables que intervienen en la evaluación como parte del reuso del agua
residual tratada (ART). (Figura 2)
386
Figura 2. Caracterización de áreas verdes regadas con ART.
Para abordar el problema en particular, se buscó evaluar la relación de la
emisión del óxido nitroso con la profundidad del suelo; en la zona de raíces
(edáfica) y en la zona no saturada somera (vadosa). El modelo conceptual
de análisis, consideró las variables como: tipo de suelo, calidad del agua
de riego (pH, nitratos, nitritos, nitrógeno amoniacal, Solidos Disueltos Totales, Demanda Química de Oxigeno, DQO, entre otros), vegetación (zacate),
factores climáticos como: temperatura, humedad, precipitación, viento, etc.
En la Figura 3 se da el esquema de análisis.
Figura 3. Modelo conceptual para el análisis.
El proceso da inicio con el riego con ART e impacta en la cubierta vegetal;
donde se retiene el agua en el suelo por la acción de las raíces. Es en la
zona radicular o edáfica donde se producen reacciones bioquímicas que
transforman el nitrógeno amoniacal del ART; ahí las condiciones climáticas
387
pueden inducir o provocar la evapotranspiración y/o la emisión de gases a
la atmósfera con contenido nitrogenado como el óxido nitroso. Algunas de
las técnicas analíticas, el equipo utilizado, así como la normatividad que
aplica, se enlistan en la Tabla 2.
Tabla 2. Parámetros analizados en el agua de entrada y salida de los lisímetros.
Con respecto al óxido nitroso, se utilizó la técnica de cromatografía de gases
con detectores de captura de electrones e ionización de flama. Para lo cual
fue necesario determinar, el método de análisis adecuado en el cromatógrafo y la curva de calibración, con la que se cuantifico la concentración del
óxido nitroso (Accorsi et al, 2005)
Resultados y discusión
Basado en el diagrama general de análisis, se ubicaron captores de agua y
gas en diferentes puntos del sitio seleccionado. Los puntos de monitoreo del
agua fueron a una profundidad de un metro y las cámaras de captación de
gas colocadas en las zonas vadosa y radicular en el mismo punto durante
un año (2010).Para el análisis cuantitativo y temporal del comportamiento
de la emisión del óxido nitroso, se utilizó el software Excel y Minitab 15. En
la Figura 4 se aprecia el comportamiento de los resultados obtenidos para el
óxido nitroso en puntos de muestreo en las cámaras colocadas en las zonas
radiculares.
388
Figura 4. Resultados del análisis de óxido nitroso en zonas radiculares.
En la Figura 5 se aprecia el comportamiento de los resultados obtenidos para
el óxido nitroso en puntos de muestreo, en las cámaras colocadas en las
zonas vadosas.
Figura 5. Resultados del análisis de óxido nitroso en zonas vadosas.
La reacción hacia el óxido nitroso de los componentes nitrogenados inorgánicos presentes en el agua y/o del contenido de nitrógeno en el suelo,
depende del suministro de oxígeno o la saturación por agua en los espacios
de los poros vacíos del suelo, de la temperatura ambiente y del estado de
crecimiento del zacate. La combinación de estas condiciones permite la
acción de las bacterias aerobias. Se tiene un comportamiento en el tiempo
similar en los puntos, con tendencia al descenso hacia la temporada fría.
Hay dos picos que sobresalen en la tendencia de emisión del óxido nitroso,
estos corresponden a las mediciones de los días 13 y 30 de Agosto. Esos días
el zacate se encontraba floreando, después de tomar las muestras esos días,
se cortó la hierba y la cuantificación del óxido nitroso disminuyo drásticamente al día siguiente.
389
Las muestras obtenidas en la zona de la raíz tienen concentraciones más altas y mayores volúmenes de recolección en comparación con los obtenidos
a partir de la zona no saturada poco profunda.
Esto es significativo para considerar en cuantificación de la emisión de contaminación por fuente de área de este gas, tanto si esto se hace por medio
de la medición directa, o como en la actualidad mediante la estimación de
factores.
Los resultados obtenidos del óxido nitroso en el tiempo, nos permiten distinguir diferencias en las magnitudes de los valores de las concentraciones
originadas por: el tipo de suelo, la calidad de agua de riego y a los parámetros meteorológicos. Sin embargo, para saber si esta asociación es resultado
de que realmente existe la asociación indicada, o que esta asociación puede
ser debido al, por la presencia de sesgos en el experimento o la presencia
de variables de confusión.
Es necesario determinar si las diferencias observadas entre los resultados
de las muestras del óxido nitroso son al azar o, por el contrario, se pueden
atribuir a los tratamientos o criterios de clasificación (tipo de suelo y calidad
de agua de riego). Para lo cual se define si existe diferencia estadísticamente significativa entre los resultados. Por lo cual se procedió a transformar
los resultados obtenidos del modelo físico a un modelo estadístico que nos
cuantifique y de certeza de las conclusiones obtenidas.
El modelo estadístico es una expresión simbólica en forma de ecuación o representación vectorial, que se emplea en todos los diseños experimentales,
para indicar los diferentes factores que se asocian o inciden en la variable
de respuesta, así como determinar cuáles son las variables más importante o
influyentes en un fenómeno.
Hasta aquí está definida la influencia de las variables (calidad del agua, período de muestreo, tipo de suelo y profundidad de muestreo) en la variable
respuesta (cantidad de N2O); con la finalidad de incluir y determinar la influencia de las otras variables meteorológicas (humedad relativa, temperatura promedio diaria y viento), se procedió a realizar un Análisis Multivariante
que nos permitió cuantificar la relación y/o asociación entre las distintas
variables.
El procedimiento MLG (Modelo Lineal General) proporciona un análisis de
regresión y un ANOVA para una variable dependiente (óxido nitroso) mediante uno o más factores o variables (profundidad de suelo, tipo de suelo y
tipo de agua) que dividen la población en grupos
390
Se aplicó el MLG en el ANOVA, donde se procedió a determinar que el
valor de regresión del modelo de los datos observados (R-Sq = 50.71%) y el
valor de regresión del modelo de los datos ajustados (R-Sq (adj) = 48.83%),
siendo similares los valores de regresión en ambos modelos. En la Tabla 3 se
presentan los resultados del ANOVA.
Tabla 3. Resultados del ANOVA.
Del resultado de la tabla anterior se deduce que el factor principal que más
influye es el tipo de agua y el que menos influye es la profundidad del muestreo. Delas interacciones la que más influye es la combinación de tipo de
suelo con tipo de agua. El factor de tercer orden no produce influencia en
los cambios de la función de respuesta.
El modelo ANOVA es: Concentración de N2O = 23.713 +3.65*PS +
6.932*TS +17.689*TA
-5.421*TS*TA
Las diferencias significativas de las concentraciones de óxido nitroso entre
las medias de los grupos (por factores PS, TS y TA), fueron obtenidas con una
confiabilidad del 95%.Se muestran que existen diferencias estadísticamente
significativas tanto para el factor del tipo de suelo como para el factor del
tipo de agua. Sin embargo, como quedó definido que los suelos naturales
emiten óxido nitroso, el mayor factor para su incremento en magnitud es el
tipo de agua, que en el modelo ANOVA muestra la mayor magnitud
391
Conclusiones
Se puede establecer con certeza que existen emisiones de óxido nitroso
que se producen en las áreas verdes durante el verano y que los niveles más
altos se esperan durante la floración, estas emisiones se consideran en bajos
niveles de emisiones para representar un riesgo a la salud en forma directa;,
En particular, en los parques y jardines en Chihuahua por el mantenimiento
que se les da, (corte del césped en forma continua) no es común el fenómeno de floración en el zacate, también el efecto de la temperatura en la
producción del óxido nitroso, puede ser disminuido, mediante los horarios
de irrigación, como regar por la tarde, para disminuir las emisiones de óxido
nitroso por acción de las temperaturas diurnas.
La conclusión de que la emisión de óxido nitroso en el suelo de los parques
y jardines en Chihuahua es causada por múltiples variables, incluyendo la
textura del suelo, el clima y la calidad del agua.
La formación del óxido nitroso se produce durante las reacciones bioquímicas en el suelo, que resulta de las transformaciones microbianas de las
formas del nitrógeno en los suelos. El N2O es un intermedio en la desnitrificación (reducción de NO3 a N2) y se forma durante la nitrificación (oxidación de NH3 en NO3).
Aunque este es un hecho conocido, el objetivo de esta investigación fue
identificar, qué cantidad, dónde y cuándo es generado el óxido nitroso en el
suelo con cubierta vegetal (zacate) durante el riego con ART a la atmósfera;
además de emplear y modificar la técnica de cuantificación del gas en sitio.
Pues esta fase del ciclo del nitrógeno, en las investigaciones revisadas sólo
se encuentra a nivel conceptual o modelado, las mediciones en sitio se empiezan a realizar en los campos agrícolas fertilizadas por componentes nitrogenados inorgánicos, pero no en este tipo de coberturas de suelos regados con ART.
Referencias
[1] Revenga, C., V. Smakhtin, P. Döll, R. Tharme, J. Nackoney, Y. Kura, E. Bos, G; Bergkamp,
M. Marker and M. Florke. (2002). Overtapping the World’s Water: A Model Based Pilot
Analysis of Environmental Water Scarcity. Poster Presented at the World Summit on Sustainable Development.
[2] Lluria, M. (2011). Managed Aquifer Recharge for the Arizona Desert: The Development
ofLarge Surface Water Spreading Facilities, www.nwriusa.org/rechargesymposium2011.
htm
392
[3] Bixio, D. De heyder, H. Cikurel, M. Muston, V. Miska, D. Joksimovic, A.I. Schäfer, A. Ravazzini, A. Aharoni, D. Savic and C. Thoeye (2005a). Municipal wastewater reclamation:
where do we stand? An overview of treatment technology and management practice.
Water Science and Technology: Water Supply V 5 No 1 pp 77-85.
[4] United nations environment programme (UNEP) (2002) Water and wastewater reuse An
Environmentally Sound Approach for Sustainable Urban Water Management Division of
technology, industry and economics - international environmental technology centre.
http://www.unep.or.jp
[5] IPCC, (2002) Cambio climático y biodiversidad, Grupo Intergubernamental de Expertos
sobre el Cambio Climático. ISBN: 92-9169-104-7
[6] Lara Scarlette (2003) Estimación de Emisiones de Gases de Efecto Invernadero, Provenientes del Tratamiento de Aguas Servidas en la Región Metropolitana de Santiago de
Chile. Tesis para optar al Grado de Magister en Gestión y Planificación Ambiental Universidad de Chile.
[7] IPCC (2007) Climate Change Base de las Ciencias Físicas. Grupo Intergubernamental de
Expertos sobre el Cambio Climático. Informe del Grupo de Trabajo al cuarto Informe
[8] Mackenzie, J., J. Pesek, R. Bacon and A. Madiraju (1998). Comparison of public vs. Agricultural & Resource Economics Association, June 22, 1998, Ithaca, NY.
[9] IPCC Technical Paper IV (1997).Stabilization of Atmospheric Greenhouse Gases: Physical, Biological and Socio-economic Implications. JT Houghton, LG Meira Filho, DJ
Griggs and M Noguer (Eds). IPCC, Geneva, Switzerland. pp 41
[10] Accorsi, A., Morrone B., Batista G., and Saverio F. (2005) High-speed capillary gas
cromatography for determination of inhalation anesthetics. Journal Chromatography A,
1071, 81-84.
393
El Tercer Maestro: importancias de la estética, la organización,
la comunicación y la interacción en el entorno académico
Ana Jessica Ceballos Ortiz Revuelta, Sandra Lewis Gayol
Universidad Iberoamericana, Universidad Pedagógica Nacional
[email protected], [email protected]
Resumen
Para el Dr. Derek Cabrera1, una de las maneras más importantes en las que el
conocimiento cambia y evoluciona es mediante la relevancia cuyo concepto, en la teoría del conocimiento, se enfoca al pleno desarrollo del ser humano como individuo y ser social y por lo cual es esencial potenciar y fortalecer sus habilidades y capacidades cognitivas. En este estudio se pretende
analizar la importancia de la estética, la organización, la comunicación y la
interacción en el entorno académico así como conocer el efecto que tiene
el entorno en nuestros cinco sentidos y en nuestro cerebro. Tenemos como
objetivo reconocer y promover la facultad de potencializar el proceso de
aprendizaje en todos los niveles educativos basándonos en la relación de la
concepción estética, del estudiante y del espacio-ambiente.
Como veremos más adelante, el entorno físico tiene un impacto profundo
en el proceso de aprendizaje del estudiante y es considerado como el tercer
maestro por la pedagogía Reggiana. Esta filosofía, enfocada a la educación,
nace en un pueblo al norte de Italia llamado Reggio Emilia y se convierte
en un modelo educativo para la enseñanza de infantes así como una inspiración para las nuevas tendencias y corrientes educativas del siglo XX.
Esta propuesta nace en 1945 y propone al niño como el protagonista del
proceso educativo. Mediante ejemplos de experiencias educativas infantiles, profundizaremos en como el diseño y el uso del espacio dentro del aula
escolar promueve relaciones, comunicaciones y encuentros (Gandini, 1993)
y permiten desarrollar y enriquecer la sensibilidad, suscitando la creatividad
y el razonamiento. Al entablar diálogos entre diseñadores, arquitectos, pedagogos y maestros, se ofrece la posibilidad de crear espacios físicos que
promueven la experimentación, la exploración y el conocimiento para estudiantes de todas las edades.
Este trabajo de investigación está basado en la propuesta estética que el enfoque Reggio Emilia tiene sobre los ambientes y entornos educativos, siendo
1 Cabrera D., Colosi L. (2009). Thinking at every desk. Research Institute for Thinking in Education, NY.
394
una de las experiencias más innovadoras en el campo educativo a nivel
internacional. Esta propuesta habla de un orden y una belleza implícitos en
el diseño y organización del espacio, equipo y materiales en una escuela
(Lewin, 1995) y es en este contexto que la filosofía Reggiana llama tercer
maestro al espacio o aula de enseñanza-aprendizaje.
El efecto que producen los ambientes en el cerebro estimula el proceso
de aprendizaje de diversas maneras. Al comprender estímulos como la iluminación, el sonido, la armonía cromática, las fuerzas visuales y demás
sentidos involucrados, la fusión entre diseño y educación se convierte en
una herramienta fundamental para el proceso de enseñanza y aprendizaje.
El impacto del espacio-ambiente, desde el punto de vista psicoanalítico e
humanístico de Erickson, Rogers y Maslow, tiene efectos terapéuticos y de
gran importancia en el cerebro por lo cual, el objetivo de este trabajo es
también el de invitar a los lectores a profundizar e investigar más sobre la
propuesta educativa Reggiana así como analizar y describir el efecto que
produce el espacio-ambiente en los sentidos y en el mayor aprovechamiento
del proceso de aprendizaje a nivel cerebral.
Palabras clave: Reggio Emilia, aprendizaje, espacio-ambiente.
Reggio Emilia: Una experiencia educativa
Una ciudad rica en historia y en monumentos, Reggio Emilia se encuentra
en la zona septentrional de Italia, región de la Emilia Romana de ambientes
ricos en belleza y diversidad. Con sus 167,678 habitantes, Reggio Emilia es
una comunidad floreciente con una larga historia a sus espaldas. La experiencia educativa de Reggio Emilia es una historia que se extiende por más
de 40 años y que puede describirse como el experimento pedagógico de
toda una comunidad. Una de las razones básicas de la fuerza y longevidad
de Reggio es esa voluntad de atravesar los límites, impulsada por una curiosidad infinita y el deseo de abrir nuevas perspectivas. Los educadores de
éste ilustre lugar han extraído teorías y conceptos de diversas disciplinas y
han unido su trabajo a un análisis del mundo en un sentido amplio y a su
proceso de transformación permanente.
En las escuelas de Reggio Emilia, el ambiente físico tiene una relevancia primordial. A lo largo de muchas décadas han logrado trabajar conjuntamente
pedagogos y especialistas en arquitectura, arte, diseño, ciencias, literatura,
filosofía y comunicación visual para cultivar el sentido de la estética a través
del ambiente de aprendizaje.
395
El espacio físico o el entorno, debe invitar a la creatividad y promover el
desarrollo de estrategias y habilidades para el aprendizaje. También debe
enmarcar el aspecto social y cultural de cada lugar. Los ambientes deben ser
espacios vivos, donde se invita al diálogo y a la comunicación permitiendo
la construcción de relaciones sociales además de los procesos cognitivos2.
Durante el proceso de remodelación de la Escuela Diana, una de las escuelas del municipio de Reggio Emilia, se hizo un estudio enfocándose en tres
puntos específicos:
1. Cómo se mueven los niños de diferentes edades en los espacios y para
qué los usan. Qué tipo de relaciones construyen en situaciones donde
ellos se organizan de manera autónoma como lo es el ambiente escolar.
2. Cómo perciben y representan los alumnos el espacio de la escuela (interior y exterior) usando diferentes medios gráficos y plásticos.
3. Cómo utilizan los niños los canales sensoriales para establecer contacto
con la realidad y desarrollar su proceso cognitivo.
Vea Vecchi, atelierista o artista plástica de la escuela Diana desde 1970,
hace referencias y comentarios a las observaciones e información recaudadas de dicho estudio que considera interesantes para pedagogos, diseñadores y arquitectos.
Lo primero que se encontró, dice Vea Vecchi, fue la necesidad que demostraron los niños por establecer conexiones sociales entre ellos. Para estos
intercambios sociales los niños escogieron lugares aislados y alejados que
les permitía organizar sus juegos.
Lo segundo que se encontró, fue una fuerte atracción hacia la narrativa. De
una u otra forma, los niños aman contar historias y proyectarse en mundos
imaginarios. Para este tipo de juego, los alumnos escogieron áreas abiertas y
grandes que les permitieron intercambiar sus historias y actuar sus aventuras
por medio de movimientos corporales y físicos. También utilizaron materiales suaves como tapetes y objetos acolchonados, para los movimientos de
impacto como saltar y brincar.
Las observaciones de este estudio también mencionan la importancia que
tiene el papel del piso o suelo. Los niños se arrastran, acurrucan, brincan y
exploran dependiendo del material de construcción de cada piso. La madera invita a resbalar, a bailar, a extenderse. Los objetos acolchonados a
rebotar, brincar y retozar. El concreto y las losas a correr, caminar, investigar.
2 Vecchi, V (2010) Art and creativity in Reggio Emilia.Routled, London.
396
Otro aspecto importante que menciona Vecchi es no olvidar que en toda
aula o salón de clase debe de incluirse un espacio que ayude al relajamiento y al descanso: un lugar con una iluminación natural y suave y un mobiliario que invite al descanso y a recargar la energía.
Una conclusión a la que llega Vea Vecchi es que los niños son nómadas de
la imaginación y grandes manipuladores del espacio. Por lo tanto, cuando
diseñamos o construimos espacios para el aprendizaje, tenemos que tener
en cuenta que los niños no utilizan el espacio estrictamente para lo que se
creó. No sólo brincan en espacios diseñados para ejercicio. Construyen,
inventan y se mueven. Aprenden tanto en lugares aislados como en áreas
abiertas.
Los ambientes físicos
La percepción sensorial del ambiente es un factor importante y decisivo
en la construcción y planeación de espacios para el aprendizaje en todos
los niveles. Ambientes físicos que reduzcan los niveles de distracción, que
promuevan áreas que disminuyan los estímulos, que ofrezcan una iluminación natural, una ventilación adecuada que evite la toxicidad del aire y la
incomodidad del estudiante y que impacten favorablemente la motivación,
el aprendizaje y el éxito de los estudiantes son hoy en día una necesidad que
emerge paralelamente a la concientización de todos aquellos involucrados
en el proceso educativo, sean maestros, arquitectos, ingenieros o diseñadores.
Estudios neurobiológicos confirman que para obtener un adecuado desarrollo, nuestro cerebro necesita estar expuesto a experiencias que estimulen los
sentidos3 ya que por medio de los sentidos recibimos información que nos
relaciona con el medio ambiente. La memoria trabaja con estos estímulos a
través de las experiencias que pueda generar nuestro entorno. Lograr diseñar
un espacio donde no sólo exista un equilibrio sino se ejerciten y estimulen el
sentido auditivo, gusto, olfato, vista y tacto, nos va a permitir entrar en una
sintonía y diálogo directo con el aprendizaje significativo; un aprendizaje
que se llevará a cabo en un espacio dónde la información y las experiencias
de aprendizaje construirán imágenes permanentes y reales. Más adelante,
en los sentidos y el aprendizaje, analizaremos más a fondo el impacto del
espacio-ambiente en cada uno de los sentidos así como en el desarrollo
cognitivo.
Ciertamente, los espacios para el aprendizaje deben de prestar mejor atención a nuestras habilidades biológicas para que nuestro cerebro se desarrolle
3 Goleman, D. (2000) Working with Emotional Intelligence. Random House Publishing Group. New York, N.Y.
397
y crezca mejor. La luz, artificial y natural, el color, los olores, el micro-clima,
las texturas y los sabores, son elementos indispensables a considerar cuando
pensemos en procesos para almacenar y procesar información.
Los muebles y los materiales también tienen que pertenecer a éste orden
estético ya que sirven como instrumentos para la representación, expresión
y comunicación de los procesos de aprendizaje. Los materiales deben exhibirse de tal forma que se promueva la exploración, la indagación y la
experimentación. Los muebles deben de situarse en lugares que permitan el
acceso a la circulación, que inviten a generar conversaciones y a crear conexiones sociales. Deben de tener como prioridad presentarnos un lugar cómodo y agradable, un lugar en el que podríamos vivir además de aprender.41
Para la filosofía Reggiana, los educandos tienen el derecho a desarrollarse y
crecer en espacios bellos y agradables, donde la armonía y la estética convivan como componentes fundamentales para los procesos de aprendizaje
y el desarrollo social. El ambiente debe de potencializar las habilidades de
auto-organización y estrategias personales que cada uno posee, enriqueciéndose con los procesos y metodologías didácticas. Estos derechos pertenecen a estudiantes de todas las edades ya que el objetivo es el mismo: el
desarrollo, el crecimiento y el aprendizaje.
Los sentidos y el aprendizaje
Al ser el contacto que todo ser humano tiene con el mundo exterior, los sentidos son de suma importancia en todos los procesos cognitivos. Mediante
los sentidos, se capta la información y se logra la adquisición de conocimiento. Cuando los sentidos se conectan adecuadamente al cerebro, es entonces que podemos decir que se da el aprendizaje. (Figura 1). Los sentidos
que se encuentran directamente conectados al cerebro mediante los nervios
craneales son los sentidos de la vista, el gusto, el olfato y el oído.
Figura 1. Los cinco sentidos y el cerebro.
4 DeViney, J. (2010) Inspiring spaces for young children. Gryphon House Lewisville N.C
398
A diferencia de los 4 sentidos previamente mencionados, el sentido del tacto
pasa por la medula espinal antes de llegar al cerebro, y es el único sentido
necesario para la supervivencia del ser humano. Las habilidades que nos otorgan nuestros sentidos se basan en la información que se transmite de cada uno
de ellos al cerebro y en los aspectos fisiológicos que ayudan a los sentidos a
adquirir dicha información. Para el Doctor Laurence D. Rosemblum5 , toda
habilidad perceptiva tiene una explicación científica, y mientras los psicólogos han sabido por mucho tiempo que nuestro sistema sensorial puede
integrar información sin que estemos conscientes de ello, nuevas investigaciones han arrojado que habilidades perceptuales completas están ocurriendo de esa forma.
La vista
El sentido de la vista es el sentido dominante por excelencia. La vista es un
proceso que da sentido a lo que se ve. Es un conjunto de funciones complejas y aprendidas que involucran muchísimas habilidades. Estudios hechos
por el doctor Thomas Politzer, presidente de la Asociación de Rehabilitación
de Neuroptometría, demuestran que alrededor del 85% de nuestro aprendizaje, de nuestra percepción y de nuestras actividades son mediadas por el
sentido de la visión, y que el propósito de éste proceso es el de alcanzar una
respuesta cognitiva y motora apropiada. Así mismo, la estética que provee
un ambiente tiene una relación muy cercana con el proceso creativo del individuo. Al proveer ambientes que estimulen favorablemente el sentido de la
vista mediante la estética y la iluminación, se favorecerá el proceso creativo
e innovador de un individuo6.
2
El oído
El sentido del oído nos ayuda a aprender los unos de los otros mediante
la comunicación. Una acústica adecuada en el salón de clases evita que
los alumnos sufran de falta de atención y de dispersión. El ruido excesivo
dentro de un salón de clases es un factor de estrés que llega a aumentar la
inseguridad y que crea mucha irritación en los individuos. Los ruidos desagradables crean sensaciones desagradables. A nivel cerebral, el ruido alerta
al sistema nervioso mandando una señal a la glándula suprarrenal para que
ésta segregue una hormona o neurotransmisor llamado adrenalina7 . Esta
hormona ayuda al cuerpo a prepararse a enfrentar una situación peligrosa,
aumentando la presión de la sangre y contrayendo los vasos sanguíneos
para así evitar que se produzcan hemorragias de sangre severas en caso de
heridas graves. El ritmo cardiaco se eleva a la vez que los niveles de concentración disminuyen.
5 Rosemblum L.D. (2010). See What I m Saying: The extraordinary Powers of Our Five Senses Norton Press N.Y
6 Jensen, E. (2006) 7 Discoveries from Brain Research. Corwin Press. Thousand Oaks, CA
7 Jensen, E. (2006) 7 Discoveries from Brain Research. Corwin Press, Thousand Oaks. CA
399
A menor concentración de ruido, mayor equilibrio físico y mental. Al proveer la construcción del conocimiento dentro de ambientes de acústica favorable, se promoverá un entorno de aprendizaje positivo.
El tacto
El sentido del tacto es el primer sentido que se desarrolla en la etapa embrionaria de todo ser humano y es la primera forma en la que los infantes se
relacionan con su entorno . Información de todo tipo entra a nuestro cuerpo
y a nuestro sistema nervioso mediante el tacto. En el contexto de la neurobiología, el sentido del tacto se define como “aquel sentido especial por el
cual el contacto de un cuerpo con el organismo es percibido por la mente
consciente.” (Gardner). Mediante el sentido del tacto, toda persona aprenderá durante el curso de su vida. Siendo tan importante para el desarrollo del
conocimiento, proveer espacios de que inviten al desenvolvimiento táctil y
kinestésico aportará significativamente al desarrollo del aprendizaje.
El gusto y el olfato
Hablamos en conjunto de los sentidos del gusto y del olfato ya que están
estrechamente relacionados entre sí no solo por las papilas gustativas y el
por nervio olfatorio que transmiten información al cerebro, sino que también por el efecto que producen en la retención de información y la memoria. (Figura 2). Al combinar los sentidos del gusto y del olfato, el cerebro
logra identificar sabores y olores. De las memorias más poderosas en el ser
humano, la olfativa ocupa el primer lugar. El cerebro asocia los olores y los
sabores con experiencias previas que pueden ser tanto agradables como
desagradables. Al planear espacios educativos, debemos contemplar una
buena calidad de aire.
Figura 2. Sistemas olfativo y gustativo.
400
Un estudio hecho por el laboratorio nacional Lawrence Berkeley en 150 salones de clase en el estado de California comprobó mediante la recolección
de datos en un lapso de dos años, que una ventilación adecuada reduce los
porcentaje de ausencia escolar en 3.4% . Así mismo, una buena ventilación
reduce la concentración de olores que pueden llegar a perjudicar los niveles
de concentración requeridos para un buen desarrollo del proceso de enseñanza aprendizaje en los alumnos.
Conclusiones
La planeación de espacios educativos está estrechamente vinculada al mejoramiento del aprovechamiento escolar, al desarrollo de capacidades y habilidades de los estudiantes y a los procesos de integración de los sentidos y de
la información de manera efectiva y creativa. Basándonos en la experiencia
educativa y en el conocimiento y aplicación de los principios de la filosofía
Reggio Emilia, pretendemos en este trabajo compartir los modelos educativos Reggianos aplicados a los sentidos, a los espacios, a la importancia de la
estética, la organización, la comunicación e interacción del entorno académico, al efecto que tienen en el cerebro y el proceso de aprendizaje, y a la
importancia que tienen estos al ser llamados el tercer maestro. Al compartir
estos modelos, intentamos establecer la importancia de la colaboración de
maestros, arquitectos y diseñadores en la construcción de espacios educativos, de todos los niveles, que ayuden al desarrollo integral y al aprendizaje
significativo de los alumnos de todas las edades.
Así mismo, al reconocer que los estímulos que reciben nuestros cinco sentidos impactan al organismo y a los procesos mentales, podemos tomar en
consideración que la construcción de espacios que promueven el equilibrio
entre la estética y los ambientes, que proveen áreas que propicien los diferentes tipos de adquisición de conocimientos y que mantienen un entorno
sano y seguro para el proceso educativo impactará de manera significativa
el proceso educativo en el ser humano.
Referencias:
[1] Bailey, B. (2007). Conscious Discipline. Loving guidance press, Oviedo, Florida.
[2] Bloomfield, M. (1993) Química de los organismos vivos, (2ª. Edición) Editorial Limusa
México.
[3] Burri, A., (2002). Children, Art, Artisits. Reggio Emilia Publishers, Italia.
[4] DeViney, J. (2010) Inspiring spaces for young children. Gryphon House, Lewisville N.C.
[5] Ceppi, G., Zini, M. (1998). Children, spaces, relations. Graffiche Maffei, Carvagio, Italia.
[6] Gandini, L., Hill, L., Cadwell, L., Schwall, C. (2005). In the Spirit of the Studio. Graffiche
Maffei, Carvagio, Italia.
401
[7] Gardner, Howard (1993). Multiple Intelligences: The Theory in Practice. Basic books,
New York, NY.
[8] Goleman, D. (2000) Working with Emotional Intelligence. Random House Publishing
Group. New York, N.Y.
[9] Rinaldi, C. (2006). En diálogo con Reggio Emilia. Routledge, Londres.
[10]Roca, N. (2010) Los cinco sentidos. Editorial Edebe, Barcelona.
[11]Rosemblum L.D. (2010). See What I’m Saying: The Extraordinary Powers of Our Five
Senses. Norton Press N.Y.
[12]Vecchi, V., (2010). Art and Creativity in Reggio Emilia. Exploring the role and protential
of ateliers in early childhood education. Routledge, London.
[13]Machotka, P. Understanding aesthetic and creative processes: The complementarity of
idiographic and nomothetic data. Published February 2012 by PsycArticles.
[14]Rowe, A. Creative Intelligence: Discovering the Innovative Potential in Ourselves and
Others. Published March 12th 2004 by FT Press
[15]Mendel, M.J., Eliseeva, E.A., Davies, M.M., Spears, M., Lobsheid A., Fisk, W.J. and Apte,
G. Association of classroom ventilation with reduced illness absence: a prospective study
in California elementary schools Published October 18 by Redcube
[16]http://www.brainline.org/content/2008/11/vision-our-dominant-sense_pageall.html
(2008)
[17]Thomas Politzer, O.D. Former NORA President, Neuro-Optometric Rehabilitation Association Vision Is Our Dominant Sense. Consultado el 4 de Octubre de 2014.
[18]http://www.monitoruniversitario.com.mx/investigaciones/mala-acustica-afecta-aprendizaje-en-salones-de-clases-egresados-del-ipn/#sthash.CPRrLRqq.dpuf (2014)
[19]Mala acústica afecta aprendizaje en salones de clases. Consultado el 5 de Octubre de
[20]http://infed.org/mobi/kurt-lewin-groups-experiential-learning-and-action-research/
(1995)
[21]Kurt Lewin: groups, experiential learning and action research. Consultado el 2 de Octubre de 2014.
402
El impacto de ofrecer materias a distancia en tiempo real
Martha Elena Núñez López
Maestría en Diseño Industrial e Innovación de Productos, Maestría en
Ingeniería y Administración de la Construcción. Tecnológico de Monterrey, Campus Puebla. Disciplina de Investigación: Ciencias y Artes para el
Diseño.
[email protected]
Resumen
Cursar una materia a distancia en tiempo real permite aprovechar el valioso
recurso de la diversidad cultural mediante profesores extranjeros que son
líderes en su área del conocimiento, a la vez que fomenta la práctica de
diversas habilidades en el alumno, con la tecnología como herramienta de
aprendizaje. El artículo comienza con los antecedentes de los cursos en
línea y a distancia, así como con una revisión bibliográfica de expertos en
los temas de aprendizaje vía remota y educación móvil. A continuación se
presentan casos de éxito en la impartición de cursos a distancia en tiempo
real en el área de Diseño Industrial. Se analiza la forma en que cursos impartidos por líderes académicos extranjeros y con experiencia internacional, apoyándose en tecnologías de comunicación, pueden ser un valioso
complemento de las clases presenciales y de las clases en línea, al ofrecer
a los alumnos una perspectiva global dentro de su formación. Se presentan
además, los resultados de una segunda aplicación del instrumento, en una
clase del segundo tercio del plan de estudios. Esta información puede brindar elementos valiosos a considerar con el fin de fomentar la impartición de
clases en este esquema.
Palabras Clave: Educación a distancia, diseño, comunicación, profesores
extranjeros
Introducción
En la actualidad podemos vivir las nuevas tecnologías a nuestro alrededor
casi en cualquier ámbito en que nos encontremos. Estamos inmersos en la
era de las tecnologías y las telecomunicaciones. En nuestro país ya se han
alcanzado 45,100,000 usuarios de internet, lo que representa un 40% de
la población total del país. (COFETEL, 2012, con base en INEGI / Estudios
AMIPCI 2005-2012).
Los cursos que en este artículo se analizan, se impartieron a distancia en
tiempo real, con el apoyo de tecnologías de comunicación. No se clasifican
403
exactamente como materias impartidas en línea, dado que en todo momento existe una interacción en tiempo real entre alumnos y profesor. Sin embargo como antecedente empezaremos hablando de los cursos en línea en
el TEC y continuaremos con una revisión de expertos en tema.
El Programa de Apoyo a los Campus del Tecnológico de Monterrey (PACSI)
fue creado en 1989 con el fin de ofrecer a los alumnos de profesional una
ventaja mediante el aprendizaje a distancia. Apoyados en recursos tecnológicos didácticos y de última generación se ofrecen materias que permiten
desafiar las barreras de espacio y tiempo.
La Universidad Tec Virtual tiene como visión “Impulsar el potencial de las
personas a través de ambientes digitales de aprendizaje”. Entre sus objetivos
se destaca para este artículo, el de “....proporcionar a todos los alumnos los
medios para desarrollar las habilidades de aprendizaje en medios virtuales
que los hagan más competitivos en el mundo actual.” Tec Virtual (Julio 14 de
2014). Extraído de: http://mysitec.wordpress.com/universidad-tec-virtual/.
Cursar una materia en línea fomenta la práctica de diversas habilidades y
compromete al alumno a ser responsable y autónomo de su propio aprendizaje. Además se accede al recurso de la diversidad cultural a través de
profesores extranjeros reconocidos, que la mayoría de las veces no estaría
disponible localmente para una clase presencial. Cabe señalar que con el
nuevo modelo Tec 21, una de las competencias que se fomentarán es precisamente la visión internacional/multicultural. Y además ofrece la oportunidad de aprovechar la tecnología como herramienta de aprendizaje que lleva
al alumno a experimentar nuevas formas de aprender.
Cabe señalar que en los cursos en línea el tutor del curso funge como intermediario, canalizando a la instancia correspondiente la duda o situación.
En el curso a distancia en tiempo real la comunicación es directa con el
profesor, y apoyado en un asistente que se encuentra presencialmente en el
aula. En estudios realizados para conocer las opiniones de profesores acerca
de los ambientes de aprendizaje en línea, se han obtenido opiniones favorables principalmente porque los profesores desean estar actualizados sobre
las herramientas de enseñanza más nuevas (Myers, 2004). Cada vez más
profesores se suman este esfuerzo, buscando alinearse a los nuevos modelos
educativos.
A continuación se prosigue con una breve revisión bibliográfica de expertos
en el tema, en torno a las nuevas tendencias en educación a distancia, educación móvil y tecnologías de aprendizaje.
404
George Siemens explora cómo han cambiado el contexto y las características del conocimiento. En su manual de las tecnologías emergentes para el
aprendizaje, George resalta que no debemos enseñar aquello que los alumnos saben hacer por ellos mismos, debemos centrarnos en aspectos como
la evaluación de la información, el razonamiento y la creatividad. (Siemens,
2009). En la carrera de Diseño Industrial, estos aspectos son muy relevantes
porque es una carrera que busca formar profesionistas dedicados a la solución creativa e innovadora de productos.
Según Francesc Pedró, a pesar de que los alumnos que hoy tenemos han
nacido bajo la denominación de nativos digitales, siguen prefiriendo la interacción cara a cara. (Pedró, 2010). Pedró muestra también los resultados de
encuestas acerca de las formas preferidas para aprender, un 32% contestó
que usando computadoras, un 55% contestó que trabajando en grupos. Solo
un 8% contestó que prefiere aprender copiando, lo cual contrasta con los
resultados a la pregunta sobre cuales son las actividades típicas que hacen
en el aula: 52% contestó que copiando del pizarrón o libro y solo un 16%
contestó que mediante computadoras y 22% en grupos.
Jordi Adell, enfatiza la importancia de innovar en la docencia para nativos
e inmigrantes digitales evitando los maximalismos en cuanto a integración
de las tecnologías de información. En su opinión, la tendencia es una educación más móvil, más social y más colaborativa. Él explica que el sentido
aprender es sinónimo de crear y compartir formando parte de redes educativas. Enseñanza universitaria en la universidad digital. (Julio 19 de 2014)
Extraído de: http://elbonia.cent.uji.es/jordi/2014/07/19/ensenanza-universitaria-en-la-universidad-digital/
Las materias a distancia en tiempo real
entran dentro de esta tendencia de educación móvil y a la vez permiten una
buena colaboración e interacción social, al ser en tiempo real.
Para los directores de departamento como responsables de elegir profesor
para cada materia, la medición del impacto de ofrecer materias a distancia
en tiempo real a los alumnos, podría ser de gran utilidad. Los resultados y
experiencias de otros colegas pueden dar elementos valiosos para crear condiciones y generar acciones para fomentarlas en sus departamentos. Como
hemos visto, en estas nuevas generaciones los alumnos están más abiertos
a tomar clases a distancia pero siguen valorando el acompañamiento y la
atención personalizada que se logra más efectivamente si la clase es impartida en tiempo real, aunque sea a distancia. Dado lo anterior se establece
como objetivo del presente trabajo exponer y compartir el impacto de ofrecer materias a distancia en tiempo real.
405
Estrategia
Se inicia con una descripción general de los cursos de Biodiseño y Teorías
Avanzadas del Diseño, las cuales se han impartido en la modalidad a distancia en tiempo real. En seguida se describen los instrumentos que permitieron establecer parámetros de comparación en la evolución de habilidades
y competencias en los alumnos. Finalmente se compartirán los resultados y
las conclusiones obtenidos.
Los cursos
El curso de Biodiseño impartido desde el 2007 en el noveno semestre del
plan de estudios de la carrera de Diseño Industrial (LDI) tiene la finalidad
de que los alumnos integren los conceptos biológicos en el desarrollo de
productos, bajo una perspectiva ecológica y sostenible. Como resultado del
aprendizaje, se espera que los alumnos comprendan el funcionamiento básico de la naturaleza mediante dinámicas y ejercicios de investigación y
práctica. La técnica didáctica sugerida en el programa analítico de esta materia es el Método de Casos. En el Anexo A se encuentra información sobre
el objetivo general de las materias estudiadas.
Desde Agosto 2012, la materia se empezó a ofrecer en formato a distancia
en tiempo real en Campus Puebla. El campus ofrece materias en línea pero
esta modalidad de materia a distancia en tiempo real no se había ofrecido
anteriormente.
La profesora que imparte la materia es líder académica y destacó por sus excelentes ECOAS (la evaluación que realizan los alumnos a sus profesores al
final del semestre). Desde hace siete años radica en su país de origen (Japón)
y aceptó la invitación a impartir clases en este formato. Se buscó un horario
adecuado tanto para ella como para los alumnos aquí en México. Cabe
señalar, que la profesora fue homenajeada en el 70 aniversario del TEC por
estar en el 5% de los profesores mejor evaluados en la historia de la institución. Es un excelente recurso humano al que nuestros alumnos difícilmente
tendrían acceso de no haberse ofrecido la materia en este formato de clase
a distancia en tiempo real.
Después de cuatro semestres consecutivos, podemos decir que la impartición de esta materia en formato a distancia en tiempo real, es un caso de éxito pues ha mantenido excelentes evaluaciones y comentarios por parte de
los alumnos, incluso posicionándose en el primer lugar del Departamento
de Diseño Industrial, junto con la materia de Teorías Avanzadas del Diseño
ofrecida dos periodos en este mismo formato.
406
Es importante señalar que la profesora ya contaba con experiencia previa
impartiendo clases a distancia, aunque no en tiempo real. Dada la importancia que recae en los medios electrónicos, los profesores que imparten
materias en este formato deben cuidar muy bien la logística del curso y tener
competencias en el uso de las tecnologías. (Darabi, 2006). En un ambiente
de enseñanza a distancia, el profesor debe tener no solamente muy buenas
habilidades docentes sino también muy buenas habilidades en el manejo de
la tecnología para mantener una buena logística de clase.
El curso de Teorías Avanzadas del Diseño, es impartido desde 2007 y también pertenece al noveno semestre de la carrera de Diseño Industrial. Esta
materia se ofreció durante dos periodos en formato de clase a distancia en
tiempo real: Enero-Mayo 2014 y verano de 2014, debido principalmente a
que la profesora que la impartía desde Enero 2012, salió fuera del país para
trabajar en sus estudios de doctorado. Cabe señalar que la profesora es también extranjera (polaca) y contaba con excelentes evaluaciones y comentarios por parte de sus alumnos y con un reconocimiento por su labor docente
por parte de los graduandos. Todo esto antes de impartir la clase en formato
a distancia en tiempo real.
En esta materia se analizan las teorías de diseño que le permitirán al alumno
modificar su visión actual de la profesión y en consecuencia definir una postura a través del entendimiento de dichas teorías y del ejercicio del diseño.
Es una clase principalmente teórica, a diferencia de la materia de Biodiseño,
donde la teoría se combina con la práctica al desarrollar los alumnos un
proyecto durante el semestre.
Durante el verano 2014 se aprovechó que se estaba ofreciendo la materia
de Teorías Avanzadas del Diseño en el formato a distancia en tiempo real
para aplicar la encuesta piloto, la cual sirvió de base para la aplicación en
el semestre Agosto-Diciembre a los alumnos de Biodiseño, así como a los
exalumnos que tomaron la clase en esta modalidad los semestres anteriores.
Descripción del instrumento para medir el impacto de las clases a distancia
en tiempo real
Para llevar a cabo un análisis comparativo del impacto en la formación de
alumnos de diseño industrial que llevan una clase a distancia en tiempo
real, el instrumento de medición fue la aplicación de encuestas. Se aplicaron a alumnos que cursaron la materia en el semestre Agosto – Diciembre
2014 y también a alumnos que cursaron materias a distancia en tiempo real
en el periodo de verano 2014. En el Anexo B se puede revisar el formato
seguido para la aplicación de la encuesta.
407
Los objetivos planteados fueron los siguientes: Revisar (medir) el efecto del
aprendizaje a distancia en la formación profesional de alumnos de diseño
industrial en comparación con el aprendizaje en línea y presencial. Identificar la percepción que tiene los LDI de las clases a distancia en tiempo real.
Estos instrumentos se aplicaron a estudiantes que cursaron las materias de
Biodiseño y Teorías Avanzadas del Diseño los últimos semestres.
Resultados
En el Anexo C se muestra un resumen de los datos estadísticos socio-demográficos de los alumnos del curso de Biodiseño en el semestre AgostoDiciembre 2014. Se aprecia que de un total de 11 alumnos inscritos en la
clase, las edades varían entre 22 y 24 años de edad, el mayor porcentaje es
de 23 años. En cuanto al lugar de nacimiento la mayor parte de la población
está en el estado de Puebla y el resto en otros Estados de México, solo uno
es extranjero (Estados Unidos). En cuanto al estado civil, la mayoría son solteros, solo hubo un casado. Relativo al género, se encontró que el 64% son
mujeres y el 36% son hombres. El semestre que cursan los alumnos durante
el estudio es en su mayoría noveno. En relación a si actualmente trabajan,
7 de ellos sí lo hace, y 4 se dedican de lleno al estudio. La gran mayoría
ha llevado materias en línea alguna vez, y para un 27% de ellos esta es su
segunda materia cursada a distancia en tiempo real.
Como paso preliminar se aplicó una encuesta piloto durante el verano 2014,
a los alumnos que cursaban a distancia en tiempo real la materia de Teorías
Avanzadas del Diseño. Con esto se obtuvo retroalimentación valiosa para
rediseñar la encuesta. Una vez editada, se aplicó en el mes de Septiembre
2014 a los alumnos cursando la materia de Biodiseño.
En el Anexo B se encuentra el formato de la encuesta aplicada, la cual contenía 5 preguntas cerradas que arrojan los siguientes datos cuantitativos:
El 100% considera que la profesora que les imparte la clase a distancia en
tiempo real, es inspiradora. 91% habría elegido llevar esta materia a distancia en tiempo real aún si hubiera tenido la opción de cursarla de forma
presencial o en línea. 82% recomendaría a otros compañeros llevar una
materia a distancia en tiempo real. 82% considera que ha sido de mucha utilidad en su formación profesional estar llevando esa materia en este formato,
a distancia en tiempo real.
La encuesta también incluía una sección cualitativa, con espacio para comentarios. Acerca de los conocimientos y habilidades que están adquiriendo al cursar esta materia a distancia en tiempo real, un alumno comenta
408
que está aprendiendo a ser disciplinado y a organizar mejor su tiempo. Otro
comenta que le ha dado la oportunidad de tener conocimiento teórico del
tema aprendiendo mediante las tareas prácticas. Otro comenta que está
aprendiendo otras plataformas para videoconferencias. Otro más menciona
que es importante aprender de maneras diversas y que esta materia le ha
permitido desarrollar competencias que le servirán en el trabajo.
Sobre las razones para recomendar o no a otros alumnos cursar una clase a
distancia en tiempo real, la mayoría coincide en que vale la pena esta modalidad de aprendizaje por tener al alcance a un profesor experto en el tema
y amante del tema. De las 2 personas que respondieron que no recomendarían esta modalidad, una recalca que esta materia en particular sí lo recomienda, pero que con otro profesor de otra área tuvo una mala experiencia.
En los comentarios adicionales se menciona: 1.- Que la profesora es excelente, 2.- Que a pesar de las limitantes de la distancia la clase está muy
completa. 3.- Que es muy inspiradora como profesora. 4.- Que tanto los
temas como la maestra son atractivos, pero que no le gusta que el contenido
sea muy teórico.
Con estos resultados podemos decir que las materias a distancia en tiempo
real son un excelente complemento de las materias presenciales y en línea.
Una de sus fortalezas es que permite acercar a los alumnos a un líder de
talla internacional con un alto grado de interacción profesor-alumno, y ofreciendo una perspectiva global, una visión externa de su profesión. Por otra
parte, no todos los alumnos tienen la posibilidad económica de estudiar de
intercambio en otro país o de realizar una estancia en el extranjero, una gran
ventaja que esta modalidad posee, es que ofrece al alumno una alternativa: formar parte de un grupo donde se vive esta experiencia multicultural.
Además, en casos especiales (situación de salud, por ejemplo) el profesor
puede autorizar que el alumno tome algunas clases desde otro lugar que no
sea el aula de videoconferencias. Y por último, esta modalidad tiene como
ventaja adicional que todas las clases quedan grabadas en blackboard, por
lo que el alumno puede volver a escuchar cualquier sesión nuevamente, en
cualquier lugar.
Conclusiones
El grupo de alumnos observados para medir el impacto de tomar clases
a distancia en tiempo real cursan la materia de Biodiseño en el semestre
Agosto-Diciembre de 2014 y estudian la carrera de Diseño Industrial.
409
La impartición de esta clase en formato a distancia en tiempo real ha sido
hasta el momento un caso de éxito manteniendo excelentes evaluaciones y
comentarios por parte de los alumnos. Parte del éxito es que la profesora ya
contaba con excelentes evaluaciones antes de la impartición de la clase en
este formato. Además la profesora ya contaba con experiencia impartiendo
una clase a distancia (sin ser en tiempo real). Es importante considerar que
el profesor que se invite a impartir una clase en este formato, debe tener no
solamente muy buenas habilidades docentes sino también experiencia en el
manejo de la tecnología para mantener una buena logística de clase.
Las materias a distancia en tiempo real son un complemento de las presenciales y las materias en línea, pues fomentan el desarrollo de habilidades
valiosas para el profesionista que se desempeñará en un ambiente global.
Es importante reconocer que aunque en estas nuevas generaciones los alumnos están más abiertos a tomar clases a distancia, siguen valorando el acompañamiento y la atención personalizada, en este sentido se sigue teniendo
como reto mejorar la tecnología en el aula para lograr una mejor interacción
profesor-alumno.
El trabajo a futuro implicará una búsqueda de líderes académicos extranjeros con excelentes credenciales y habilidades docentes que puedan impartir
clases en este formato y así complementar la formación presencial y en
línea de los alumnos. Se deben seleccionar cuidadosamente las materias,
buscando que los alumnos no lleven más de una materia en este formato
durante un mismo semestre, y no más de tres a lo largo de su carrera. Así
mismo se deben tomar acciones que permitan seguir midiendo el impacto
de cursar materias en este formato y retroalimentar continuamente los resultados mediante la aplicación de los mismos instrumentos de medición para
identificar la eficiencia obtenida.
Referencias
[1] COFETEL, (2012), con base en INEGI / Estudios AMIPCI (2005-2012).
[2] Myers, C. B., Bennett, D., Brown, G. & Henderson, T. (2004). Emerging Online Learning
Environments and Student Learning: An Analysis of Faculty Perceptions. Educational Technology & Society
[3] Siemens, (2009), Handbook of Emerging Technologies for Learning.
[4] Darabi, A Aubteen; Sikorski, Eric G; Harvey, Robert. (2006) Validated Competencies for
Distance Teaching. PRISMA (Publicaciones y Revistas Sociales y Humanísticas).
[5] Pedró, Francesc, (Agosto 11 de 2014), The new millennium learners. Extraído de http://
issuu.com/ite_europa/docs/francesc_pedro_ue_presidency/1?e=0
410
[6] Universidad Tec Virtual, (Julio 25 de 2014), Introducción a las Tecnologías de Información. Extraído de: http://mysitec.wordpress.com/universidad-tec-virtual/
[7] Planes de estudio, sintético en español, (Julio 14 de 2014) Extraído de: https://serviciosva.itesm.mx/PlanesEstudio/Consultas/Materias/ConsultaMaterias.aspx?Form=Consultar_
Materias_Sintetico&ClaveMateria=DL3003&Idioma=ESP
[8] SNC Portal Informativo (Julio 20 de 2014). Presentan el nuevo Modelo Educativo Tec 21.
Extraído de: http://www.itesm.mx/wps/wcm/connect/snc/portal+informativo/por+tema/
educacion/ modelotec21_18abr13
[9] Adell, Jordi. Enseñanza universitaria en la universidad digital. (Julio 19 de 2014) Extraído
de: http://elbonia.cent.uji.es/jordi/2014/07/19/ensenanza-universitaria-en-la-universidad-digital/
Anexo A: Objetivo General de las Materias Estudiadas
1.Biodiseño.
El alumno será capaz de: Comprender y aplicar los principios básicos de la
vida (biología) para integrarlos al desarrollo de productos. Comprender las
metodologías de la biomímica, biomimética y biónica, casos de estudio de
productos con perspectiva ecológica y sostenible. Reflexionar y asumir la
responsabilidad moral y ética al proponer la creación de productos sostenibles.
2.
Teorías Avanzadas del Diseño.
El alumno será capaz de: Comprender las teorías avanzadas de diseño que
le permitirán modificar su visión actual del diseño y en consecuencia definir
una postura, a través del entendimiento de dichas teorías, el ejercicio del
diseño de manera sostenible.
Anexo B: Formato de Encuesta.
1.- ¿Cómo calificas la utilidad de estar llevando una materia a distancia en
tiempo real en tu formación profesional?
Poca 12345Mucha
2.- ¿Llevar esta clase te está permitiendo adquirir conocimientos y/o habilidades nuevas?
Totalmente en desacuerdo
12345To t a l mente de acuerdo
411
3.-¿Cuáles? (conocimientos/habilidades)
_________________________________________________________
_________________________________________________________
5.- Las materias a distancia en tiempo real permiten que un líder de talla
internacional imparta clase a pesar
de la
distancia. De haber tenido las siguientes 3 opciones en inscripciones, ¿Cuál
habrías elegido?
1.-Llevar esta clase como la estoy llevando ahorita, a distancia y en tiempo
real.
2.-Llevar esta clase en formato presencial, con un profesor local.
3.-Llevar esta clase en línea a través de blackboard, (sin interacción en tiempo real).
¿Porqué? _________________________________________________
6.- ¿Recomendarías a otros alumnos cursar una clase a distancia en tiempo
real?
SI _________
NO _________
¿Por qué?________________________________________________________
_______________
7.- ¿Consideras que tu profesor está siendo inspirador?
SI _________ NO _______
Anexo C: Estadísticas socio-demográficas observadas en el curso de
Biodiseño(Agosto-Diciembre2014)
Edad
Entre 22 y 24
años
412
Lugar de Nacimiento
Estado Civil
Género
Empleo
La mayoría de Puebla y otros
estados de México. Uno de
Estados Unidos
10 Solteros
1 Casado
7 Mujeres
4 Hombres
7 sí trabajan
4 no trabajan
Cuatro estaciones, Didáctica para el adulto mayor
Jennyfer Alejandra Castellanos Navarrete
Universidad de Nariño, Colombia
[email protected]
Resumen
El Alzheimer es una enfermedad neurodegenerativa que se manifiesta con el
deterioro cognitivo y trastornos de la conducta. Las principales manifestaciones son la pérdida progresiva de la memoria y la capacidad mental que
dificultan el desempeño de las actividades cotidianas y por ende deterioran
la calidad de vida del adulto mayor. La comunicación que se presenta es
el resultado del proyecto de investigación denominado “Cuatro Estaciones,
didáctica para el adulto mayor” cuyo objetivo es ser una herramienta que
permite ejercitar las capacidades cognitivas del adulto mayor integrando a
su familia y/o circulo de convivencia, mejorando su salud y calidad de vida.
Mediante las herramientas estéticas y comunicacionales que brinda el
diseño gráfico “Cuatro Estaciones” es un proyecto que mezcla varias disciplinas como las ciencias de la salud, el diseño industrial, el trabajo social
entre otras, permitiendo de esta forma generar impacto en un amplio grupo
humano. El resultado de este proyecto consiste en un artefacto didáctico
compuesto por cuatro unidades básicas y una unidad multimedia que pueden ser empleados por el adulto mayor y su familia así como por profesionales de la salud aportando de esta manera en devolver la importancia del
rol de los mayores en nuestra sociedad.
Palabras clave: Inclusión, adulto mayor, familia, Alzheimer, didáctica, diseño.
Abstract
Alzheimer’s is a neurodegenerative disease that manifests with cognitive impairment and behavioral disorders. The main manifestations are progressive
loss of memory and mental capacity that hinder the performance of daily activities and thus impair the quality of life of the elderly. The communication
I present results from a research project called “Four Seasons, teaching for
the elderly” which aims to be a tool to exercise the cognitive abilities of the
elderly integrating your family and / or circle of coexistence improving their
health and quality of life.
413
Through the aesthetic and communication tools that provides graphic design “Four Seasons” is a project that combines several disciplines such as
health sciences, industrial design, social work, among others, thus allowing
an impact on a broad group of people. The result of this project is a teaching
device consists of four basic units and a multimedia unit that can be used by
the elderly and their families as well as health professionals thus contributing
to return the important role of older in our society.
Keywords: Inclusion, elderly, family, Alzheimer, didactic.
Introducción
Cuando la mayor parte del paisaje era verde y el aire era más puro, para
nuestros indígenas las personas mayores eran las más sabias, por lo tanto
las más valoradas dentro de la comunidad. Hoy en día son pocos los círculos sociales en los cuales los adultos mayores siguen siendo importantes.
Lamentablemente un porcentaje considerable de ellos son vulnerables a sufrir de Alzheimer una enfermedad que deteriora rápidamente su calidad de
vida, afectando su salud física, emocional y el bienestar de sus familias.
Cuatro Estaciones es un proyecto que nace de la necesidad de contribuir a
una población que carece de atención y que sin lugar a dudas ha aportado
desde su ser y conocimiento al crecimiento de la sociedad.
El acompañamiento de la familia es imprescindible para la recuperación o
estabilidad emocional de un enfermo de Alzheimer, sin embargo; las familias pueden quebrantarse ante la presencia de tantas responsabilidades y el
sentimiento abrumador de no saber con certeza como el adulto mayor con
Alzheimer puede evolucionar. Para esto es importante fortalecer las relaciones personales en la familia y el ambiente cálido que permita mayor comodidad al enfermo y por ende a sus familiares. (Fontanillo, 2007).
Para poder generar un resultado consiente y funcional fue imprescindible
entender la enfermedad del Alzheimer desde su concepto clínico, así como
comprender el efecto que causa en las familias o cuidadores de este tipo de
pacientes, los métodos de prevención o retraso de la enfermedad, el papel
e impacto social de los adultos mayores y los posibles caminos mediante
los cuales el diseño podría actuar. Para ello y de acuerdo al Desing Thinking, metodología de diseño que permite llegar a productos innovadores a
través de la inspiración, ideación y desarrollo, se implemento la metodología denominada “Cuatro Estaciones” en donde de acuerdo a cada fase se
generaron procesos de investigación y construcción de resultados. Durante
la primera estación, verano (tiempo que invita al aire libre y la alegría) se
realizo la búsqueda de necesidades: comprender y observar. Otoño (tiempo
414
de cosechas) fue la fase de definir, organizar y preparar todo para el invierno
(tiempo de profundización), tercera estación en la cual se abordo el diseño inicial de las piezas graficas. Primavera (tiempo de nacer y florecer) se
convirtió en el momento de aplicar el proyecto y los prototipos al grupo de
estudio con el fin de analizar su funcionalidad. Estas metodologías permiten
que durante el proceso exista flexibilidad; es decir, si las deducciones muestran que es necesario devolverse a una de las etapas, es permitido realizar
ajustes hasta encontrar el camino ideal para generar resultados consientes,
originales y responsables con los objetivos planteados.
Con el propósito de emplear la metodología de manera funcional y adquirir
los conocimientos necesarios para comprender cada fase, se contó con un
equipo multidisciplinar que aporto desde su área de acción ideas y conceptos, tales como: médicos, sociólogos, psicólogos, terapeutas, entre otros
profesionales. El aporte de este grupo permitió entender varios factores que
conllevan al abandono y perdida de respeto hacia la vida de los adultos
mayores. Gracias a situaciones como la pérdida de algunas de sus capacidades a causa de una enfermedad, se asocia su vida con dependencia e
invalidez. En nuestra sociedad prima el papel del joven, de lo productivo y
la capacidad de trabajo desaparece con la jubilación, sumando un nuevo
aspecto negativo a la percepción social del adulto mayor, tal y como afirma
Marín (2003: 32)
Otro punto de discusión es el de considerar a los mayores como una
carga insostenible para la economía del Estado, por la gran cantidad
de gastos que ocasionan (prestaciones sanitarias, pensiones, etc.)
Estas circunstancias suele llevar a las familias a mediadas extremas, como
el abandono total, la mendicidad, la desnutrición, entre otras a las que son
sometidos los adultos mayores, por el bajo ingreso per capital promedio de
las familias en especial al sur de Colombia en San Juan de Pasto lugar donde
se desarrolló el presente estudio.
A partir de estos factores el proyecto se denomina “Cuatro Estaciones”, en
primera instancia refleja las etapas de la vida de los seres humanos (niñez,
adolescencia, adultez y vejez) que son quienes pueden interactuar con el
material didáctico y se pueden representar con cada una de las estaciones
del año (primavera, verano, otoño, invierno). Por otra parte el nombre hace
alusión a las cuatro fases en las que está organizado el material didáctico
de la maleta.
415
Figura 1. Logotipo Cuatro Estaciones.
De acuerdo a la metodología de diseño y a la información recolectada se
hizo necesaria la aplicación de talleres creativos para evaluar la pertinencia
del material didáctico propuesto. Los talleres se aplicaron en diferentes grupos para determinar si las características o circunstancias sociales pueden
inferir en el propósito del material. Para ello se vincularon instituciones y
familias con adultos mayores que presentan diferentes etapas de Alzheimer
y adultos mayores con olvidos producto de su edad.
La Institución Amparo San José fue de gran apoyo para testear el material e
interactuar con el grupo objetivo. Con abuelitos y abuelitas de diversos niveles sociales y características físicas y mentales se ejecutaron sesiones de actividades cognitivas con el material propuesto. De acuerdo a los resultados
obtenidos y de la mano de la metodología de diseño, fue necesario regresar
a etapas anteriores para ajustar las características gráficas y volver a sondear
las nuevas propuestas.
Figura 2. Taller “Unidad Otoño” Asilo de ancianos Amparo San José.
416
Figura 3. Taller “Unidad Primavera” Asilo de ancianos Amparo San José.
Se denominaron talleres de creación porque al interactuar con esta población se lograron sumar sus opiniones y sus experiencias de vida a la inspiración de nuevas actividades que surgieron justamente de lo que ellos querían
y necesitaban. Por otra parte los niños, adolescentes, familias y personal del
área de la salud brindaron a este proyecto herramientas para que la solución
fuera funcional desde sus componentes gráficos y comunicacionales.
Los poderes curativos del juego son empleados de diversa formas, los terapeutas suelen emplearlos para mejorar la comunicación y liberar miedos,
pensamiento y sentimiento se convierte según Landreth (2002) en una forma
didáctica del lenguaje. La terapia lúdica también puede ser utilizada para
promover el desarrollo cognitivo y ofrecer una visión y resolución de conflictos internos o pensamientos disfuncionales (O’Connor & Schaefer, 1983).
Cuatro estaciones es un proyecto enfocado esencialmente a la memoria del
adulto mayor; sin embargo, al ser un material que permite la integración grupal brinda la oportunidad a todas las personas que interactúen de ejercitar
su memoria y prevenir un deterioro temprano de esta capacidad. Mediante
una maleta didáctica compuesta por cuatro unidades se plantean actividades enfocadas a diversas funciones del cerebro. Cada estación cuenta con
un tipo de fichas diferentes para realizar actividades cognitivas como la comunicación verbal, oral y escrita, la ubicación espacial, la denominación de
objeto, el orden correcto de las palabras, secuencias, entre otras actividades
de la vida cotidiana.
417
Figura 4. Material didáctico, maleta Cuatro Estaciones.
La tendencia a favor de una vejez activa procura que el anciano conserve
su independencia, su libertad de acción y su iniciativa, de manera que sea
capaz de elegir el mayor número de opciones en su vida, tal y como afirma
Zavala (2006: 55)
En la medida que el adulto mayor sea más activo podrá sentir mayor vitalidad física y mental evitando contraer o empeorar las enfermedades
mentales, sintiéndose más autónomo de su vida y menos dependiente.
El factor fundamental de las actividades planteadas es permitir los procesos
cognitivos sin un conjunto de reglas que limiten a los usuarios. Cada actividad está planteada de manera tal que los niveles de dificultad puedan variar
y que los ejercicios no tengan un único fin o forma de desarrollarlos, esto
con el propósito de permitir que tanto los niños, como los adultos y adultos
mayores puedan interactuar.
Estación primavera
La estación primavera está compuesta por tres tipos de fichas: Domino Sensaciones, Juegos de Color y Juego de Pares.
Jugar domino es un ejercicio de estimulación que requiere de concentración
y astucia. Por medio de los colores y expresiones de los personajes se crean
un sistema de fichas que brinda al adulto mayor un juego divertido en el que
su capacidad de atención es imprescindible.
418
Figura 5. Estación primavera, maleta didáctica Cuatro Estaciones.
Juegos de Color es una actividad que estimula la atención, percepción y
lógica. Mediante la paleta cromática empleada se estimula visualmente al
adulto mayor para que relaciones los colores con el patrón indicado.
Figura 6. Fichas juegos de color. Estación primavera, maleta didáctica Cuatro Estaciones.
El juego de pares es una actividad que fortalece no solo la atención visual, la
memoria de trabajo y la ubicación espacial. Mediante las actividades de la
vida cotidiana los individuos pueden recordar el orden lógico para realizarlas y compartir sus experiencias frente a este tipo de acciones en diferentes
etapas de su vida.
419
Figura 7. Fichas juegos de pares. Estación primavera, maleta didáctica Cuatro Estaciones.
Para jugar con el domino sensaciones se debe emplear la manera tradicional
del juego teniendo en cuenta no imponer reglas a los adultos mayores. Los
niveles de dificultad varían con la cantidad de fichas empleadas, es decir:
para los primeros niveles se pueden utilizar desde tres colores y a medida
que el adulto mayor presenta facilidad para ejecutar la actividad se incorporaran más fichas.
Figura 8. Fichas domino sensaciones. Estación primavera, maleta didáctica Cuatro Estaciones.
Las actividades de Juegos de color se pueden desarrollar de manera libre o
por medio de los tableros guía. Los tableros se encuentran desarrollados de
forma que dependiendo del grado de atención del adulto mayor se puedan
emplear con tres o más colores. El objetivo de esta actividad es que los participantes ubiquen las fichas en color del tablero que corresponda.
El juego de pares es un ejercicio que fomenta la memoria y requiere de concentración y ubicación espacial. Las fichas fueron diseñadas con acciones
de la vida cotidiana que permiten generar conversación entre los participantes acerca de sus experiencias pasadas y del orden lógico para realizar determinada actividad. El objetivo de este juego es lograr que el (los) participante
420
(s) consigan recordar la ubicación de la mayor cantidad de pares. El grado
de dificultad de esta actividad se puede determinar mediante la cantidad de
fichas que se empleen para desarrollarla y la modalidad de juego.
Estación verano
La estación verano tiene como objeto la familiarización de las figuras básicas con el entorno. Las fichas de esta etapa están diseñadas con el propósito
de generar un juego sensorial estimulando la vista y el tacto mediante texturas, formas y colores. Las fichas son figuras básicas que se pueden encontrar
en el medio de desarrollo del adulto mayor y son empleadas en diferentes
tonalidades que facilitan este tipo de procesos.
Figura 9. Estación verano, maleta didáctica Cuatro Estaciones.
Las fichas de esta estación trabajan la atención visual, ubicación espacial,
percepción, lógica y por supuesto la memoria. Los juegos propuestos para
esta estación son orientados mediante los tableros que emplean diversas
cantidades de acuerdo al nivel de dificultad. Aunque los tableros guían las
secuencias de juego, esta estación cuenta con la ventaja que los participantes pueden proponer sus propias secuencias de acuerdo a sus capacidades.
La estación verano propone juegos como recordar la ubicación espacial de
las fichas, secuencias de formas y color, grupos o familias de colores o de
formas, juegos de memoria en donde los jugadores deben identificar cual es
la ficha que hace falta entre otras actividades.
421
Estación otoño
Las prendas de vestir y los animales conforman la unidad de Otoño. Esta estación brinda actividades de estimulación visual, táctil y auditiva. Mediante
las fichas se proponen ejercicios que buscan ayudar a los adultos mayores a
recordar el sonido de los animales, las formas y texturas, el orden lógico para
emplear las prendas de vestir, las secuencias y tareas dirigidas a través de la
orientación auditiva. Estos ejercicios permiten reforzar las funciones ejecutivas, la lógica, la percepción y la atención además de otras capacidades.
Figura10. Estación otoño, maleta didáctica Cuatro Estaciones.
Las fichas de los animales fueron diseñadas para realizar diferente ejercicios. Por una parte los jugadores deben unir dos lados de la ficha de manera
que formen uno de los animalitos. El grado de dificultad dependerá de la
cantidad de fichas empleada. Por otra parte y en conjunto del audio pueden
identificar los sonidos de cada uno de ellos.
Figura 11. Fichas de animales. Estación otoño, maleta didáctica Cuatro Estaciones.
422
Además de las anteriores actividades la estimulación auditiva busca generar
ejercicios que se pueden llevar a cabo en conjunto con las otras fichas. Una
de ellas consiste en llevar a cada animalito a su familia. El audio orientara al
jugador en la cantidad y orden que debe hacerlo estimulando su grado de
atención y receptividad.
Figura 12. CD para la estimulación auditiva. Estación otoño, maleta didáctica Cuatro Estaciones.
Por otra parte para reforzar la estimulación táctil, se encuentran las fichas de
texturas. Los jugadores deben reconocer a que animal pertenece cada una y
realizar ejercicios de secuencia mediante las historias narradas en el audio.
Figura 13. Fichas de animales y texturas. Estación otoño, maleta didáctica Cuatro Estaciones.
Con el tiempo y evolución de la enfermedad del Alzheimer los adultos mayores presentan olvidos sobre el orden correcto y funcionalidad de las prendas de vestir. Para ello la estación otoño contiene prendas elaboradas en
materiales reales a escala. Además de ayudar a recordar a los jugadores
estos aspectos las fichas permiten que ellos indaguen sobre la producción de
las prendas de vestir, la fuente primaria de los materiales en que se elaboran
y compartan sus experiencias frente al tema.
423
Figura 14. Fichas prendas de vestir. Estación otoño, maleta didáctica Cuatro Estaciones.
Para jugar con estas fichas la estación contiene tableros con los personajes
de “Cuatro Estaciones” los jugadores deben vestir a cada uno de ellos de
acuerdo a los patrones guía del material. Esta actividad brinda la posibilidad
de que cada participante proponga nuevas formas de combinar las prendas
siempre y cuando justifiquen un orden.
Estación invierno
Con el propósito de reforzar los procesos cognitivos empleados en la lectoescritura y visoconstrucción la estación invierno contiene actividades enfocadas a esta área del conocimiento. En primera instancia se encuentran las
fichas silábicas que ayudaran al adulto mayor mediante la lógica a formar
palabras específicas. De la mano esta actividad está el palabrero con ejercicios que buscan que los jugadores propongan oraciones y textos al igual que
desarrollen ejercicios de memoria de pares. Por otra parte y para generar
una mayor integración entre el entorno y las personas que interactúan con
el material se encuentran las fichas de significados.
Figura 15. Estación invierno, maleta didáctica Cuatro Estaciones.
Para los contenidos tipográficos de las fichas al igual que para las cajas de
texto de las cartillas se seleccionó la tipografía Gandhi. Esta fuente es el resultado de un arduo trabajo de un equipo multidisciplinar conformado por:
neurólogos, oftalmólogos, diseñadores, entre expertos que lograron hacer
424
que Gandhi se convirtiera en una herramienta para facilitar la lectura y procesos de conocimiento.
Gracias al profesionalismo y compromiso del equipo de trabajo esta maravillosa fuente fue seleccionada como parte de la muestra principal de “Tipos
Latinos 2012” en la Quinta Bienal de la Tipografía Latinoamericana en donde demostraron que esta fuente cumple con todos los requisitos estéticos
para ser reconocida como la más acertada para la lectura y comprensión de
textos.
Para “Cuatro Estaciones” emplear esta tipografía es una selección con un valor bastante alto. La funcionalidad de Gandhi permite que personas con una
baja visual reconozcan los contenidos y reciban la información de manera
automática.
De acuerdo al material proporcionado en las anteriores estaciones y para
reforzar la maleta didáctica como una unidad, las palabras que se pueden
formar con las silabas corresponden a los elementos empleados para algunos de los ejercicios de la estación primavera, verano y otoño.
Figura 16. Fichas silabas, estación invierno, maleta didáctica Cuatro Estaciones.
Figura 17 Fichas silabas, estación invierno, maleta didáctica Cuatro Estaciones.
425
Figura 18. Fichas silabas, estación invierno, maleta didáctica Cuatro Estaciones.
El palabrero es un juego mediante el cual los participantes pueden proponer oraciones y textos ayudando así a mantener activa su capacidad de
expresión. Con este tipo de fichas también se pueden realizar ejercicios de
memoria mediante pares que consiente en memorizar una lista organizada
en conjuntos de palabras. De esta manera a la hora de recordar se pueda
asociar los conceptos y es más fácil retener la información.
Figura 19. Palabrero, estación invierno, maleta didáctica Cuatro Estaciones.
Las fichas de significados buscan mantener activa la capacidad de discernir
información de los jugadores. Para jugar se deben tomar las fichas y los tableros de posibles respuestas. Al azar el jugador debe seleccionar una de las
fichas, leer su contenido y tratar de determinar de la lista cual es la respuesta
correcta. De acuerdo a la capacidad del individuo se pueden emplear varios
niveles de dificultad y realizar las actividades sin ayuda de la tabla de respuestas. Los jugadores también pueden dibujar sus respuestas en el tablero
de la maleta.
426
Figura 20. Fichas de significados, estación invierno, maleta didáctica Cuatro Estaciones.
La estimulación auditiva se generara mediante historias narradas con el propósito que los participantes recuerden la mayor cantidad de detalles y puedan expresarse mediante nuevos textos o dibujos en el tablero.
Figura 21. CD estimulación auditiva, estación invierno, maleta didáctica Cuatro Estaciones.
Cartillas
Para que el material didáctico sea empleado de manera funcional tanto por
las familias y adultos mayores como por el personal del área de la salud
“Cuatro Estaciones” cuenta con dos cartillas que facilitan el uso de la maleta.
Figura 22. Portada de las cartillas y hojas de contenido, maleta didáctica Cuatro Estaciones.
Cartilla de Actividades: Esta cartilla se encuentra dividida de acuerdo a cada
una de las unidades. Los ejercicios son expuestos mediante un lenguaje
427
claro apoyado en representaciones gráficas del juego y de las fichas que se
deben emplear. La cartilla contiene tips que ayudan a las familias a orientar
a los adultos mayores en el desarrollo de las actividades y a estimular su
desempeño.
Cartilla de Orientación Profesional: Esta cartilla es dirigida en especial al
personal del área de la salud. Al ser la maleta didáctica empleada para terapias cognitivas por parte de los profesionales era necesario contar con una
guía que les explicara en un lenguaje más técnico los beneficios de cada
uno de los ejercicios.
Para facilitar el uso y préstamo del material en la cartilla se pueden encontrar
los mecanismos de juego, elementos a emplear en cada actividad, al igual
que algunas fichas para llevar seguimiento del impacto que genera en un
paciente.
Estructura de la maleta
Uno de los objetivos de la maleta didáctica es propender por el bienestar y
unión familiar. Este propósito fue determinante a la hora de seleccionar la
apariencia y forma del contenedor.
La maleta está conformada por cuatro unidades que en conjunto representan una casa haciendo alusión al hogar y la familia. Cada unidad cuenta con
un manual que especifica la cantidad de elementos que contiene con el propósito de facilitar el préstamo en caso de ser empleadas por una institución
y/o personal de la salud.
El objetivo de esta estructura es permitir que sea transportada con facilidad
y que en el caso del personal de la salud (terapeutas) puedan según su paciente llevar una sola de las unidades.
Figura 23. Empaques y maleta didáctica Cuatro Estaciones.
428
Web y club de apoyo
El Alzheimer es una enfermedad que afecta tanto a los adultos mayores
como a sus familias y/o cuidadores, porque modifica sus estilos y calidad de
vida. Si no existe orientación respecto al cuidado de este tipo de pacientes
y del manejo de las relaciones familiares se puede desencadenar otro tipo
de reacciones como estrés del cuidador, intolerancia y disfuncionalidad
familiar.
Cuatro Estaciones es un proyecto que no propende por el bienestar
mental de los adultos mayores con Alzheimer. Cuatro Estaciones busca
la armonía de los pacientes con esta enfermedad y sus familias. Las relaciones afectivas, la buena comunicación, entre otros valores son aquellos que
permiten generar un ambiente cálido que facilita la estabilidad de todos
los miembros de un grupo.
Mediante una plataforma interactiva y haciendo uso de las herramientas
comunicacionales que nos brinda la tecnología Cuatro Estaciones cuenta
con un espacio que permite a las familias y personal de la salud compartir
sus experiencias frente a la enfermedad creando un ambiente de retroalimentación que permitirá a quienes hace parte de este grupo obtener
herramientas para hacerle frente al Alzheimer de manera acertada.
Figura 24. Página web Cuatro Estaciones.
Secciones de la página web
TIENDA: Mediante este enlace los usuarios pueden conocer la maleta didáctica, los beneficios de emplearla y los mecanismos para adquirirla. También
podrán encontrar otros artículos (objetos y juegos) para el adulto mayor y la
familia.
429
GALERÍA: En esta sección serán publicadas las fotografías de los concursos
y eventos que propendan por el bienestar de la familia, al igual que las imágenes que los usuarios deseen compartir a través de la página o enlaces a
redes sociales.
JUEGOS: A través de esta sección los usuarios podrán encontrar diversos
juegos mentales que reforzaran las actividades de la maleta.
NOTICIAS: Noticias, recomendaciones y toda la información que surja en
el medio y que favorezca el bienestar de la familia se publicara a través de
esta sección.
DIRECTORIO: Mediante el directorio los usuarios podrán encontrar los contactos de profesionales en diversas áreas como enfermeros, terapeutas, médicos, centros de estimulación, entre otras.
CLUB CUATRO ESTACIONES: El club es una herramienta para que las familias interactúen y cuenten sus experiencias frente a una enfermedad o situación que lo ha afectado. De esta manera pueden retroalimentarse y generar
cambios positivos.
REDES SOCIALES: Por medio de las redes sociales se pueden compartir enlaces de la página, concursos, juegos y experiencias. Este medio facilita la
interacción con diferentes grupos.
Cervera (2012) sustenta que el diseño de experiencias didácticas para el
adulto mayor obedece a una necesidad de distracción y de salud de este sector de la sociedad. Al rededor 35 millones de personas en el mundo sufren
esta enfermedad y la gran mayoría de ellos no se tratan de forma adecuada
por la falta de recursos en el medio.
Conclusiones y resultados
Aunque existen estudios y exámenes profundos la herramienta principal que
emplea la medicina para determinar el Alzheimer es un test con preguntas
de la cotidianidad que mezclan sus recuerdos pasados con los más recientes. De acuerdo a la ubicación y facilidad que tenga el adulto mayor para
responder se pude concluir si está perdiendo la memoria y que tan avanzada
puede estar la enfermedad.
Al ser el Alzhéimer una enfermedad neurodegenerativa que afecta a estas
células incapaces de recuperarse y presentar un componente genético hace
que quienes la padezcan no la puedan prevenir de manera directa. Sin em430
bargo; las actividades didácticas en donde se estimula la corteza cerebral
pueden retrasar el avance de las etapas del Alzheimer y permitir una mejor
calidad de vida al adulto mayor.
El emplear las terapias didácticas como un método para tratar la enfermedad
brinda múltiples beneficios: principalmente retrasa la degeneración de las
neuronas que permite que los procesos cognitivos, las habilidades y procesos mentales del adulto mayor se preserven ayudándoles también a sentirse
más útiles y a mejorar su autoestima.
El acompañamiento de la familia o del cuidador de un paciente con Alzhéimer es fundamental para determinar si las terapias didácticas están brindándole beneficios. Mediante un seguimiento en el cual se determine al
inicio de las terapias las habilidades con las que cuenta el adulto mayor y el
grado de dificultad que tiene al desarrollarlas en este punto y unas semanas
después de practicar los ejercicios se puede conocer la funcionalidad de las
terapias.
Las terapias didácticas no pueden remplazar del todo el uso de medicamentos para tratar la enfermedad. De acuerdo a los ejercicios que se realizan en
la terapia, de la etapa en la que se encuentre el paciente y de sus habilidades
se podría determinar si un tratamiento farmacológico es necesario.
Todas las actividades que estimulan la corteza cerebral y retan a las neuronas a procesar y recibir más información ayudan a retrasar la evolución del
Alzheimer. Los juegos mentales que implican concentración, observación
e involucran los sentidos son necesarios en un tratamiento didáctico. Para
el adulto mayor las acciones que realiza en su rutina diaria con el tiempo
empiezan a requerir de más atención por lo cual el emplear ejercicios en los
que se haga presente la secuencia de sus día a día y los elementos de uso
habitual pueden generar avances positivos en su mantenimiento.
No es conveniente emplear solo un tipo de ejercicios didácticos en un
adulto mayor que presente Alzheimer. Las etapas de esta enfermedad se
han clasificado de acuerdo al grado de olvido y dificultad en el desempeño de las actividades diarias del adulto mayor, sin embargo; los ejercicios didácticos no se pueden establecer de forma inmodificable según las
etapas porque dependen de las características de vida y habilidades del
individuo. Si es aconsejable que al empezar un tratamiento didáctico se
emplee un grado de dificultad que debe ir aumentando acorde al avance
que presente el paciente.
431
Lamentablemente la percepción que se tiene del adulto mayor en un gran
porcentaje de la sociedad es negativa porque se vincula con conceptos como
inutilidad, enfermedades, deficiencia entre otros aspectos que los ubican en
situación de desventaja.
Aunque no es inexistente si es bajo el número de proyectos que se realizan
enfocados a esta población y muy probablemente esto se debe a la falta de
conocimiento sobre sus cualidades.
Asumir una posición crítica desde el diseño gráfico es una actividad que
implica disciplina y más aún si se tratan aspectos que se salen de la zona de
confort de un diseñador como la enfermedad del Alzheimer.
La interdisciplinariedad en un proyecto es vital para obtener resultados funcionales, además permite fundamentar conscientemente cada uno de los
aspectos o detalles que los conforman.
La aplicación de las metodologías de diseño permite que los proyectos se
desarrollen de manera creativa, pertinente, estructurada y dinámica. Generando resultados directos y confiables, en la medida en que se puede desarrollar la etapa de comprobación, validando así los aciertos y desaciertos
en una premisa por desarrollar artefactos eficaces. De igual manera generar
prototipos permite tener más claras las ideas y acercarse con pasos
firmes a lo que se desea.
Para la eficiencia de un proyecto es necesario trabajar de la mano de los
componentes emocionales que se puedan presentar en el desarrollo.
Referencias
[1] Fontanillo, J. (2007) La enfermedad de Alzheimer y otras demencias, detección y cuidado en personas mayores. Madrid.
[2] Landreth, G. L. (2002). Play therapy: The art of the relationship. New York, NY: BrunnerRuttledge.
[3] Marín, J. (2003) Envejecimiento. Sociedad Española de geriatría y gerontología, 3 (1):
28-33
[4] O’Connor K. J., & Schaefer C. E. (1983). Handbook of play therapy. New York.
[5] Zavala, M. (2006) Social Functioning of Elderly. Ciencia y Enfermería, 7 (2): 53-62.
432
Influencia del diseño editorial en la comprensión de un texto,
análisis y criterios para facilitar la lectura
Adriana Acero Gutiérrez
[email protected]
Resumen
Los procesos de la escritura han ido evolucionando con el devenir del tiempo: de un trazo manual (como los manuscritos), a uno mecánico como la
imprenta (con el tipo móvil), y posteriormente a los sistemas fotográfico y
digital que hoy ofrecen una multitud de opciones para la elaboración de un
documento. De alguna manera, cualquier individuo que cuente con un dispositivo electrónico (llámese computadora, tableta, teléfono u otro), puede
componer un escrito. Sin embargo, muy pocos de estos textos son correctos,
ya que están mal diseñados dado que su construcción no considera el diseño editorial.
Desde sus orígenes el hombre ha tenido la necesidad de comunicarse, ya
sea por medio de expresiones como gestos y sonidos, o a través de otros
medios, como el dibujo y la escritura. Esta última, ha sido un recurso trascendental que traduce un lenguaje (el verbal) a otro (el escrito), conformado
por un particular sistema de signos ordenados secuencialmente.
Esta forma gráfica de expresar el lenguaje llamada escritura, sienta sus bases en la tipografía; la cual se puede entender como el arte y técnica del
manejo y selección de tipos (originalmente de plomo) para crear trabajos
de impresión. David Jury (2006:8), argumenta: “La tipografía y la escritura,
por su naturaleza, siempre se han entrelazado, puesto que la tipografía es
la disciplina y la práctica profesional que media entre el contenido de un
mensaje y el lector que lo recibe”.
El presente escrito pretende demostrar que la buena edición de un documento, ya sea impreso o digital, favorece su comprensión. Esto es posible
si se consideran aspectos como: la elección correcta de las fuentes, la organización de los elementos (textos e imágenes), la determinación de las
medidas (columnas, tamaños de letra, interlineados y márgenes, entre otros),
la jerarquía, así como la secuencia y la relación de un elemento con otro, a
partir de aspectos como la adecuación y la coherencia, además de tomar en
cuenta el tipo de lector al que va dirigido y el contenido del material escrito.
Por el contrario, podemos decir que un documento mal diseñado impide
una buena lectura, y por tanto, puede repercutir en una falta de compren433
sión. Debido a que el proceso de lectura se torna cansado y lento, al no
haber correspondencia entre los textos y las imágenes, el lector se distrae y
desorienta llegando al fastidio e incluso a la desesperación.
Palabras Clave: Tipografía, lenguaje, escritura, lectura, diseño editorial,
comprensión.
Introducción
El propósito de este escrito es dar a conocer las cualidades que tanto la
tipografía, como el diseño editorial pueden ofrecer para hacer más comprensible una lectura, partiendo de su funcionalidad. Para tal fin, se analizarán y describirán los elementos que facilitarán la leibilidad[1] de un texto,
considerando que con estos recursos el lector conseguirá prestar una mayor
atención y concentración en el escrito, contribuyendo a una mejor comprensión del mensaje.
Sin duda, para el ser humano una de las necesidades primordiales es la
de comunicarse, y esta acción permite considerarlo un ser social. El poder
transmitir ideas y pensamientos de diferentes formas, ya sea a través de gestos y señales, o bien de un modo más estructurado –por medio del lenguaje
oral y el lenguaje escrito- ha permitido que el hombre se desarrolle y evolucione conformando nuevas y mejores formas de convivir.
Evolución de la escritura y sus aspectos formales
A lo largo de la historia han surgido y evolucionado varios inventos, que
por su importancia es conveniente tomarlos en cuenta, pues estos son parte
imprescindible de nuestro presente. Uno de ellos fue la escritura,[2] y para
poder comprender lo que hoy en día significa ésta – y específicamente la tipografía- es necesario revisar y estudiar su evolución. Podemos decir que la
escritura parte del IV milenio a.C. con la de tipo cuneiforme,[3] y se extiende
hasta nuestros días con los sistemas digitales que prevalecen como una parte
vital de nuestro proceso de comunicación.
1. Leibilidad. El concepto de leibilidad va íntimamente relacionado con el concepto de legibilidad. Leibilidad se
refiere a la capacidad de comprender una composición con el mínimo de cansancio. En otras palabras, permite
captar el mensaje que lleva una composición sin mayor esfuerzo, siempre y cuando el texto esté bien diseñado.
https://coerulea.wordpress.com/2007/09/23/legibilidad-y-leibilidad-dos-conceptos-aparentemente-olvidados-porlos-disenadores/
2. Escritura. Del latín scriptüra, el concepto de escritura está vinculado a la acción y las consecuencias del verbo
escribir, que consiste en plasmar pensamientos en un papel u otro soporte material a través de la utilización de
signos. Estos signos, por lo general, son letras que forman palabras. http://definicion.de/escritura/
3. Cuneiforme. (Del lat. cunêus, cuña, y -forme). adj. De forma de cuña. U. más referido a ciertos caracteres de
forma de cuña o de clavo, que algunos pueblos de Asia usaron antiguamente en la escritura. Real Academia
Española.
434
Los pictogramas[4] -como primeros signos- consistían en representaciones de
objetos, a los cuales se les reconocía de una manera común, y gracias a ello,
fue posible la transmisión de algún mensaje. Posteriormente, estos signos
evolucionaron y se convirtieron en ideogramas los cuales ampliaban sus
significados asociando no sólo un objeto, sino ideas más completas y a la
vez abstractas. Figuras 1 y 2.
Figura 1. Tablilla con escritura cuneiforme. Recuperado el 25 de enero de 2015. http://
www.eluniverso.org.es/2014/06/que-historias-3/.
Figura 2. Escritura egipcia. Fotografía: Adriana Acero.
Con el paso de los siglos, esos símbolos pictóricos comenzaron a significar
el sonido del objeto descrito, convirtiéndose en escritura fonética, de esta
manera podía transmitirse el lenguaje oral entre las personas. En un principio los signos eran demasiados en cuanto a su número, hasta 560 en el caso
de los asirios.[5]2De relevante importancia es la escritura egipcia que aun
siendo un sistema pictográfico (dado a través de los jeroglíficos), diversifica
la escritura asignándole distintas funciones: la hierática (religiosa) y la demótica (del pueblo). A su vez, los fenicios recibieron de los egipcios la escritura cuneiforme, la cual transformaron para convertirla, posteriormente,
en el alfabeto occidental. Figura 3.
4. Pictograma. (Del lat. pictus, pintado, y -grama).1. m. Signo de la escritura de figuras o símbolos.
5. Asirios. (Del lat. Assyrîus, éste del gr., y éste del acadio aššurû). 1. adj. Natural de Asiria. U. t. c. s. 2. adj.
Perteneciente o relativo a este país de Asia antigua. 3. m. Lengua asiria. Real Academia Española.
435
Figura 3. Alfabeto fenicio. Recuperado el 19 de junio de 2015. https://images.search.yahoo.
com/search/images
Fueron los griegos quienes, entre el año 1000 y el 700 a.C., tomaron los
caracteres fenicios y los convirtieron en formas artísticas de gran armonía y
belleza, con trazos uniformes y formas geométricas variadas.
Figura 4. Relación entre los alfabetos griego y romano. Recuperado el 3 de enero de 2015.
http://www.easyvectors.com/browse/other/ben-greek-alphabet-clip-art.
Más adelante, durante la Edad Media, los documentos se hacían por medio
de manuscritos, en los cuales se utilizaban diversos estilos caligráficos como
el romano, uncial y semi-uncial, fraktur o textura, que al ser hechos a mano
requerían impresionante habilidad y lograban una gran belleza. El diseño de
estos libros combina capitulares[6] ilustradas a color con el texto. Figura 5.
6. Capitulares. adj. Impr. Dicho de una letra: Que empieza el capítulo de un libro, o un párrafo, cuando es resaltada
en tamaño o por algún adorno. Real Academia Española
436
Figura 5. Recreación de una página medieval. Recuperado el 5 de junio de 2015. http://
elhurgador.blogspot.mx/2013/05/el-libro-de-horas-de-sforza-manuscrito.html.
Un suceso que impacta de manera singular al desarrollo de la escritura, es la
invención de la imprenta a mediados del siglo XV, por Johannes Gutenberg,
quien suplió los manuscritos por documentos impresos en serie.
Con este invento, se produjo un crecimiento en la producción y difusión de
libros, ampliando los conocimientos dentro de la sociedad. Su uso cada vez
más extendido, entre los siglos XVII y XVIII, hace surgir un gran número de
estilos y variantes tipográficas predominando los estilos romanos y góticos,
también comienzan a darse los principios de estandarización en las medidas tipográficas.
Fue con la revolución industrial a finales del siglo XVIII, cuando se establece
un ciclo de producción y un aumento en la población urbana que aprendía
a leer, lo que estimuló un poder de compra y mejoras tecnológicas haciendo
posible la creación de numerosos caracteres más comerciales. En esa época
predominaron los tipos pesados o bold, con efectos tridimensionales y texturas en las letras. Figura 6.
Figura 6. Algunos estilos tipográficos que se usaron durante la Revolución Industrial.
437
La tipografía moderna sienta sus bases en el primer tercio del siglo XX, ahí se
dieron los primeros pasos para romper con los modelos tipográficos tradicionales. En países como Italia, Suiza, Holanda o Rusia, surgieron movimientos
de vanguardia que exploraron las posibilidades de la tipografía como vehículo de expresión y de comunicación. Los movimientos culturales como el
Futurismo, Dada, Neoplasticismo y Constructivismo encontraron en la tipografía un lugar para la experimentación, alejándose de los medios artísticos
tradicionales.
Uno de los acontecimientos que contribuyó notablemente a la evolución de
la tipografía y sus aplicaciones fue la fundación de la Bauhaus,[7]1escuela de
artesanías, diseño, arte y arquitectura que en 1919 propugnó por un nuevo
lenguaje tipográfico, destacándose por el uso de tipografías sans-serif,[8] y
la creación de nuevos alfabetos y una serie de investigaciones relacionadas
con la composición tipográfica. Figura 7.
Figura 7. Diseño tipo constructivista de la corriente Bauhaus. Recuperado el 5 de junio de
2015. http://www.catalogodiseno.com/2013/11/02/clasicos-el-diseno-grafico-de-la-bauhaus/.
En los años sesenta -del siglo pasado-, la informática revolucionó algunos
procesos de producción tradicionales modificando varias esferas del diseño, dicho descubrimiento se ha convertido, hoy en día, en un elemento
imprescindible para la comunicación humana. En la producción editorial y
la tipografía los cambios han sido tan profundos que más bien, se han ido
adaptando a las necesidades de uso que las exigencias del siglo XXI imponen. Ver figura 8.
7. Bauhaus. Escuela de Diseño alemana desarrollada en las ciudades de Weimar, Dessau y Berlín entre los años 1919
y1933. Recuperado el 5 de enero de 2105. http://www.portaldearte.cl/terminos/bauhaus.htm
8. Sans-serif. Aquellas tipografías que no disponen de remates. Recuperado el 6 de enero de 2105. http://es.wikipedia.
org/wiki/Tipograf%C3%ADa
438
Figura 8. Caracteres digitales. Recuperado el 5 de enero de 2015. Tomado del libro “Manual de Producción Gráfica. Recetas”.
Consideraciones acerca del texto
Históricamente la escritura ha evolucionado de una manera integral, desde su construcción formal hasta su aplicación práctica, en el aspecto de
composición y de diseño; considerando también, la influencia que para su
concepción han tenido los aspectos ideológico y tecnológico. Dados esos
principios, puede entenderse lo imprescindible que es para la comunicación
humana el uso de la escritura y el texto como producto de la misma.
El texto, se compone de letras que ordenadas secuencialmente forman palabras, éstas a su vez, forman frases y oraciones. En general los textos nos
brindan información que se traduce en conocimientos. En un escrito, tan
importante es el contenido como la forma, pues su combinación puede lograr una óptima comunicación; es decir, un texto también expresa su mensaje a través de formas visuales. Un texto para poder ser leído con claridad
y fluidez debe poseer ciertas características, las cuales se analizarán más
adelante.
Por lo que respecta a su aspecto formal, cada signo del alfabeto, llamado
caracter[9] 1-incluye letras, números, signos matemáticos, de puntuación y
diacríticos-, se compone de trazos en forma de líneas: rectas, diagonales y
curvas, inscritas en figuras como el círculo, el cuadrado y el triángulo, y poseen una estructura en cuanto a peso, inclinación y proporción; todos estos
9. Carácter. Un carácter es cada una de las figuras que forman una familia tipográfica, incluyendo letras, signos
de puntuación, números, etc. Recuperado el 6 de enero de 2015. http://www.tiposconcaracter.es/vocabulariotipografico-ii/
439
aspectos, aunados al estilo,[10]1presentan ciertas particularidades que le dan
un valor propio a cada documento. De acuerdo a éstas el documento debe
presentarse de una manera estética y funcional, si por el contrario, el uso
de los elementos es inadecuado, puede resultar ineficiente y por tanto, sus
efectos serán negativos.
Cuando un documento es diseñado correctamente el lector percibe con claridad el mensaje que emite el escrito; en cambio, cuando está mal elaborado la sensación es de desagrado y confusión, de tal manera que puede
afectar notablemente la comprensión del texto.
Vale la pena mencionar que también existen diversos tipos de texto, y que
cada uno de ellos presenta características muy particulares, a manera de
ejemplo: no es lo mismo la lectura de un poema, que un texto literario; o un
artículo de revista comparado contra un artículo de periódico, cada uno de
ellos cuenta con su propia estructura y morfología. Ver figuras 9 y 10.
Figuras 9 y 10. Ejemplos de páginas de revista y periódico, en donde se observan diferencias morfológicas. Diseño de página Revista Tecnología & diseño Núm. 2, Adriana Acero; y
de periódico El País http://inhouseidiomas.blogspot.mx/2009/03/con-que-frecuencia-tu-leesel-periodico.html.
La tipografía y el diseño editorial en relación con el mensaje
Para que un diseño editorial[11]2pueda componerse de acuerdo a su contenido y significado, se debe partir de un análisis del mensaje, Baines y Haslam
(2002:104) describen cuatro enfoques de contenido a partir de los cuáles se
puede identificar un tipo de mensaje, una vez que sean conocidas sus características se puede resolver el diseño que mejor transmita dicho mensaje.
10. Estilo tipográfico. Las características que individualizan a cada alfabeto en su diseño. Recuperado el 6 de enero de
2015. http://www.taringa.net/posts/ciencia-educacion/12482562/Tipografia-Anatomia-Estructura-Clasificacion.html
11. Diseño editorial. Es la rama del diseño gráfico que se especializa en la maquetación y composición de distintas
publicaciones como libros, revistas o periódicos. Recuperado el 6 de enero de 2015. http://fido.palermo.edu/
servicios_dyc/encuentro2007/02_auspicios_publicaciones/actas_diseno/articulos_pdf/CE-121.pdf
440
Estos son:
“La documentación se ocupa de datos –el mensaje- y, por lo general,
proporciona el punto de partida. La documentación registra y preserva, y adopta numerosas formas: una carta, una memoria, un listado,
un billete, etcétera.
El enfoque analítico es adecuado para la presentación de la información compleja y, generalmente, constituye la base para cuadros,
diagramas, señalización, horarios, mapas, leyendas de símbolos, códigos, índices y similares. Esas actividades comparten raíces comunes
en cuanto a racionalidad, examen y disección de datos, así como de
comprensión del todo a través del análisis de las partes.
El enfoque conceptual busca la idea genial que englobe el mensaje.
Para algunos diseñadores éste, es su principal método de comunicación. El diseño conceptual se asocia particularmente con viñetas, publicidad, promoción y logotipos, aunque se utilice en todo el espectro del diseño gráfico…Mediante un enfoque reductor y a menudo
simplista, el grafismo conceptual apela a la inteligencia y confía en
establecer una complicidad entre diseñador y público que les permita
compartir la sutileza del juego de palabras.
El enfoque expresivo con él se pretende suscitar emociones en el observador. Como la música, que apela fundamentalmente al corazón:
éste procura la “reposición” emocional del oyente a través del color,
la identificación y el simbolismo. No siempre se aspira a la claridad
absoluta: este planteamiento del diseño es impresionista, poético y
lírico, invitando al espectador a reflexionar sobre el contenido.”
Al momento de diseñar, es muy importante que se entienda, perfectamente,
cuál de estos enfoques contiene el mensaje más adecuado para lo que se
pretende, y así poder tomar decisiones acerca de los elementos y la organización que debe formar el diseño editorial, ya que, la gama de posibilidades
es muy amplia y por tanto, el producto –llámese libro, revista o periódicodebe presentarse al lector de una manera mucho más práctica y eficiente. A
su vez, debe existir coherencia entre el contenido del mensaje y el diseño,
es decir, seleccionar y jerarquizar la información para organizarla y darle un
sentido lógico. No menos importante es la adecuación, esta se refiere a la
manera en la cual el mensaje gráfico debe adaptarse a las reglas formales y
de composición que marcan los diferentes géneros editoriales.
Respecto a la producción de un libro argumentan Baines y Haslam
(2002:105):
441
En la impresión se ofrece al lector una información fija, tanto en el
tiempo como en lo referente a su aspecto, tal y como viene dictada
por los editores y diseñadores. Aunque suela darse por supuesto que
la impresión es una experiencia lineal y progresiva por definición, la
realidad es a menudo muy distinta. Por ejemplo, una vez producido
un libro, no existe control alguno sobre cómo se accede a él ni sobre
cómo se lee; esta cuestión se convierte en una relación particular entre
el lector y el autor.
Lo expuesto por Baines y Haslam indica la manera en que un diseño editorial debe concebirse, es decir, con toda propiedad debido a que una vez
expuesto al lector, la figura del diseñador desaparece y entonces el documento adquiere un valor propio.
Además de identificar el sentido del mensaje de un escrito, al diseñar una
página deben tomarse en cuenta varios aspectos de carácter formal como
son: la elección correcta de las fuentes tipográficas en su estilo y tamaño, la
organización de los elementos (texto e imágenes), la determinación de las
medidas de columnas, márgenes y medianiles,[12] el espaciado interletra e
interlínea, así como el color, entre otros factores.
Para conformar el diseño de un texto deben tomarse en cuenta las características esenciales de la o las tipografías que se usarán; cuando se trata de
un manuscrito extenso, éste debe ser funcional, es decir, que debe tener la
facultad de ser leído de una forma óptima, privilegiando la funcionalidad
antes que la estética.
Al respecto Adrián Frutiger (2007:16) refiere que una tipografía debe estar
hecha de tal forma que nadie repare en ella. Lo que quiere decir que, en
la medida que la tipografía no sea un distractor para el lector, ésta cumple
eficientemente su función.
Partiendo de la tipografía como elemento esencial de un texto, su elección
debe hacerse con base en la legibilidad, en su composición dentro de la
página y en su estructura formal. Respecto a legibilidad, ésta puede definirse
como la capacidad que tiene un texto para ser leído con facilidad y rapidez.
Según algunos estudios, los aspectos más importantes para que se pueda
conseguir este objetivo son:
• Seleccionar el estilo de las fuentes tipográficas[13]2correctas de acuerdo
al tipo de mensaje. La tipografía, por su estilo, tiene una personalidad
12. Medianil. (De mediano e -il). m. Impr. Crucero más angosto de la forma o molde, que deja el espacio blanco de
las márgenes interiores. Real Academia Española.
13. Fuente tipográfica. Es un conjunto de caracteres en un cuerpo y en un estilo.
442
que representa un momento histórico y un aspecto estético.
• Tomar en cuenta su estructura formal, los trazos –ya sean delgados,
gruesos o combinados, las proporciones que forman cada parte de un
signo -letra, número, etc.- deben ser claras y equilibradas. Se recomienda emplear tipografía en minúsculas porque los rasgos entre cada carácter son más diferenciables entre sí; el cerebro puede reconocer de
mejor manera cada una de las letras y así evitar confundirse. También
es conveniente emplear fuentes de las llamadas tipo romano, que presentan trazos modulares –gruesos y delgados- como la letra Times, por
ejemplo, pues por motivos similares a lo anterior, sus rasgos permiten
diferenciarlas fácilmente, cosa que no ocurre en las de tipo palo seco
cuyos trazos son uniformes y algunas de sus letras son parecidas entre
sí. Figuras 11 y 12.
Figuras 11 y 12. Fuentes de tipo romano y palo seco.
Con relación a su proporción, los tamaños son muy importantes, la letra
no debe ser demasiado estrecha o demasiado ancha, es mejor un trazo
recto y regular; por otro lado, su parte central –o cuerpo de la letradebe ser amplio, y sus trazos ascendentes y descendentes no deben ser
demasiado cortos. Véase figura 13.
Figura 13. Anatomía y algunas partes de la tipografía. Recuperado el 5 de enero de 2015.
http://www.desarrolloweb.com/articulos/images/diseno/7/partes_1.gif.
• El tamaño o puntaje[14]1debe ser elegido de acuerdo a las medidas generales del documento como: cantidad de texto, tamaño de la hoja,
anchos de columna, espaciado entre caracteres y color, entre otros. Para
la mayoría de los textos de lectura, los tamaños no deben ser menores
a 8 puntos ni mayores de 12; aunque pueden existir algunas excepcio14. Puntaje tipográfico. Medida de la letra, que se obtiene a partir de su altura. Se mide en unidades de puntos; un
punto equivale a 0.376 mm. Recuperado el 6 de enero de 2015. http://www.delyrarte.com.ar/sitio/tipomedi2b.html
443
nes cuando se trata de lecturas para niños o de personas con debilidad
visual.
• Los espacios de interletra, interlínea e interpárrafo, también son muy
importantes; estos deben proponerse acordes a las medidas del tipo, así
como de la página, anchos de columna, etc. Con relación a este último,
no se recomienda usar columnas muy delgas, ni muy anchas, pues en
el primer caso la lectura se “corta” continuamente provocando un fastidio, y en el segundo, la lectura es tan larga que puede provocar fatiga,
además se convierte en un problema cuando se trata de llevar una lectura entre renglón y renglón, pues es común que el lector se confunda
de línea regresando dos veces a alguna de ellas, o por el contrario se
salte algunas.
Existe una fórmula matemática que ofrece una medida óptimo de lectura, ésta fórmula dice que de acuerdo al tamaño de la letra se puede
escribir de manera continua el alfabeto –en minúsculas- de la a la z y
lo que éste mida es el ancho correcto, entonces, el ancho de columna
óptimo será una y media veces el largo de ese alfabeto; de otra manera
también existe la recomendación de que en un ancho de columna se
cuenten entre 7 y 11 palabras –en promedio- y así se asegura el mejor
tamaño. Figura 14.
Figura 14. Ejemplos de ancho de columna.
De igual manera la importancia de la organización y disposición de los
elementos se convierten en parte esencial de un buen diseño. El diseño
editorial se establece a partir de la combinación de textos e imágenes que
se disponen en una página. Por lo general, en un impreso existen dos tipos
de lectura o visión de la información las cuales implican una atención del
lector, Raffaele Simone (2001:32-33) las describe de la siguiente manera:
• Visión alfabética: Denominó así a la modalidad de la visión que permite adquirir informaciones y conocimientos a partir de una serie lineal de
444
símbolos visuales, organizados uno tras otro, de la misma manera que
los signos alfabéticos en una línea de texto.
• Visión no alfabética: Esta visión no ser lineal, pues no está obligada a
seguir una sucesión ordenada en su movimiento. Es decir, son una serie
de estímulos visuales que se presentan todos a la vez y entre los cuales
es difícil establecer un orden, creando diversas posibilidades de lectura
y de apreciación. Figuras 15 y 16.
Figura 15. Ejemplo de página con una visión alfabética o secuencial Revista Tecnología &
diseño Núm. 3.
Figura 16. Página en donde se muestra una visión no alfabética o simultánea. Enciclopedia
Educación para primaria.
445
La clave para un buen diseño editorial radica en organizar los elementos de
una manera lógica, cuando se trata de un documento meramente textual,
es más sencillo resolverlo pues la direccionalidad y secuencia de la información es sucesiva –lineal-; sin embargo, cuando se trata de un documento
simultáneo, la complicación es mayor, pues suele suceder que el lector,
entre tantos elementos dispuestos a la vez, se confunda y no los relacione
de forma correcta.
Para organizar la información existe el recurso de la “retícula” o “grid”, que
es una serie de líneas horizontales y verticales determinadas por el diseñador para colocar los elementos visuales, esta retícula no es visible para el
lector, pero de una manera inconsciente le permite percibir un orden que le
conduce a apreciar una lectura más fluida.
Derivado de lo anterior, y de igual importancia, es considerar la jerarquía de
la información; ésta debe indicar claramente cuál es el orden de la lectura;
lo que puede conseguirse diferenciando la información para crear distintos
niveles. Así el lector podrá realizar un recorrido visual adecuado y sin contratiempos.
Algunos ejemplos de estos niveles son: Destacar el título y presentar los
subtítulos como subordinados,[15] diferenciar el cuerpo de texto[16] del resto
de la información, apoyar las imágenes con pies de imagen, dar forma y ubicación a las notas a pie de página –y a cada uno de los elementos-, etc. En lo
textual, esto se logra a partir de las variantes tipográficas, es decir, el tamaño,
la inclinación, el peso y el color que son características formales que hacen
las veces de “señales” interpretadas por el lector. Figura 17.
15. Subordinado. (Del part. de subordinar). adj. Gram. Dicho de una oración: Que depende de otra. U. t. c. s. Real
Academia Española.
16. Cuerpo de texto. Texto principal de cualquier documento; el cuerpo del documento. También se refiere a
cualquier texto utilizado para simular cuerpo de texto, por ejemplo en la preparación de maquetas de presentación.
Recuperado el 7 de enero de 2015. http://www.adgcolombia.org/category/archivo/diccionario-de-disenografico?snap=C
446
Figura 17. Diferenciación en la información y orden de lectura que muestra esta página de
la revista Tecnología & diseño Núm. 2.
Además de todo esto, el diseño se encuentra regido por varias normas editoriales que se refieren a una serie de lineamientos establecidos para poder ser
interpretados por el lector. Argudín y Luna (2001:152) en su libro Aprender
a pensar leyendo bien, emplean como estrategia para la comprensión de un
texto, lo siguiente:
Frecuentemente los autores ofrecen signos para resaltar los puntos
principales: los subrayados, las negritas, las cursivas y las preguntas
retóricas (preguntas que hace el autor, aunque conoce sus respuestas). También pueden resaltar la información principal apoyándola con
listados.
Existen muchas otras “marcas” reconocibles por el lector como: emplear
itálicas[17] para anglicismos, indentar[18] un texto cuando se trata de una cita,
iniciar sin sangría[19] el primer párrafo del capítulo de un libro, etc. Todos
ellos son registros visuales establecidos a partir de códigos que permiten al
lector interactuar con el escrito ofreciéndole la posibilidad de comprender
su contenido.
17. Itálica. La letra cursiva o itálica es un estilo de escritura cuyas características más comunes son la inclinación de
sus letras. Recuperado 6 de enero de 2015. http://es.wikipedia.org/wiki/Cursiva
18. Indentar. Indentación es un anglicismo (de la palabra inglesa indentation) de uso común en informática,1 que
significa mover un bloque de texto hacia la derecha insertando espacios o tabuladores, para así separarlo del
margen izquierdo y mejor distinguirlo del texto adyacente. Recuperado el 6 de enero de 2105. http://es.wikipedia.
org/wiki/Indentación.
19. Sangría. Impr. Acción y efecto de sangrar (empezar un renglón más adentro que los otros). Real Academia
Española.
447
Conclusiones
Como podemos observar, muchos son los factores que intervienen en un
diseño editorial; y si bien, un documento –sea de la naturaleza que fueretiene sus propias características, el diseño se vale de varios recursos para
hacer más fácil una lectura, haciendo posible que el lector se concentre en
el escrito, para favorecer su comprensión.
La labor que el diseñador gráfico, y específicamente el diseñador editorial
tiene, es compleja y delicada, porque tras la elección que realice de los elementos y de su organización, obtiene un producto de diseño que debe ser
un medio para ofrecer al lector la posibilidad de comprender, en un sentido
visual y de contenido el mensaje de un escrito.
La tipografía como componente esencial de un texto, y el diseño editorial
como el resultado de la combinación de varios elementos en un medio, son
piezas muy significativas para la comunicación. A través de su evolución y
desarrollo histórico ha sido posible entablar conexiones interpersonales de
gran trascendencia, a tal grado que hoy en día el medio no sólo es físico,
sino virtual –a partir de la tecnología digital- y la difusión e inmediatez de
la información han superado, en algún sentido, al documento impreso; sin
embargo, actualmente la relevancia que la tipografía y el diseño siguen teniendo tanto en un impreso, como en un medio digital, es de igual manera
importante, pues en ambos casos el principal objetivo es resolver de manera
eficiente la transmisión de conocimientos.
Referencias
[1] Acero, A. (2004). Exploración editorial en textos argumentativos. Tesis para obtener el
grado en Diseño Editorial. México: Universidad Anáhuac.
[2] Argudín, Y. Luna, M. (2001). Aprender a pensar leyendo bien. Colombia: Universidad
Iberoamericana.
[3] Baines, P. Haslam A. (2002). Tipografía: función, forma y diseño. España: Gustavo Gili.
[4] Blackwell, L. (1998). Tipografía del siglo XX. España: Gustavo Gili.
[5] Frutiger, A. (2007). El libro de la tipografía. España: Gustavo Gili.
[6] García Fernández, D. (1996). Manual de técnicas de lectura y análisis de textos. México:
Universidad Anáhuac.
[7] Gracida Juárez, Y. Galindo Hernández, A. B. (coordinadoras) (1998). Comprensión y
producción de textos. México: Edere
[8] Fawcett-Tang, R. (2004). Diseño de libros contemporáneo. España: Gustavo Gili.
[9] Johansson, K. Lundberg, P. Ryberg, R. (2004). Manual de producción gráfica: recetas.
España: Gustavo Gili.
[10]Martínez Leal, L. (1990). Treinta siglos de tipos y letras. México: Tilde.
[11]Revista Tecnología & diseño, Núm. 3. México: Universidad Autónoma MetropolitanaAzcapotzalco
448
El impacto de la educación básica en México en el desarrollo
creativo del estudiante
Elvia Palacios Barrera
Universidad Autónoma Metropolitana - Azcapotzalco, Departamento de
Procesos y Técnicas de Realización
[email protected]
Resumen
El Tronco General de Asignaturas (TGA) de las carreras de Diseño en la
Universidad Autónoma Metropolitana Azcapotzalco, (UAM) se enfrenta a la
realidad de que los alumnos que ingresan a la Universidad, en un porcentaje
alto no han tenido una formación creativa previa.
Esto es comprensible, pues al analizar la historia de la educación en México
se revela que existe una falta o nula capacidad para cumplir con los objetivos básicos de su razón de ser, establecida en el segundo párrafo del artículo
3º de la Constitución Política de los Estados Mexicanos, que establecen:
“......La educación que imparta el Estado tenderá a desarrollar armónicamente, todas las facultades del ser humano y fomentará en él, a la vez, el
amor a la patria, el respeto a los derechos humanos y la conciencia de la
solidaridad internacional, en la independencia y en la justicia.....”. (Reformado mediante decreto publicado en el diario oficial de la federación el 10
de junio de 2011).
La falta de compromiso con lo establecido en el artículo 3º, particularmente
cuando se establece que la educación deber “desarrollar armónicamente,
todas las facultades del ser humano”, ha impactado de manera directa en
la formación de los alumnos, con métodos didácticos muy tradicionales que
privilegian el desarrollo cognitivos, se ha prestado poca o nula atención a
los procesos creativos.
El presente artículo muestra algunos antecedentes histórico y sociales que
enmarcan la realidad nacional y que ha permeado a la educación en México durante años. Así como el resultado de lo que esto representa en el
desarrollo de las habilidades creativas en los estudiantes.
Con el ingreso a la globalización y el uso de las nuevas tecnologías, se enfrenta un mundo sin fronteras culturales y hoy por hoy a un nuevo tipo de
alumnos, con acceso a mucha información, pero con poca capacidad para
discriminar, analizar y criticar. Poco reflexivos, y evidentemente poco pro449
positivos, creativos e innovadores. Poniendo en evidencia que para nuestro
país, en nuestro contexto, los efectos globales pueden no ser muy alentadores.
“Sin lugar a dudas, la globalización –dada la complejidad de sus procesos internos, el hecho de ser un fenómeno inacabado y las consecuencias todavía impredecibles, especialmente en el campo social–
impone una serie de retos y desafíos a los sistemas educativos de la
región.
Pero también plantea una serie de exigencias éticas que, en el caso
latinoamericano, se han convertido en auténticos déficits estructurales
que es necesario revertir, con responsabilidad social, amistad cívica
y compromiso activo de todos los actores involucrados.” (Cornejo,
2012: 35)
Esta pues, representa una reflexión en donde se analiza el contexto bajo
el cual, la mayoría de los alumnos que ingresan a la educación superior,
específicamente a las Carreras de Diseño, se ven impactados. Alumnos con
deseos de aprender, innovar y crear pero con pocos aprendizajes adquiridos
previamente que les auxilien a desarrollar dichos aprendizajes, representando un reto para los docentes, quienes se ven en la necesidad de replantear
sus métodos didácticos aplicados en su labor docente, y hacer conciencia
que la educación puede ser un disparador o un ancla en el desarrollo creativo del ser humano.
Palabras Clave: Educación tradicional, educación artística, globalización,
nuevas tecnologías, creatividad.
Antecedentes históricos
El Tronco General de Asignatura (TGA) comúnmente llamado Tronco Común (TC) de las carreras de diseño en la UAM Azcapotzalco, se enfrenta a
la realidad de que los alumnos que ingresan a la Universidad, en un porcentaje alto ha recibido una formación creativa previa muy pobre, es decir,
en su formación básica y media superior, no tuvieron como una prioridad la
enseñanza de las diferentes manifestaciones artísticas, plásticas o creativas,
debido a que generalmente la enseñanza en esos niveles se enfoca en el desarrollo de las habilidades cognitivas dirigidas a la lógica, las matemáticas,
la memorización y repetición. Esto se puede comprender si se analiza de
manera sencilla la historia de nuestra nación.
La educación en México ha tenido un papel desafortunado, desde sus inicios. La Constitución Mexicana de 1857significó un parteaguas en el siglo
450
XIX; sostenía el principio básico del liberalismo político: igualdad ante la
ley, con lo cual acabó con los fueros y los privilegios del ejército y la iglesia.
En dichas circunstancias, los individuos (en realidad la sociedad) tuvieron la
ocasión de cambiar radicalmente el monopolio que la Iglesia había ejercido
durante siglos en la educación, se comenzó a vislumbrar la construcción de
una Republica de libertad bajo los derechos del hombre. Sin embargo faltó
conocimiento, como menciona Ignacio Altamirano (1997).[1]
“Triunfamos y fundamos republicas, pero la carencia de instrucción
se haría sentir enseguida (…) las constituciones no podrían arraigarse,
la federación no era entendida (…) y el pueblo se dejaba arrebatar
derechos que no entendía”(p.366)
Tuvo que pasar casi un siglo (1934) para que el Artículo 3º se viera como una
versión aceptable del derecho a la educación
Aboites (2012) comenta que alrededor de 1968 el crecimiento y el apoyo a
la educación se ve menguado por el autoritarismo y burocratismo de Díaz
Ordaz, este momento en el que la educación básica sufre una ruptura que
ya se venía dando, pues comienzan a aparecer intereses económicos y de
poder, más que de un proyecto educativo nacional.
Mas adelante se comienzan a introducir políticas y acuerdos internacionales, es en 1983 con el mandato de Miguel de la Madrid, cuando se aceptan las recomendaciones del Fondo Monetario Internacional, generándose
cambios y ajustes provocando una reducción significativa en la matricula de
educación básica.
Para 1992 con el ex presidente Carlos Salinas de Gortari se firma el tratado
de Libre Comercio de América del Norte (TLCAN) en el que se ve favorecida
la participación de inversionistas y empresas en la educación, con lo que se
desdibuja el papel y las responsabilidades del Estado frente a la educación y
se fortalece el concepto de educación privada.[2]
Para 1993 Se tramita el ingreso a la OCDE (Organización para la Cooperación y el Desarrollo Económicos) y esto obliga a la nación a realizar los
cambios que se requieren para pertenecer a esta.[3]
1. Aboites, Hugo (2012) “El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del
siglo XXI” en Revista Mexicana de Investigación Educativa, no.53 Abril. Junio, pp.366
2 Aboites, Hugo (2012) “El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del
siglo XXI” en Revista Mexicana de Investigación Educativa, no.53 Abril. Junio,. 372
3. Aboites, Hugo (2012) “El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del
siglo XXI” en Revista Mexicana de Investigación Educativa, no.53 Abril. Junio,, 372
451
Sin embargo el ser parte de esta organización no ha garantizado nada en
aspectos de educación según los resultados de las evaluaciones PISA[4] publicados por ADN[5] político de CNN.[6]
Figura 1. Resultados de Examen evaluación PISA 2012.
Apoyando lo anterior Cornejo comenta:
Respecto de estos últimos aspectos un indicador elocuente son los
bajos resultados obtenidos por los estudiantes de todos los países latinoamericanos en las pruebas estandarizadas como PISA (por sus siglas
en inglés, Programme for International Student Assessment) y TIMSS
(Trends in International Mathematics and Science Study) si se los compara con Europa y países del sudeste asiático. (Cornejo, 2012: 23)
Panorama actual
Las últimas décadas se caracterizan por una serie de cambios profundos en
todos los ámbitos humanos, y evidentemente la educación no queda fuera, se
comienza a escuchar el concepto de globalización. Cornejo (2012) menciona como algunas consecuencias de la globalización, a una sociedad regulada por el mercado, surgimiento de las sociedades del conocimiento, transformación de la naturaleza del trabajo, uso intensivo de nuevas tecnologías,
mundialización del estilo de vida, expansión de las comunicaciones.[7]
4. por sus siglas en inglés, Programme for International Student Assessment
5. aDn político, Sección de CNN.com
6. Cable News Network (en español: Cadena de Noticias por Cable), más conocido por sus siglas (CNN)
7. Cornejo Espejo Juan (2012) “Retos impuestos por la Globalización a los sistemas Educativos Latinoamericanos” en
Revista Mexicana de Investigación Educativa, no.52 Enero - Marzo, pp.17,18
452
Así a través del tiempo la educación en México, principalmente el nivel básico, ha sufrido el embate del autoritarismo, de los acuerdos internacionales
y por último las exigencias y competencias de la globalización. (Cornejo,
2012:17,18)
Bajo este contexto educativo, es difícil observar siquiera una concepción de
educación integral, que considere aspectos de desarrollo artístico, deportivo
y cultural.
Tenemos como país, una estructura todavía muy tradicional y anticuada en
los procesos de educación y de enseñanza aprendizaje, estos no permiten
en cierto sentido, que se desarrollen otros aspectos que los seres humanos
necesitamos habilitar, específicamente el aspecto de la creatividad.
La educación tradicional[8] deja poco espacio para lo improvisado e imaginativo, inclusive cuando un niño se atreve a romper las reglas del salón,
haciendo cosas que evidentemente se desarrollan de manera creativa, se le
etiqueta o en el peor de los casos, se llega a discriminar, porque simplemente se sale de las “reglas establecidas” dentro del salón.
Dr. Mauro Rodríguez Estrada fundador de AMECREA (Asociación Mexicana
de la Creatividad) comenta,
“Es común decir, que a lo largo de los últimos siglos la educación escolar, no solamente en las escuelas sino como sistema, ha sido parcial o
miope… Se ha preocupado tanto de los aspectos racionales y lógicos,
que ha descuidado aspectos emotivos y creativos” (Rodríguez, 1997:
6)
Es imperativo que en los intentos de reconstrucción nacional se incluya la
educación, pero no sólo en cuestiones de número de ingreso, sino que se
ofrezca una educación abierta a la creatividad e inteligencia, para poder
tener una participación ciudadana y democrática. (Aboites 2012:85)[9]
La clave entonces, es tener una educación en la que converjan ambos aspectos lo creativo e intelectual. El ser humano es un ser integral y en la actualidad la cuestión artística se ha menospreciado.
8. El modelo educativo tradicional se centra en la elaboración de un programa de estudios, sin demasiados elementos
adicionales ya que no se tienen en cuenta de forma explícita las necesidades sociales ni la intervención de
especialistas, entre otros factores. Toda la información en: Definición de modelo educativo - Qué es, Significado y
Concepto http://definicion.de/modelo-educativo/#ixzz3bOYwhSIm
9. Aboites, H. (2012) “El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del
siglo XXI” en Revista Mexicana de Investigación Educativa, no.53 Abril. Junio, pp.85
453
Un aspecto importante que no se puede dejar pasar, es el fenómeno de la
globalización, con sus consecuencias y bondades sin embargo, para nuestro
país, es mucho más fácil que esto nos golpee de manera negativa, debido a
que se necesita también voluntad política para hacer cambios significativos
de fondo.
Si el mercado laboral es el que está marcando los lineamientos a futuro,[10] este
buscará implementar y apoyar los conocimientos que le permitan continuar
con este proceso de control económico, y definitivamente el aspecto creativo o artístico, no está (al menos para nuestro país) dentro de esta planeación
respaldando esta idea, Waisburd, G. y Sefchovich G. (1997) comentan:
“Uno de los objetivos de la educación es el desarrollo de las habilidades, potencialidades y los valores tanto personales como universales. La expresión plástica, concebida dentro de un marco filosófico
y metodológico para el desarrollo personal, debería ocupar un lugar
tan importante en el currículo como las matemáticas, porque cumple
con el objetivo de desarrollar las habilidades, las potencialidades y los
valores personales. El potencial creativo es innato y está en espera de
las condiciones para desarrollarse.”(p.12,13)[11]2
Como docentes podemos darnos cuenta que este potencial está ahí, sin embargo, vale la pena reconocer lo que están haciendo los medios de comunicación (en un mundo globalizado) con la niñez y juventud de nuestro país,
es probable que la capacidad creativa se estanque o se quede sepultada,
pues como se alcanza a percibir, solamente se están generando seres pasivos, observadores más que transformadores.
En un mundo sin fronteras culturales, se están formando criaturas violentas, consumistas, obesas, sin capacidad de analizar, criticar, reflexionar, y
mucho menos de ser creativos o propositivos. Una educación en la que el
interesa es sólo privilegiar la repetición, la memorización, la violencia etc. Y
no la formación integral de los individuos, las nuevas generaciones se están
convirtiendo en personas solitarias y sin herramientas para expresarse no
sólo de manera verbal sino a través de otras formas o maneras como pueden
ser las bellas artes.(Galeano,1995)[12], apoyando esta idea Waisburd, G. &
Sefchovich G.(1997) dicen:
“Hemos observado que los niños de nuestra época son más proclives
a percibir pasivamente con sus cinco sentidos en lugar de expresar de
forma constructiva sus ideas, sentimientos, impulsos y fantasías. Los
10. Cornejo Espejo Juan (2012) “Retos impuestos por la Globalización a los sistemas Educativos Latinoamericanos”
en Revista Mexicana de Investigación Educativa, no.52 Enero - Marzo, pp.17,18
11. Waisburd, G. y Sefchovich G. (1997) Expresión plástica y Creatividad. Guía didáctica para maestros. (2ª. Edición).
México: Ed. Trillas. P. 12, 13
454
niños viven prácticamente “conectados” a la televisión, a la radio y a
la computadora como si fueran sólo receptores de estímulos, puesto
que la mayor parte del tiempo no expresan ni desarrollan su potencial
creativo.”
La presencia abrumadora de las nuevas tecnologías en lo cotidiano, en
esencia representa ventajas en muchos aspectos de nuestra vida, sin embargo, es preocupante que puede provocar efectos comentados anteriormente.
Anzaldúa, (2012).[13] sostiene que: “Cada persona tiene habilidades diferentes y eso las hace formular sus ideas de manera singular en cuestión del dibujo, la habilidad para sintetizar y a su vez simplificar, nuestros aprendizajes
interfieren en la manera en como vemos, es decir vamos guardando imágenes y conceptos básicos que se estructuran, en los primeros años de edad
estos se asocian quizás a valores morales, como por ejemplo pelota – juego,
llorar – tristeza. Así también trazos largos o cortos que pueden representar
brazos o pies, estas imágenes que tenemos almacenadas interfieren en nuestra manera de observar y por lo tanto en el dibujo.”
En estas condiciones de los inminentes efectos en la educación algunas preguntas que deben hacerse los involucrados (docentes, alumnos y padres de
familia) acerca de los procesos educativos son: ¿Qué es lo que se está observando? ¿Qué es lo que se está almacenando en la cabeza de los niños si
sólo están conectados a medios electrónicos?
Se está perdiendo esa capacidad de sintetizar y simplificar como asegura
Anzaldúa (2012) Es lamentable ver como se está desperdiciando los mejores
años de la vida de los niños, para poder potencializar su capacidad creativa e innovadora a través de la expresión plástica, se están alimentando la
violencia, el desamor a la vida, falta de valores a través de las caricaturas,
videojuegos y programas televisivos.
Al menoscabar lo creativo o artístico, se deja de lado que las artes o la expresión plástica son una buena forma de ayudar al desarrollo integral de
las personas. Las habilidades artísticas y creativas suscitan el desarrollo
psicomotor, visual, estético, coadyuvando al mismo tiempo la capacidad de
síntesis y análisis e interpretación de la realidad.
Las Tecnologías de la Información y la Comunicación no solamente están
aislando a las personas de una interacción sana y una socialización adecuada, sino que también están haciendo creer que es la única herramienta con
13. Anzaldúa Uribe Enrique (2012). “Aprender a ver a través del dibujo” Boletín Espacio Diseño 203, Marzo 2012. Pp.
26-31
455
la que se puede crear o plasmar una imagen, olvidando que la creatividad es
un potencial que todos poseemos pero que simplemente el uso y abuso de
las TICS han ayudado a que este dormida o a punto de expirar.
La educación bajo el contexto global, está focalizada en las tecnologías
de y para la producción, desafortunadamente poniendo más atención en
los aspectos que proveen mayor rentabilidad y ganancia económica, (de
acuerdo con las leyes de mercado) y se están formando redes e interacciones
de aprendizaje, mediante las cuales se fortalecen la capacidad científicotecnológica, para incrementar la productividad y competitividad de las industrias.[14]
Como se observa pese a todos los cambios que han acontecido históricamente y en los últimos años por la globalización, la educación en México
en los diferentes niveles sigue siendo tradicional y mediocre lo que provoca
estancamiento en el crecimiento del país, en la evaluación, la vinculación,
la investigación, y en los aspectos que potencian el desarrollo de la creatividad, queda menos claro cómo la enseñanza del arte y la creatividad está
dentro de los “planes de educación” en México y si se apostará a ella como
una manera de integrar la formación en los niños y adolescentes mexicanos.
Con base a las aportaciones de Esteve, Cox y Vázquez, Miranda (2010[15] concluye en el capítulo que denominado, La reforma curricular de la educación básica que:
“Durante los últimos 20 años se han hecho diversos esfuerzos curriculares y de política para enfrentar lo que puede denominarse los
grandes retos del siglo XXI (Esteve, 2004). Se trata de problemas heredados por casi un siglo de expansión de la escolarización de masas
que el país experimentó en el siglo pasado, cuya orientación educativa
siempre estuvo a merced de las necesidades de legitimación y, muy
poco, en la órbita de la calidad de los resultados educativos (INEE
2004)[16] Problemas derivados del predominio de esquemas verticales
y centralizadores, y soportados por un fuerte dispositivo burocrático
que tuvo repercusiones de largo plazo en los estilos de enseñanza,
procesos de aprendizaje y resultados educativos.
Los esfuerzos de transformación curricular en el siglo XXI han buscado sin lograrlo, resolver el modelo predominantemente verbalista, la
memorización mecánica del conocimiento, las lógicas autoritarias de
14. Vega Jurado, Jaider et al (2011) “Las relaciones universidad – empresa: tendencias y desafíos en el marco
del espacio iberoamericano del conocimiento” en Revista Iberoamericana de Educativa, no.57 Septiembre –
Diciembre
15. Miranda L.F (2010) “Los grandes problemas de México” VII EDUCACIÓN, pp.52 Vázquez, R., 2005. La escuela a
examen. Las reformas educativas, más de cuatro décadas de fracasos, Observatorio Ciudadano de la Educación V
(1), en <http:// www.observatorio.org/colaboraciones/vazquez.html>.
16. El Instituto Nacional para la Evaluación de la Educación (INEE)
456
la pedagogía escolar, la desvinculación de la realidad social y de la
situación de los educandos, el carácter poco significativo de los contenidos educativos para los estudiantes, el carácter enciclopédico, la
sobresaturación de contenidos y la desvinculación que tienen entre sí,
la desarticulación entre los contenidos de los diferentes grados y los
ciclos escolares, y la desvinculación de los contenidos educativos respecto a las diferentes regiones del país. (Cox, 2001, Vázquez, 2005)”
Uno de los grandes desafíos que enfrenta México es la educación, una educación que no puede despegar, que sigue atada a costumbres y tradiciones
retrogradas, con grupos de interés marcados que han aparecido en el debate
curricular y pedagógico. Bajo esta perspectiva Miranda L. F (2010) comenta:
“Al respecto, conviene subrayar como un elemento característico de
las Reforma Educativas de los últimos 20 años en México la construcción de acuerdos o pactos políticos de segundo orden y que aluden
a espacios de negociación acotados en específico a los objetivos y
estrategias fundamentales de la reforma educativa.[17]
Estos acuerdos solamente muestran un botón de lo que realmente pasa en
nuestro país no existe un plan claro de hacia dónde se quiere llevar la educación.
La educación en México ha tenido un papel desafortunado, desde sus inicios, se han realizados una serie de reformas siempre con intención de lograr
una educación de calidad, con mejor desempeño por parte de maestros y
alumnos, sin embargo la realidad es muy diferente, como lo demuestran la
prueba PISA (2012) así como los informes de la Organización para la Cooperación y el Desarrollo Económico (OCDE) “México se ubica entre las cinco
naciones con el mayor porcentaje de alumnos con baja calificación, pues 52
por ciento no han logrado concluir su formación media superior”.[18]
De frente a un mundo global, la educación en México, se percibe con aires
de incertidumbre y desaliento, pues, somos un país inserto en la globalización, solo de nombre pero sin características intrínsecas de peso.
Mientras no se analice la educación bajo el contexto socio - económico de
nuestro país, sin buscar modelos que no tienen nada que ver con nuestra
cultura, los intentos por tener una educación de calidad e integral serán
sólo eso, intentos.
Miranda (2010) comenta:
“....Por último, será fundamental avanzar en la construcción de dispositivos institucionales que permitan un nuevo esquema de revisión,
457
actualización y mejora continua de las propuestas curriculares para
evitar la politización extrema del debate sobre las reformas gubernamentales en cada sexenio. Ello deberá abonar a la constitución de
una línea curricular sólida en las políticas de Estado para dar continuidad a las acciones en el tiempo, fortalecer gradualmente los avances
y mejorar sustancialmente los resultados educativos en las próximas
generaciones.”
Además, si la educación formal tiene tantas carencias y atrasos, es evidente que en cuestiones de desarrollo creativo estamos muy por debajo de
lo que en países de primer mundo como Estados Unidos, Suecia, Canadá,
Dinamarca entre otros se está trabajando al respecto desde hace años.
Fe de esto es el estudio realizado por la Agencia Ejecutiva en el Ámbito Educación, Audiovisual y Cultural realizo en diferentes países con respecto a la
educación artística y cultural en el contexto escolar europeo:
“.....El lugar que ocupan las materias artísticas en los currículos nacionales refleja la prioridad que se otorga a la educación artística en los
niveles de primaria y secundaria inferior. Muchas voces afirman que
la educación artística puede contribuir a lograr un entorno creativo de
aprendizaje en los centros educativos, especialmente si las materias
artísticas se integran en el currículo y si se dedica un número de horas
suficiente a la educación artística (KEA European Affairs, 2009). Sin
embargo, también se alega que una educación artística de mala calidad puede obstaculizar el desarrollo de la creatividad.....” (Bamford,
2006, 144)[19]
Llama la atención el hecho de que se considere un obstáculo en el desarrollo creativo la mala educación artística, en ese sentido en nuestro país nos
encontramos bajo circunstancias difíciles, pues los docentes se enfocan a
cumplir únicamente con los programas establecidos en el plan de estudio,
lo que provoca que difícilmente puedan abordar temas o cuestiones artísticas, y, si de manera fortuita lo llegan a hacer, será de mala calidad y sin un
sustento teórico practico adecuado.
Algunos de los proyectos enfocados en la educación artística que se tienen
en los países Europeos son:
En Reino Unido (Inglaterra), el Departamento de Infancia, Centros Educativos y Familias publicó un “Plan para la Infancia” (DCSF 2007) que establece
el derecho de niños y jóvenes de todos los entornos socioculturales a participar en actividades de alta calidad, tanto escolares como extraescolares.
458
Este plan prevé la introducción de cinco horas de cultura a la semana, que
se organizarán de acuerdo con el currículo nacional y las actividades de
las Creative Partnerships (Colaboraciones Creativas). Esta oferta cultural se
describe con detalle en el documento que presenta la nueva estrategia del
gobierno para promover la creatividad (DCMS 2008) y que enumera las
oportunidades que dicha oferta debe proporcionar a todos los jóvenes ingleses: asistir a representaciones de alta calidad; visitar exposiciones, galerías
y museos; realizar visitas a lugares del patrimonio; utilizar los servicios de
archivos y bibliotecas; aprender a tocar un instrumento musical; practicar la
música o el canto; asistir a representaciones teatrales y de danza; participar
en actividades de creación literaria y encuentros con autores; familiarizarse
con las técnicas cinematográficas, las herramientas digitales y los nuevos
medios de comunicación y utilizarlos; producir una obra de arte visual o
una pieza de artesanía. Además, se establecerá un fondo para la cultura de
los jóvenes (Youth Culture Trust) con el que gestionar proyectos piloto destinados a desarrollar esta nueva oferta en diez regiones del país durante los
próximos tres años. Debe darse prioridad a los jóvenes dotados y con talento
y a los alumnos con necesidades educativas especiales.[20]
Es importante hacer una pausa y reflexionar acerca del papel de la educación artística y su desempeño en la creación de competencias para la vida
en los niños y jóvenes de nuestro país, sobre todo de frente al siglo XXI.
Cuando la UNESCO (1999)[21] una de las organizaciones más interesada en
ello pide a todas las partes interesadas del ámbito de la educación artística y
cultural que hicieran lo necesario para garantizar que la enseñanza artística
ocupara un lugar especial en la educación de todos los niños y niñas, desde
la guardería hasta el último año de la enseñanza secundaria, muestra un interés genuino por el desarrollo integral de los niños debido a que se entienden y se conciben los beneficios positivos de estas medidas, sin embargo,
cabe mencionar la importancia de que exista voluntad política, respeto y
responsabilidad por parte de las autoridades correspondientes para entender y visualizar los frutos de generaciones que desarrollen sus capacidades y
habilidades creativas, llegando a ser un detonante del talento que sin lugar
a dudas existe en nuestros niños y jóvenes mexicanos y que definitivamente
impactaría directamente en el desarrollo de nuestro país.
Conclusion
Lamentablemente el desarrollo creativo no es algo que este dentro de las
prioridades educativas, en nuestro país se está olvidando algo que Viktor
Lowenfeld (1973)[22] menciona:
21. UNESCO, Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.
22. Lowenfeld V. (1973) El niño y su arte (8 impresión).Argetina; Ed.Kapelusz p.8
459
“¿Porque es tan importante que los niños consigan crear algo? La razón es que ellos tienen el derecho a ser felices… deben desarrollar sus
pensamientos y sentimientos respecto de si mismos y de todo lo que
les rodea… deben desarrollarse equilibradamente, sabiendo utilizar de
igual modo su capacidad de pensar, de sentir, de percibir.....”
Para nuestros niños el arte puede ser la válvula reguladora entre el intelecto
y sus emociones. ”
Bajo este contexto, en el que la enseñanza del arte, la creatividad, así como
las disciplinas que se derivan de ellas no representan una prioridad para el
currículo de la educación básica y media superior es que la Universidad
(UAM-A) recibe a la mayoría de los alumnos que ingresan a las carreras de
Diseño, con muchos deseos de aprender, de innovar y crear, pero sin las
herramientas de formación básicas necesarias en las áreas de arte , cultura,
percepción, observación, dibujo lo que coloca a los maestros de la UAM-A
con un doble trabajo y un enorme reto como docentes, pues no solamente
se deben dar los fundamentos teóricos del Diseño, sino a la par habilitar o
desarrollar esa capacidad creativa, buscando innovaciones no solo en la
pedagogía sino en los métodos didácticos empleados hasta hoy. Buscando
a través del trabajo colaborativo,[23]1la reflexión, el análisis y la crítica constructiva, llevar a los alumnos a un aprendizaje significativo.[24]
Referencias
[1] Aboites, Hugo (2012) El derecho a la educación en México. Del liberalismo decimonónico al neoliberalismo del siglo XXI Revista Mexicana de Investigación Educativa, no.53
Abril. Junio
[2] Anzaldúa Uribe Enrique (2012). Aprender a ver a través del dibujo Boletín Espacio Diseño 203, Marzo 2012.
[3] Cornejo Espejo Juan (2012) Retos impuestos por la Globalización a los sistemas Educativos Latinoamericanos. Revista Mexicana de Investigación Educativa, no.52 Enero
- Marzo,
[4] Galeano, E. (1995) Comunicación desigual Revista Académica del Departamento de
Política y Cultura, Mitos y Realidades en América Latina hoy. No. 8, Primavera 1997,
[5] Lowenfeld V. (1973) El niño y su arte (8 impresión).Argetina; Ed.Kapelusz p.8
[6] Miranda L.F (2010) Los grandes problemas de México VII EDUCACIÓN,
[7] Vázquez, R., 2005. La escuela a examen. Las reformas educativas, más de cuatro décadas de fracasos, Observatorio Ciudadano de la Educación V (1), en <http:// www.
observatorio.org/colaboraciones/vazquez.html>.
23. En su sentido básico, aprendizaje colaborativo (AC) se refiere a la actividad de pequeños grupos desarrollada en el
salón de clase.
460
[8] Vega Jurado, Jaider et al (2011) Las relaciones universidad – empresa: tendencias y desafíos en el marco del espacio iberoamericano del conocimiento Revista Iberoamericana
de Educativa, no.57 Septiembre – Diciembre
[9] Waisburd, G. y Sefchovich G. (1997) Expresión plástica y Creatividad. Guía didáctica
para maestros. (2ª. Edición). México: Ed. Trillas. http://eacea.ec.europa.eu/education/
eurydice.../documents/thematic_reports/113ES.pdf
[10] Educación tradicional | La Guía de Educación http://educacion.laguia2000.com/tiposde-educacion/educacion-tradicional#ixzz3bCUyrDDf
461
“La Ruta de la Amistad” de la XIX Olimpiada de la Ciudad de
México; cambios y transformaciones hasta el presente
Segismundo Engelking Keeling, Carolina Engelking de Vicenzo
Departamento de Ciencias y Artes para el Diseño, CyAD, UAM-Azcapotzalco Planeación y Conservación de Jardines y Paisajes.
Resumen
Esta presentación trata en forma general de los cambios que han sufrido los
Monumentos de la “Ruta de la Amistad” y sus entornos paisajísticos, como
producto de la construcción del puente elevado del tramo suroeste del anillo periférico de la Ciudad de México, que se han observado hasta finales
del año de 2014, bajo la consideración de que el proceso no ha llegado a su
término y que aún las modificaciones y cambios continuarán, como parte
del futuro desarrollo de las obras de construcción de los tramos faltantes del
puente elevado de de la sección oriente del tramo sur del Anillo Periférico
de la Ciudad de México.
Abstract
The intention of this presentation is to give a general account of the changes
that the Monuments that comprise the Olympic “Route of Friendship” and
their scenic surroundings, have suffered until the end of the year 2014, as a
result of the construction of the southwestern section of the elevated motor
beltway of Mexico City, considering that the process has not ended and that
further changes are expected as part of the future development of the yet not
built southeastern portion of the elevated beltway.
Introducción
Hablar de la Ruta de la Amistad es hablar de las Olimpiadas de la Ciudad de
México de 1968, de una gesta que ciertamente dejó su huella en la historia
del México contemporáneo por ser las primeras y únicas que se han realizado en América Latina, a la fecha, pero también porque se llevaron a cabo en
el mismo tiempo en el que se observaba un movimiento estudiantil de proporciones internacionales que afectaba a universidades y ciudades a ambos
lados de la cortina de hierro, culminando en muchos lugares en sangrientas
represiones, entre las que resalta la matanza del 2 de octubre en Tlatelolco.
Pero se debe ver a las Olimpiadas también como un catalizador que dio un
nuevo impulso al quehacer arquitectónico y artístico en México, que a unos
quince años de la terminación de Ciudad Universitaria, ya comenzaba a dar
muestras de un desgaste que se evidenciaba en una creciente repetición de
formulas dadas. De este impulso y bajo la dirección del Arq. Pedro Ramírez
462
Vázquez, Presidente del Comité Organizador de los Juegos Olímpicos de
México, se construyeron entre 1965 y 1968 las instalaciones olímpicas, incluyendo conjuntos tan novedosos como la Alberca Olímpica, el Palacio de
los Deportes, la Pista de Canotaje de Cuemanco y la Villa Olímpica. Al mismo tiempo se realizaron como evento paralelo las Olimpiadas Culturales,
que a su vez constituyeron una novedad en el Movimiento Olímpico mismo,
y ofrecieron al pueblo mexicano una enorme variedad de manifestaciones
culturales de los más apartados rincones del planeta, incluyendo muestras
de pintura, de danza, teatro, gráfica, música y otras, incluyendo naturalmente de escultura.
La actividad escultórica más importante que se realizó durante las Olimpiadas de 1968 tuvo su culminación en el encuentro internacional de escultores que se realizó en junio de 1968, y quedó plasmada físicamente en
la “Ruta de la Amistad”, ambas fueron concebidas, organizadas y llevadas
a feliz término bajo la dirección del escultor Mathias Göerítz, quien en la
sesión inaugural del encuentro puntualizó proféticamente:
“Los alrededores vitales del hombre moderno son cada vez más caóticos. El aumento de la población, la socialización de la vida y el avance acelerado de una época tecnológica han creado un ambiente de
confusión general. La fealdad de muchos elementos utilitarios indispensables y de los anuncios comerciales aplasta los núcleos urbanos,
especialmente en los suburbios y en las carreteras. Éstas últimas, en el
siglo de la velocidad del automóvil, han adquirido un significado que
nunca tuvieron. Urge por lo tanto una planificación artística al urbanismo contemporáneo y a las vías de comunicación.”
Este pronunciamiento engloba los ideales y los criterios que llevaron a la
materialización del proyecto de la Ruta de la Amistad. En 1966, Göeritz
propuso al Comité Organizador de los Juegos construir en el tramo sur del
Anillo Periférico, en ese momento de muy reciente tendido, una serie de esculturas, cuyas dimensiones permitieran su observación desde el automóvil
y colocadas a separaciones de un kilómetro y medio, más o menos, entre sí.
Estas esculturas serian diseñadas por escultores de renombre de diferentes
países, pero serían construidas por trabajadores y con el apoyo de arquitectos e ingenieros mexicanos, utilizando tecnología del concreto armado por
razones de economía.
El proyecto de la Ruta de la Amistad sufrió, bajo la dirección de la Arquitecta
Ruth Rivera, muchas modificaciones y ajustes, tanto de ubicación como de
dimensionamiento y conformación de las esculturas mismas. En algunas instancias se construyó sobre predios privados y en otras hubo cambios de posición. Pero en todos los casos los escultores estuvieron presentes durante la
463
construcción de sus proyectos y todos vieron las formas terminadas, aunque
la selección final de color debió recaer en Mathias Göeritz (probablemente
con ayuda del pintor Chucho Reyes), ya que la mayoría de los escultores
regresaron a sus países antes del inicio de los Juegos.
El impacto del ejercicio de la “Ruta de la Amistad” fue ambivalente. Por una
parte fue elogiada y pasó a considerarse como una de las más importantes
manifestaciones culturales físicas de la Olimpiada y por otra acremente criticada, como en el caso del escultor Mohamed Melehi, quien en rueda de
prensa denunció que Göeritz había reducido contra su voluntad las dimensiones de su pieza. Pero sea como fuere, la Ruta de la Amistad fue entregada
a tiempo para los Juegos y todo mundo pudo gozarla trasladándose de una
estación a otra, y las esculturas han perdurado, con mayor o menor éxito,
hasta nuestros días. Para entender mejor su situación actual, conviene conocer las condiciones bajo las cuales se desarrolló el proyecto.
1.- Una de las principales del tendido del tramo sur del Anillo Periférico fue
en previsión de la aceptación de la Ciudad de México como sede de los
juegos de 1968, considerando que debía existir un acceso franco y fácil
de las principales instalaciones deportivas, que para el efecto se ubicarían en la vecindad de éste tramo, incluyendo Ciudad Universitaria,
el Estadio Azteca, la Villa Olímpica y la Pista de Canotaje de Cuemanco, donde el tramo del Periférico quedó interrumpido (en 1980 apenas
comenzaba a construirse el tramo que comunicaría con Pantitlán y el
Aeropuerto Central), de manera que la mayoría de las actividades tuvieron efecto en torno a ésta columna vertebral, con notables excepciones
como las ocurridas en el Palacio de los Deportes y en la Alberca Olímpica (entre otros que se encuentran más alejados). La extensión de este
tramo del Anillo Periférico es precisamente la de la Ruta de la Amistad.
2.- Este tramo del periférico se trazó por 1964, en un momento en el que
aún, prácticamente no existía construcción en la zona, a no ser por la
existencia de algunos pequeños núcleos de población cercanos como
Tepepan, Huipulco, Tlalpan, San Jerónimo Lídice y la Fábrica de Papel
de Loreto y Peña Pobre, colindante con las ruinas preclásicas de Cuicuilco, que se encuentra en el cuadrante sureste del cruce de la nueva
vialidad con la Avenida de los Insurgentes, por lo que el paisaje que se
apreciaba era de campo abierto, el cual se dividía en dos tramos con
características totalmente diferentes: A), de la Glorieta de San Jerónimo
a la Calzada de Tlalpan, yendo de poniente a oriente, se tenía un paisaje de pedregal de lava basáltica proveniente de la erupción del Volcán
Xitle (de hace unos dos mil años) y con una vegetación endémica muy
variada, incluyendo de cactáceas y gramíneas, hasta tupidos encinares,
todo más o menos intacto, y B), de Calzada de Tlalpan hasta Cueman464
co, con campos de labor por irrigación, con aguas provenientes de las
vecinas chinampas de Xochimilco. Por lo anterior, el tendido del Anillo
Periférico conformó un paisaje abierto y sin accidentes geográficos importantes y ni siquiera masas arbóreas que impidieran la apreciación de
las esculturas que se colocarían a lo largo de la Ruta, pero que sí cambiaba drásticamente en cuanto a textura de tramo a tramo. Así, trece de
las veintidós esculturas realizadas se construyeron sobre el Pedregal,
seis sobre campo que fue agrícola y las tres restantes en otros puntos
de la Ciudad.
3.- Las esculturas, como ya se mencionó, fueron construidas en concreto
armado bajo la dirección de cada artista, pero con asesoría estructural y constructiva proporcionada por ingenieros del Comité Olímpico,
quienes fueron los responsables de la adopción de los sistemas constructivos específicos, teniendo en cuenta tres criterios: solución del
problema estructural específico generado por la forma propuesta; consideraciones de economía, refiriendo siempre a lo que se podía y no
se podía hacer con mano de obra tradicional; y consideraciones de
tiempo para cumplir con los límites de tiempo a que obligaba la entrega de las instalaciones previo a los Juegos. Esto llevó a la adopción de
tres sistemas constructivos básicos: colado de elementos monolíticos
con refuerzo de acero estructural y cimbra de madera; concreto lazado
sobre malla de tela de gallinero ó similar, fijada a malla electrosoldada
con barras de 3/16” de diámetro, con soportes de soleras y viguetas “I”
de diversas dimensiones; y combinaciones de los anteriores. La única
estructura que escapa de éste esquema es la de Alexander Calder, frente
al Estadio Azteca, que es de planchas de acero.
De tiempos de la hechura de las estructuras de la Ruta de la Amistad, las
condiciones han cambiado drásticamente, por una parte porque la Ruta de
la Amistad adquirió una segunda función, al principio no considerada, como
detonador para la urbanización de toda la zona por la que pasaba. En esto
fue tan eficiente, puesto que prácticamente no existe ya rastro del paisaje
original, mismo que fue sustituido por construcciones bajas en su mayoría,
aunque crecientemente con edificios altos, entre los que reina una mediocridad pasmosa, en directo contraste con las esculturas de la Ruta. A lo anterior
hay que agregar que se dio el crecimiento de una masa arbórea importante
en los camellones y banquetas de la Ruta, compuesta principalmente por
fresnos, eucaliptos y pirules, así como la proliferación de anuncios espectaculares e incluso de edificaciones realizadas por las mismas autoridades del
Distrito Federal, como estaciones de bombeo de agua, puentes peatonales,
etc., todo puesto sin consideración alguna por la escala, las visuales convenientes para la apreciación de las esculturas, o por su misma existencia.
Pero el colmo de ésta patética situación fue la construcción del circuito
465
elevado de la sección sur del Anillo Periférico de la Ciudad de México, que
actualmente tiende de la glorieta de San Jerónimo, hasta el entronque del
Periférico con Calzada de Tlalpan, pero que eventualmente se extenderá
más allá de la zona lacustre que aún subsiste de Cuemanco. Este circuito
fue proyectado y construido sin la menor consideración por la existencia de
las estructuras de la Ruta de la Amistad, por lo que un buen número quedó
en eminente peligro de demolición, mismo que se pudo evitar por la pronta
acción de la Fundación MÉXICO 68 A.C., bajo la dirección del M. Arq. Luis
Javier de la Torre y el patrocinio del mismo Arq. Pedro Ramírez Vázquez,
mediante el desarrollo de un plan maestro de reubicación de muchas de las
esculturas a posiciones más seguras, lo cual significó su separación de los
cimientos originales y su traslado, a veces completas, a veces en partes, e
incluso una totalmente demolida, para luego ser levantada sobre cimientos
de nueva fabricación en nuevas ubicaciones, en ocasiones poco favorables.
El resultado es que la percepción del espacio de la época de las Olimpiadas ya no existe y con ello la razón de ser de las esculturas cayó por largo
tiempo en un vacio de desinterés y olvido. Actualmente el Patronato de la
Ruta de la Amistad, con apoyo del Instituto de Bellas Artes y Literatura y el
Gobierno del Distrito Federal, tiene el objetivo de rescatar las esculturas,
dándoles mantenimiento y buscando para cada una un patrocinador que se
haga cargo de su conservación a futuro. Este esquema promete buenos resultados, pero también genera observaciones importantes; a continuación se
hará un breve análisis de cada escultura, de lo que se haya logrado en cada
caso y los problemas que se observan, que a veces adquieren proporciones
de tragedia.
La ubicación de las esculturas obedece al criterio de que debían poder ser
vistas al lado derecho de un automóvil que se moviera con dirección al
centro del conjunto olímpico, que se encuentra en la Villa Olímpica, la cual
se construyó en el cuadrante sur poniente de la Ruta con la Av. de los Insurgentes, frente a la Fábrica de Papel de Loreto y Peña Pobre, de manera
que las esculturas (también conocidas como estaciones) que se ubicaran al
poniente de la Villa Olímpica quedarían en el costado sur y poniente de la
Ruta, mientras las que quedaran al oriente de la misma se ubicarían en el
costado norte de la misma de la Ruta, lo cual generalmente se respetó.
En esta presentación, por consideraciones de extensión del texto, se analizarán las condiciones en que se encontraban entre 2011 y la actualidad, antes
y durante el proceso de obra del Puente Elevado, y sólo las esculturas que
estaban ubicadas al poniente de la Villa Olímpica, sumando nueve; de las
remanentes diez ubicadas al oriente de la Villa se presentarán las imágenes
con observaciones más breves. No se incluyen, ya que no son estrictamente
466
parte de la Ruta propiamente dicha, las tres que se ubican fuera de la Ruta:
la de Alexander Calder, conocida como “El Sol Rojo”, en el Estadio Azteca;
la de Germán Cueto, conocida como “El Corredor”, en Ciudad Universitaria, frente al Estadio Olímpico; y la del propio Mathías Göeritz, conocida
como “La Osa Mayor”, en el conjunto del Palacio de los Deportes, así como
las Torres de Satélite, que habiendo sido construidas en 1957 (Göeritz y Barragán), se consideraron como parte del Corpus Escultórico de la Olimpiada.
A.- SECTOR PONIENTE DE LA RUTA DE LA AMISTAD. Ver croquis adjunto
A, en que se ubican las nueve esculturas que que lo integran.
a.
ESTACIÓN N° 1; MÉXICO (Ver imagen 1)
• Escultor: Ángela Gurría.
• Ubicación: camellón inmediatamente al sur de la glorieta de San Jerónimo, San Ángel, Delegación Magdalena Contreras.
• Dimensiones aproximadas: 7.00 x 10,50 x 18.00 m (h).
• Patrocinador de conservación: Familia Moisés Cosío (?).
Forma de construcción: paredes rectas y curvas de concreto lanzado con
malla de acero electrosoldada; acabado: aplanado fino de mortero de cemento; capa pictórica: pintura vinílica para exteriores, en blanco ostión y
negro mate (Figura 1).
467
Figura 1. Escultura estación México.
Condición actual. (Ver Figura 2)
Esta escultura fue retirada de su posición original por quedar en el área de
estructuración del puente elevado y tras trabajos de consolidación e impermeabilización en su interior, fue erigida nuevamente en el cuadrante surponiente del trébol de Perisur (Periférico e Insurgentes). En el proceso se perdió
la cimentación original, que fue abandonada en su ubicación original, de
manera que la escultura se eleva sobre una cimentación nueva. En cuanto a
la conformación del paisaje de entorno, aún no se ha retirado el relleno que
cubre las formaciones de lava que se tiene la intención de recuperar (ver la
Estación N° 7 de Italia), por lo que el conjunto se debe considerar aún como
no terminado.
Figura 2. Escultura estación México actual.
468
ESTACIÓN N° 2; SUIZA.
• Escultor: Willi Gutmann.
• Ubicación: camellón frente al N° oficial 3335 del Anillo Periférico, San
Jerónimo, Delegación Álvaro Obregón.
• Dimensiones aproximadas: 2.00 x 10.50 x8.00 (h).
• Patrocinador para su conservación: Cia. Roche Bobois, S.A.
Forma de construcción. (Ver Figura 3)
Paredes rectas y curvas de concreto armado con malla de acero elecrosoldada. De acabado: aplanado fino de mortero de cemento; capa pictórica: capa
gruesa de poliuretano, color azul ultramar.
Figura 3 Estación Suiza.
Condición actual (Ver Figura 4).
Esta pieza, al igual que la anterior fue retirada y colocada nuevamente en
el extremo norponiente del trébol de Perisur. No se rescató la cimentación,
por lo que se debió hacer una nueva, generando una plataforma nueva con
grava suelta de tezontle.
Figura 4. Estación Suiza actual.
469
ESTACIÓN N° 3: CHECOSLOVAQUIA
• Escultor: Miloslav Chlupac.
• Ubicación: camellón en Anillo Periférico esq. con Calle Loma Bonita,
San Jerónimo Aculco, Delegación Álvaro Obregón.
• Dimensiones aproximadas: 4.oo x 8.00 x 9.00m (h). más 3.00 a nivel de
carriles de circulación rápida.
• Patrocinador de conservación: no determinado, probablemente Procter
& Gamble, S.A. de C.V.
Forma de construcción (Figura 5).
Base de paredes de concreto armado; pilares de concreto armado con malla
electrosoldada; acabado de aplanado fino de mortero de cemento; capa pictórica: poliuretano o similar semi-mate en colores morado y rosa mexicano
(dos colores).
Figura 5. Estación Checoslovaquia.
Condición actual (Ver Figura 6)
Los tres elementos de esta escultura fueron retirados de su cimentación mediante el corte de las bases, dejando intacta la cimentación, que aún es
visible desde la vía rápida del periférico, se reubicó en el cuadrante norponinete del trébol de Perisur, en la bifurcación entre Insurgentes y la lateral de
salida a Periférico, en una solución no muy afortunada.
470
Figura 6. Estación Checoslovaquia actual.
ESTACIÓN N° 4; JAPÓN
• Escultor: Kiyoshi Takahashi.
• Ubicación: camellón en Anillo Periférico, frente al N° oficial 4125, Col.
Rincón del Pedregal, Delegación Álvaro Obregón.
• Dimensiones aproximadas: 7.50 x15.00 x 7.50 (h).
• Patrocinador de conservación: inmobiliaria SARE.
Forma de construcción. (Figura 7)
Paredes rectas y curvas en concreto armado con acero con acero de refuerzo
y probablemente malla electrosoldada. Aplanado: acabado fino en mortero
de cemento. Capa pictórica: esmalte para exterior brillante, color blanco
marfil.
Figura 7. Estación Japón.
471
Condición actual (Figura 8)
Este conjunto escultórico, también en el área de tendido del puente elevado,
fue retirado y reubicado en el extremo poniente del cuadrante suroriente
del trébol de Perisur, para lo que se debió hacer, como en el caso de la de
Suiza, una plataforma con una cimentación especial, ya que la cimentación
original no se recuperó.
Figura 8. Estación Japón actual.
ESTACIÓN N° 5; HUNGRÍA-FRANCIA
• Escultor: Pierre Szekely.
• Ubicación: cuadrante sureste de paso a desnivel de Periférico y Camino
al Ajusco, Col. Daniel Cosío Villegas, Delegación Tlalpan.
• Dimensiones: 15.00 (plataforma) x 17.00 (plataforma) x 11.50 m (h).
• Patrocinador de conservación: Cia. TV Azteca.
Forma de construcción. (Figura 9)
Concreto armado con acero de refuerzo en bases y malla electrosoldada
en cuerpos volados. Acabado: aplanado fino de cemento. Capa pictórica:
poliuretano, colores amarillo canario en cuerpo principal.
Figura 9. Estación Hungría- Francia.
472
Condición actual (Figura 10)
Dado que esta escultura se encuentra fuera del área de tendido del puente
elevado, no ha sido tocada, pudiendo considerarse que ésta y su conjunto
son los más intactos de toda La Ruta de la Amistad.
Figura 10. Estación Hungría- Francia actual.
ESTACIÓN N° 6; URUGUAY
• Escultor: Gonzalo Fonseca.
• Ubicación: cuadrante sureste de paso a desnivel de Periférico y Av.
Zacatepetl, Col. Parque del Pedregal, Delegación Tlalpan.
• Dimensiones aproximadas: 9.00 x 15.00 x 10.00 (h), (plataforma: 22.00
x 29.00m)
• Patrocinador de conservación: no identificado.
Forma de construcción(Figura 11).
Muros en forma tronco-cónica, de concreto armado, con figuras en concreto
lanzado sobre malla de alambre. Acabado: lechada de cemento y aparente
en paredes de concreto. Capa pictórica: poliuretano o similar, en color gris
cemento.
Figura 11. Estación Uruguay.
473
Condición actual (Figura 12)
Este conjunto, quedando también fuera de la ruta del puente elevado, también se encuentra prácticamente intacto, y aún se tienen algunos eventos
culturales en su interior. Se debe mencionar que tiene varias capas de pintura gris cemento, ya que ha sido frecuente víctima de los temibles grafiteros.
Figura 12. Estación Uruguay actual.
ESTACIÓN N° 7 ITALIA
• Escultor: Constantino Nívola.
• Ubicación: paso lateral surponinte del paso a desnivel de Periférico y
Av. De los Insurgentes, predio del estacionamiento “Torres del Pedregal”, Col. Parque del Pedregal, Delegación Tlalpan.
• Dimensiones aproximadas: 3.00 x 6.00 x 9.00 m (h).
• Patrocinador de conservación: no identificado.
Forma de construcción (Figura 13)
Concreto armado y uso de malla electrosoldada. Acabado: fino con mortero
de cemento. Capa pictórica: vinílica para exteriores en colores blanco, verde y colorado.
Figura 13. Estación Italia.
474
Condición actual (Ver imagen 14)
Esta escultura es la que quizá más ha sufrido de todas las de la Ruta, ya que
originalmente fue construida dentro de los límites de una propiedad particular, por lo que se construyó en ésta un estacionamiento sin el menor cuidado
por la escultura, que fue finalmente demolida y construida nuevamente en
el cuadrante surponiente del trébol de Perisur. En compensación se limpió
su entorno inmediato, de manera que se pueden observar las estupendas
formaciones de lava.
Figura 14. Estación Italia Actual.
ESTACIÓN N° 8; BELGICA
• Escultor: Jaques Moeschal.
• Ubicación: zona arqueológica “B” de Cuicuilco, costado poniente de
la Av. De los Insurgentes, entre Anillo Periférico y Villa Olímpica, Delegación Tlalpan.
• Dimensiones aproximadas: 16.00 x 2.50 x 18.00 m (h).
• Patrocinador de conservación: no identificado.
Forma de construcción (Figura 15).
Estructuración hueca de concreto armado con malla electrosoldada. Acabado: aplanado fino de mortero de cemento. Capa pictórica: probablemente
vinílica para exteriores con colores verde pistache claro y olivo oscuro en
capa última.
Figura 15. Estación Bélgica.
475
Condición actual (Ver Imagen 16)
La escultura se aprecia bien pintada y sin fisuras u otros desperfectos, indicativo de recientes trabajos de consolidación. De la misma manera se
han realizado trabajos de ordenamiento del entorno arqueológico en que se
encuentra ubicada la escultura, proporcionando un conjunto agradable a la
vista y protegido de vándalos
Figura 18. Estación Bélgica actual.
ESTACIÓN N° 9; ESTADOS UNIDOS DE AMÉRICA
• Escultor: Todd Williams.
• Ubicación: campus de la Villa Olímpica, Delegación Tlalpan.
• Dimensiones aproximadas: 11.00 x 10.00 x 6.00 m (h).
• Patrocinador de conservación: no identificado.
Forma de construcción (Figura17)
Estructuración hueca de concreto armado con malle electrosoldada. Acabado: aplanado fino de mortero de cemento. Capa pictórica. Pintura vinílica
para exteriores o similar.
476
Figura 17. Estación Estados Unidos.
Condición actual (Figura 18)
Este conjunto escultórico es quizá el que mejor ha sobrevivido, tanto por
sí, como por la conservación aceptable en que se encuentra el conjunto del
Centro Deportivo Olímpico, aunque por su ubicación es con toda seguridad
el más escondido y desconocido por el público en general.
Figura 18. Estación Estados Unidos actual.
B.- SECTOR ORIENTE DE LA RUTA DE LA AMISTAD. Ver croquis adjunto.
477
De las diez esculturas que lo componen, siete se encuentran a lo largo del
tramo del Periférico en el que aún no se ha construido el puente elevado,
por lo que, aún cuando se removerán eventualmente, por el presente se
pueden apreciar en sus ubicaciones originales y con entornos algo cercanos
a los originales, con excepción de la escultura de Israel, que sí se debió
mover por razones de índole constructiva. Las restantes dos fueron, como la
N° 7 de Italia ya mencionada, construidas en propiedad privada, por lo que
también han sido ya reubicadas, con en adelante se mencionará.
ESTACIÓN N° 10. POLONIA
• ESCULTOR: Grzegorz Kowalski.
• UBICACIÓN: Cuadrante norponiente del trébol de Perisur. (Figura19).
Figura 19. Estación Polonia.
Condición actual (Figura20)
El conjunto está bien presentado y no tiene problemas para su continuada
existencia, ya que se encuentra fuera del paso del puente elevado. Su entorno inmediato presenta una completa recuperación de los relieves de las
formas de lava y se tiene la intención de recuperar la vegetación endémica.
Figura 20. Estación Polonia actual.
478
ESTACIÓN N° 11. AUSTRALIA
• ESCULTOR: Clement Meadmore.
• UBICACIÓN ORIGINAL: Anillo Periférico N° 5180 (Colegio Olinca),
Col. Pedregal del Sur (Figura 21).
Figura 21. Estación Australia.
Condición actual (Figura 22)
Por encontrarse en propiedad privada la escultura debió retirarse, quedando
reubicada en el cuadrante nororiente del trébol del conjunto comercial Perisur, una ubicación que no le favorece mayormente; su entorno no ha sido
aún acondicionado.
Figura 22. Estación Australia actual.
ESTACIÓN N° 12. ESTADOS UNIDOS DE AMERICA. (Ver imagen 23)
• ESCULTOR Herbert Bayer
• UBICACIÓN ORIGINAL: Anillo Periférico, esquina con Cerrada de Xiximes, Col. Caracol (Figura 23)
479
Figura 23 Estación Estados Unidos de América.
Condición actual (Figura 24)
Por encontrarse también en propiedad privada, además de ofrecer un pésimo aspecto por su confinamiento, se debió retirar y reubicar en el cuadrante
sur oriente del trébol de Perisur, en un lugar que sí hace honor a sus dimensiones. En cuanto a su entorno, es aceptablemente concordante, aún cuando
se deberá trabajar un poco más.
Figura 24. Estación Estados Unidos de América actual.
480
ESTACIÓN N° 13. HOLANDA
• ESCULTOR: Joop Beljon.
• UBICACIÓN: área jardinada del cuadrante norponiente del trébol de
Anillo Periférico y Viaducto Tlalpan (Figura 25).
Figura 25. Estación Holanda.
Condición actual (Figura26)
Por encontrarse fuera de la ruta del puente elevado no ha sido tocada y
se encuentra aparentemente en buenas condiciones, aunque su pintura fue
recientemente escarapelada (no muy bien), dejando aparentes algunos fisuramientos en el concreto. Su entorno es inmejorable.
Figura 26. Estación Holanda actual.
ESTACIÓN N° 14. ISRAEL. (Figura 27)
• ESCULTOR: Itzhak Danziger.
• UBICACIÓN ORIGINAL: camellón norte del Anillo Periférico, casi esq.
con Calle Kobe, Col. Guadalupe (Figura 27).
481
Figura 27. Estación Israel.
Condición actual (Figura 28)
Esta escultura fue construida con secciones metálicas y malla electrosoldada, con placas de poliuretano para reducir la carga del concreto, formando una estructuración precaria que finalmente debió ser desmantelada. Fue
reconstruida totalmente en el cuadrante norponiente del trébol de Anillo
Periférico con Viaducto de Tlalpan, desde el cual es muy visible cuando uno
viaja con dirección norte a sur, pero poco apreciable desde otros puntos. Su
entorno, como en el caso anterior, es abierto y agradable.
Figura 28. Estación Israel actual.
ESTACIÓN N° 15. FRANCIA
• ESCULTOR: Olivier Seguin.
• UBICACIÓN: camellón norte del Anillo Perifperico, entre calles Belisario Domínguez y Vicente Guerrero, Col. San Bartolo Chico.
482
Condición actual: (Figura 29)
Esta escultura se encuentra olvidada y muy dañada por la intemperización
y muestra la estructuración necesaria para su retiro, que deberá ser pronto,
aunque no queda claro dónde será reubicada.
Figura 29. Estación Francia.
ESTACIÓN N° 16. MARRUECOS
• ESCULTOR: Mohamed Melehi.
• UBICACIÓN: camellón norte del Anillo Periférico, esq. con Av. Acoxpa,
Col. Rinconada de Coapa (Figura 30)
Figura 30. Estación Marruecos.
483
Condición actual (Figura 31)
Se encuentra en buenas condiciones materiales, pero ya se encuentra confinada por una estructura portante, indicativo de su próxima reubicación, aún
no determinada.
Figura 31. Estación Marruecos actual.
ESTACIÓN N° 17. MÉXICO
• ESCULTOR: Helen Escobedo.
• UBICACIÓN: camellón central del Anillo Periférico, a la altura del acceso vehicular a la pista de canotaje de Cuemanco.
Condición actual: (Figura 32)
Aún cuando se deberá necesariamente retirar o demoler (dado su gran tamaño) cuando se realicen las obras del puente elevado de Anillo Periférico,
actualmente se yergue con gran dignidad en su ubicación original. El entorno es apropiado, si no se fija uno en la estación de peseros vecina, que es
un desastre.
484
Figura 32. Estación México.
ESTACIÓN N° 18. MÉXICO
• ESCULTOR: Jorge Dubón.
• UBICACIÓN: plazuela de acceso a la Pista Olímpica de Canotaje de
Cuemanco, Xochimilco.
Condición actual (Figura 33)
Esta escultura se encuentra apartada de la Ruta de la Amistad propiamente,
pero formalmente se debe considerar como parte de la misma, ya que marca
el acceso a la pista de canotaje de Cuemanco, puesto que aún ocupa con
dignidad, aún cuando solitaria, triste y olvidada. Convendría revitalizar su
entorno inmediato.
Figura 33. Estación México actual.
485
ESTACIÓN N° 19. ESPAÑA (Figura 34)
• ESCULTOR: José María Subirachs.
• UBICACIÓN: Cuadrante nororiente del trébol de Perisur, muy cercana
a la vialidad lateral norte del Anillo Periférico.
Condición actual:
Esta escultura fue la última en inscribirse en el corpus de La Ruta de la Amistad, por lo que debió construirse a toda prisa, constatable en los colados
que dejaron puntas de armado casi en superficie, con la consecuente oxidación de éstas y el estallamiento del concreto de protección, sin embargo,
actualmente se observa en magníficas condiciones su entorno inmediato ha
sido modificado por la desviación del retorno del trébol dejando un espacio
que no sirve más que para caminar por lo que se deberán realizar obras de
acondicionamiento más extensas.
Figura 34. Estación España.
Conclusiones generales
Habiendo analizado cada escultura individualmente, trataremos de llegar a
conclusiones generales para el conjunto como fenómeno sumatorio.
1. Participación en el ejercicio. Cada artista vino a realizar su escultura en
México tanto como individuo como en representación de su país, y el
Comité Organizador de los Juegos siguió como criterio para invitar a los
distintos escultores el que a su vez cada continente quedara representado.
2. Ubicación y cambios en el entorno. El Comité Organizador de los
Juegos dedicó mucho tiempo y esfuerzo para localizar los puntos más
apropiados para la construcción de las esculturas y este cuidado ha
alcanzado con el tiempo buenos resultados en general, aunque han
algunos casos la ubicación ha sido desastrosa.
486
Por otra parte, si la ubicación general de la esculturas fue cuidadosa
buscando siempre una integración existente, no se puede decir lo mismo del mantenimiento posterior de estas condiciones, el crecimiento
imparable de la mancha urbana en torno del Anillo periférico en la
zona sur de la Ciudad ha llevado a condiciones indeseables.
3. Formas de construcción. Un factor determinante en el proceso de deterioro de las esculturas es el método usado en su construcción. Se
pudieron distinguir tres forma básicas de fabricación, las cuales fueron
seleccionadas en base a la complejidad formal de cada pieza y a la
dificultad que ésta representaba para cada estructuración.
A. Construcciones de concreto armado monolítico, con alma hueca.
Estas edificaciones no tienen problema alguno, a no ser por oxidación de armados, como se pudo apreciar un poco en las Estaciones 12 y 19 y un poco en la 18 por acreciones vegetales. (Ver
imagen 35)
B. Construcciones de concreto lanzado sobre una armazón d emetal
desplegado y malla electrosoldada ¼” de diámetro, reforzado por
secciones “I” y canales estructurales de 4” a 6”. Este sistema fue
seguramente adoptado por su relativa ligereza, facilidad de construcción, y por su baratura, pero tiene el gran defecto de que en las
esculturas en que se usó este procedimiento, el concreto lanzado
recubre perfectamente los elementos metálicos por fuera pero los
deja expuestos hasta en un 70% en el interior. (Ver imágenes 36,
37, 38)
C. Construcciones metálicas, que se reducen a dos: “El Corredor” (N°
20) de Germán Cueto, que es de bronce, “El Sol Rojo” (N° 21) de
Alexander Calder, que es de placa y secciones de acero, con uniones de remache y soldadura. Hay que recordar, sin embargo, que
éstas estructuras quedan fuera de La Ruta de la Amistad.
D. Por cuanto a las formas de cimentación, es interesante mencionar
que las de las esculturas que han sido removidas no han sido retiradas ni demolidas, permaneciendo aún en sus posiciones originales, constituyendo para efectos prácticos verdaderos sitios arqueológicos, susceptibles de ser investigados a futuro. (Ver imágenes
39, 40, 41)
487
Observaciónes finales
Habiendo estudiado las estructuras que componen ese interesante proyecto,
ideado por Mathías Göeritz y realizado como parte de las actividades culturales relacionadas con los XIX Juegos Olímpicos de México, bajo el nombre
de “La Ruta de la Amistad”, se llega a la conclusión de que el conjunto reviste una importancia de primer orden en el ámbito mundial, pero que a la
vez si se hace una revisión más o menos exhaustiva de la literatura relativa a
escultura, se cae en cuenta de que éste casi nunca se menciona, y esto bien
debía deberse a la falta de cuidado y de interés de que ha sido objeto por
parte de las autoridades de la Ciudad de México hasta recientemente, pero
también es cierto que las circunstancias han cambiado de 1968 a nuestros
días y un buen ejemplo de esto es el tremendo esfuerzo que ha significado
el salvamento de “La Ruta de la Amistad”. Esperemos que ésta mentalidad
siga floreciendo.
Figura35. Escultura de Uruguay, confrontada por el nuevo Puente Elevado.
Figura 36. Detalle tipo de refuerzo de acero.
488
Figura 37. Proceso de reconstrucción. Escultura de Israel.
Figura 38. Proceso de reconstrucción. Escultura de Japón.
Figura 39. “El Corredor” de Germán Cueto.
489
Figura 40.- Detalle de preparación para transporte. Escultura de Marruecos.
Figura 41.- Detalle de reconstrucción. Escultura de Israel.
Referencias
[1] Noelle L. y C. Tejada, 2002. “Guía: Arquitectura contemporánea, Ciudad de México.”
CONACULTA-INBA. México.
[2] Duby, Georges y Jean-Luc Daval, 1991; “Sculpture; From Antiquity to the Present Day.”
Taschen, Köln.
[3] Buendía Júlbez, Jose M., et al. 1996; “Luis Barragan: 1902 – 1988”. Reverte Ediciones,
S.A de C.V., México 1996.
490
Diseño de un Artefacto de software para la Visualización Científica
de indicadores bioquímicos y clínicos y sus relaciones
Jovita Hernández Arista
Universidad Autónoma Metropolitana Unidad Azcapotzalco
[email protected]
Resumen
El propósito en esta investigación es diseñar y configurar inteligentemente
un conjunto de herramientas de software para observar las relaciones entre
diferentes indicadores bioquímicos y clínicos (estos últimos medidos con
instrumentos clinimétricos) facilitando la visualización de la información y
su análisis desde las perspectivas disciplinares involucradas.
Los indicadores y la metodología se determinaron con base en el campo de
conocimiento de: Diseño, Psicooncología, Neurociencias y Psiconeuroinmunología (PNI).
Es posible diseñar un Artefacto de software para la Visualización Científica
con el propósito de organizar y relacionar la información recopilada (cuantitativa, cualitativa) configurando un contexto sistémico de datos para la toma
de decisiones disciplinares ampliando las posibilidades de su asimilación en
el ámbito experimental propuesto y en otros ámbitos.
El Diseño propone la funcionalidad que define la estructura informática;
considera los datos de entrada para procesar; combina estrategias y técnicas
estadísticas; configura los datos de salida como imágenes para exploración
científica.
Palabras clave: Diseño, Visualización Científica, Información, Software.
Abstract
The objective is to design and configure intelligently a set of software tools to
observe the relations between different biochemical and clinical indicators
(clinical indicators measured by clinimetric instruments) making possible
the visualization of information and analysis from the disciplinary perspectives involved.
Indicators and methodology was determined based on the knowledge field
of: Design, Psycho-Oncology, Neurosciences and Psychoneuroimmunology
(PNI).
491
It is possible to design an artefact for Scientific Visualization in order to organize and relate the information gathered (quantitative and qualitative) shaping a systemic setting data context make disciplinary decisions expanding
the possibilities of their assimilation into other areas.
Design proposes functionality in order to define the information structure;
considers the input data for processing; combines strategies and statistical
techniques; and configures the output as images for scientific exploration.
Key words: Design, Scientific Visualization, Information, Software.
Introducción
La propuesta de diseñar un Artefacto de software para la Visualización Científica (ArtVIC) busca resolver un problema de investigación específico en un
centro hospitalario integral especializado en niños con cáncer en México.
A continuación se describe brevemente el problema de investigación. Para
comenzar es necesario mencionar el origen de esta investigación que se ha
desarrollado en el transcurso de varios años. En un primer momento de la investigación se diseñó un objeto-sistema (Hernández, 2013) como producto
digital interactivo para facilitar el cambio de estado emocional en niños de
5 a 7 años de edad, con Leucemia Aguda Linfoblástica (LAL), en tratamiento
quimioterapéutico y en larga estancia hospitalaria. Se estableció la metodología científica determinando: el sistema hipotético, la definición operativa
de las variables, los indicadores bioquímicos y clínicos a medir, el muestreo,
la población, el tipo de estudio y el procedimiento para recopilar los resultados, es decir, se diseñó el experimento que en adelante será denominado
DOSDI (Diseño del Objeto-Sistema Digital Interactivo).
DOSDI es un entrenamiento emocional y tiene como prioridad coadyuvar
al niño en tratamiento quimioterapéutico a cambiar significativamente los
estados emocionales de tristeza, ansiedad y miedo por estados emocionales
de alegría, tranquilidad y seguridad. Contribuyendo con ello a su bienestar.
Ahora en este nivel de desarrollo de la investigación se amplía el horizonte
original de la misma al proponer, como se mencionó antes, el Diseño de
ArtVIC (Artefacto de software para la Visualización Científica, este artefacto,
deberá contar como mínimo con opciones de registro, opciones de interacción de variables, sección de selección de gráficos, opción de impresión,
así como de exportación de video) con el objetivo de organizar y relacionar la información recopilada de distintos indicadores bioquímicos (neurotransmisores y cotransmisores) y clínicos (autoinforme, signos vitales) y
sus relaciones. Los valores cualitativos (autoinforme) y cuantitativos (neuro492
transmisores, cotransmisores y signos vitales) de los indicadores resultantes
del experimento DOSDI serán los datos de entrada con que se alimentará
ArtVIC.
Desarrollo
Esta investigación propone el desarrollo de un producto de Diseño ArtVIC,
a partir del desarrollo del experimento denominado DOSDI, posibilitando
con su desempeño un vínculo desde el ámbito del Diseño con otros campos
disciplinares como la Psicooncología, las Neurociencias y Psiconeuroinmunogía (PNI) en un objetivo de investigación común (observación y análisis
de las relaciones entre indicadores bioquímicos y clínicos).
Una de las posibilidades de este vínculo es el acercamiento experimental
multidisciplinar en el que se vislumbra la posibilidad de establecer flujos de
información entre diferentes dominios (Dominio A - Oncología Pediátrica
y Dominio B - Pacientes Pediátricos Oncológicos), así como, un lenguaje
básico o vehículo que facilite el trabajo entre disciplinas.
En la Figura 1 se representa la función de los dos productos de Diseño (experimento DOSDI y ArtVIC), los cuales, buscan coadyuvar al cambio del
estado emocional y al afrontamiento de los pacientes pediátricos con LAL
en el ámbito oncológico pediátrico hospitalario.
Figura 1. Esquema de la representación del Dominio A - Oncología Pediátrica y del Dominio B - Pacientes Pediátricos Oncológicos relacionados a través de dos productos de Diseño
en una propuesta para estructurar los flujos (componentes) en una organización que amplía
el espectro de información recopilada en DOSDI Fuente: Elaboración de Sánchez de Antuñano, J.M.A. y Hernández, J.
493
Por una parte está el Dominio A - Oncología Pediátrica incluyendo a la
Psicooncología como consustancial integrando una parte fundamental del
equipo sanitario, ambas disciplinas prescriben o aplican los tratamientos clínicos y psicológicos a los pacientes considerando tres variables: 1. Propias
de la Enfermedad, 2. Personales y 3. Ambientales, atendiendo cada caso
desde dos dimensiones: Psicobiológica y Psicosocial.
La PNI y algunas otras disciplinas pertenecientes al ámbito de las Neurociencias enriquecen el conocimiento del ámbito de la Psicooncología. Las
Neurociencias han estimulado a los psicooncólogos pediátricos a integrar
métodos de investigación utilizados también en PNI para examinar la influencia de intervenciones psicológicas en la enfermedad pediátrica.
Ahora con la intervención del Diseño se busca mejorar en este entorno,
conjuntamente con los científicos pertenecientes a las disciplinas anteriormente mencionadas (oncólogos, psicooncólogos, neurocientíficos, inmunólogos-matemáticos) la comprensión sobre el soporte emocional y técnicas
de afrontamiento.
Por otra parte está el Dominio B - Pacientes Pediátricos Oncológicos en
etapa de tratamiento quimioterapéutico suministrado ante un diagnóstico
precoz; tomando en cuenta las variables ya mencionadas: 1. Propias de la
Enfermedad, 2. Personales y 3. Ambientales. Esta población es susceptible
en un 80% de ser curada, además, de acuerdo al Dr. Rivera (Hernández,
2013), en el contexto del cáncer infantil es de suma importancia asistir a
los pacientes durante cada fase de la enfermedad en el aspecto psicológico
procurando que sus estados emocionales apunten el mayor tiempo posible
hacia una actitud de tranquilidad y alegría, pues ello favorece la adherencia
a la terapéutica y la adaptación a la convivencia intrahospitalaria, coadyuvando al proceso de recuperación.
ArtVIC habilita una relación operativa (RELEO), con realimentación de información para ambos dominios circunscritos en un entorno clínico-terapéutico.
En el aspecto operativo de RELEO la información recopilada en la experimentación científica DOSDI de los comportamientos fenoménicos será la
base de datos para llevarlos a un segundo nivel de interrelación (Meta-relación) y descubrir otros datos precisos que apoyen la toma de decisiones y las
acciones de médicos y psicooncólogos abriendo otras posibilidades para la
atención personalizada de cada paciente.
494
El Diseño adquiere aquí un papel relevante cuando se propone dar forma
sustancial a los flujos de información como acción, es decir, propone la
estructura y la organización que brinde dirección y sentido a los datos para
tomar decisiones y resolver un problema específico en un lugar específico,
con la potencialidad de hallar datos nuevos, emergentes o datos no evidentes; al estudiar las diferentes relaciones cuando se efectúen los análisis de
los datos duros y su visualización en el devenir de los diferentes algoritmos.
Otra posibilidad es mostrar distintas estrategias de Meta-relación con los
distintos valores cuantitativos y cualitativos en un tipo de estudio que tendría
ahora la posibilidad de ser transversal o longitudinal.
El Diseño en este entorno clínico-terapéutico (circunscribiendo a los dominios A y B) observa a médicos y pacientes como seres humanos; se enfoca,
en este momento, en desarrollar una metodología para producir a ArtVIC.
Consecuentemente, dicho artefacto puede aportar también en el aspecto
epistémico de su RELEO, ya que posibilita la información organizada desde distintas perspectivas, acorde a las necesidades de cada disciplina participante en los dominios de esta investigación, y con ello, transformar las
acciones y las decisiones de los médicos y pacientes para contribuir en el
bienestar emocional, a través, del conocimiento.
“El diseño de información es una rama del Diseño que se centra justamente
en este tema” (San Martín, 2011, p. 7), tiene como objetivo informar datos
de manera simple y clara, brindando distintos modelos de estructura para
observarlos optimizando recursos (humanos y técnicos) y realizar análisis
distintos, es decir, proporcionando distintas opciones de interpretación de
los datos dando distintos sentidos en la comprensión de los mismos.
495
Figura 2. se representa una maquetación básica para emprender el modelado inicial en el
desarrollo de ArtVIC. *Preflight término aplicado originalmente en el ámbito de la aviación.
Anglicismo adoptado para denominar el proceso de revisión y pre-verificación (pre-evaluación) de los archivos para pre-prensa digital (DTP), es decir, comprueba que el archivo sea
adecuado para su uso. Para este contexto el autor lo empleó como Preflight del Prototipo.
El Diseño plantea una perspectiva heurística para alcanzar los objetivos de
investigación en DOSDI y ArtVIC realizando productos de carácter holístico, evaluables previo a su producción.
La información visualizada permitirá observar si hay cambios significativos
o patrones en el análisis de las relaciones entre indicadores y se podrán
formular algunas conclusiones, es decir, descubrir aportes para cada una de
las disciplinas participantes (Psicoooncología, Neurociencias y PNI) y en el
Diseño pueden ser develados algunos lineamientos para proponer productos similares y poder trabajar en otras investigaciones de manera profusa en
la predictibilidad y persistencia sobre temáticas similares.
496
Conclusiones
Al estudiar el problema de investigación se ha observado que en los dominios A y B, mencionados en la Figura 1, antes de la inclusión del Diseño
ya existía una gran cantidad de datos y de procesos de comunicación, los
cuales, establecen sobre todo relaciones biunívocas. Fenómeno poco favorecedor, sobre todo, si tomamos en cuenta que las acciones desprendidas de
estos procesos de comunicación afectarán seres humanos en condiciones de
alta vulnerabilidad.
Con ArtVIC (Artefacto de software para la Visualización Científica que deberá contar como mínimo con opciones de registro, opciones de interacción de
variables, sección de selección de gráficos, opción de impresión, así como
de exportación de video) planteado como visión holística propuesto por el
Diseño podríamos observar las relaciones fundamentales establecidas en
DOSDI y posteriormente hallar otras relaciones consecuentes en un siguiente nivel de análisis, pudiendo ser estas generales o particulares y evitando
que se conviertan en relaciones biunívocas nuevamente. El reto es diseñar
la estructura, la organización del sistema y aterrizarlo en una interfaz clara,
versátil y con carácter científico.
Este trabajo propone el diseño de productos (DOSDI y ArtVIC) que proporcionen elementos para el discernimiento en la relación clínico-terapéutica
(dominios A y B), depuren la información de la meta-relación de manera
meta-analizada al mundo científico para abrir perspectivas potenciales a
otros investigadores interesados por el bienestar del ser humano. Facilitando
con ello las acciones de los seres humanos pertenecientes a este universo
de estudio.
Retomando las ideas anteriormente expuestas y de manera concluyente, para esta investigación, el Diseño como concepto operativo, más que
“modificar2”, transforma32(implica cuatro conceptos: discernir4,3dirección5
2. De acuerdo a la RAE (2014) modificar. Transformar o cambiar algo mudando alguno de sus accidentes; dar
un nuevo modo de existir a la sustancia material; limitar, determinar o restringir algo a cierto estado en que se
singularice y distinga de otras cosas.
3. De acuerdo a la RAE (2014) transformar. Hacer cambiar de forma a alguien o algo; transmutar algo en otra cosa;
hacer mudar de porte o de costumbres a alguien.
4. De acuerdo a la RAE (2014) discernir. Distinguir algo de otra cosa, señalando la diferencia que hay entre ellas.
497
, sentido6,2intención7)3el entorno8 activando un proceso evolutivo, a través,
de la metodología de la proyectación en la búsqueda de la solución a un
problema específico en un lugar específico. Pero no quedándose en la idea
generatriz sino que propone teóricamente, metodológicamente y tecnológicamente la solución de diseño (y esto puede aplicar a otros ámbitos del
Diseño tales como: Arquitectónico, Industrial, Gráfico, Textil, Interactivo,
Informático, entre otros). Es decir, realiza el producto material o inmaterial
5. De acuerdo a la RAE (2014) dirección. Acción y efecto de dirigir (Enderezar, llevar rectamente algo hacia un
término o lugar señalado; guiar, mostrando o dando las señas de un camino; encaminar la intención y las
operaciones a determinado fin.) Tendencia de algo inmaterial hacia determinados fines; camino o rumbo que un
cuerpo sigue en su movimiento; consejo, enseñanza y preceptos con que se encamina a alguien.
6. De acuerdo a la RAE (2014) sentido. Entendimiento o razón, en cuanto discierne las cosas; modo particular de
entender algo, o juicio que se hace de ello; inteligencia o conocimiento con que se ejecutan algunas cosas; razón
de ser, finalidad.
7. De acuerdo a la RAE (2014) intención. Determinación de la voluntad en orden a un fin.
8. Entorno es lo que se alcanza a ver de acuerdo con el Dr. Jorge M.A. Sánchez de Antuñano (en entrevista inédita
2014, 26 noviembre).
498
ideado y hecho con inteligencia para ser usado con inteligencia.
Por último una reflexión del autor:
”La mente es como un paracaídas, sólo funciona si se abre”. Albert
Einstein
“El Diseño es como un paracaídas para las diferentes ciencias, las
lleva al feliz aterrizaje en la realidad”
Agradecimiento
Un reconocimiento especial al apoyo y asesoría de mi Co-Director de Tesis
Dr. Rodrigo Ramírez Ramírez por su valiosa guía, por compartir su experiencia y conocimiento en este camino de investigación.
Referencias
[1] Barragán, H. (octubre, 2011). ¿Qué es wiring? (pp 171-174). Trabajo presentado en el
MX Design Conference 2011 Diseño sin Fronteras Cuarto Congreso Internacional de
Diseño, Universidad Iberoamericana Ciudad de México. Recuperado de www.dis.uia.
mx/. Conference/2011
[2] Beck, A.T. (1991). Cognitive therapy. A 30-years retrospective. “American Psychologist”,
46, 4, 368-375. doi: 10.1037/0003-066X.46.4.368
[3] Folkman, S. (2002) Positive psychological states and coping with severe stress. “Soc Sci
Med” 1997, 45, 1207-21. En Holland, J.C., Editor (Ed.), History of psycho-oncology:
overcoming attitudinal and conceptual barriers. Psychosom Med, 64, 206-21.
[4] Flusser, V. (2011). Hacia el universo de las imágenes técnicas. México: Escuela Nacional
de Artes Plásticas.
[5] Lake, P. y Crowther, P. (2013). Concise guide to databases: a practical introduction. London: Springer.
[6] Hagen, H., Müller, H. y Nielson, G. (Eds.). (1993). Focus on Scientific Visualization.
Hong Kong: Springer-Verlag Berlin Heidelberg.
[7] Hernández, J. (2013). Desarrollo de un multimedia interactivo para facilitar el cambio de
estado emocional en niños con Leucemia Aguda Linfoblástica (LAL) (Tesis de maestría).
Universidad Autónoma Metropolitana Unidad Azcapotzalco, México, D.F.
[8] Houdé, O. (2006). La psicología del niño / Piaget [Revisado. Original en francés: La
psycho logie del’enfant. France: Presses Universitaires de France]. Madrid: Colección
Urgencias. Popular.
[9] Maturana, H. y Varela, F. (1998). De máquinas y seres vivos – Autopoiesis: la organización de lo vivo (5a ed.). Chile: Editorial Universitaria.
[10]O’Callaghan, V. (Ed.). (junio de 2010). Talking to Kids About Cancer: A guide for people
with cancer, their families and friends [Revisión de la publicación (junio de 2005) When
499
a parent has cancer: how to talk to your kids, agosto 2007]. Woolloomooloo, Australia:
Cancer. Council NSW.
[11]Papalia, D. E., Olds, S.W. y Feldman, R. D. (2001). Psicología del desarrollo. Colombia:
McGraw Hill.
[12]Piaget, J. y Inhelder, B. (1984). Psicología del niño (Colección Psicología). trad. Luis
Hernández Alfonso. Spain: Ediciones Morata.
[13] Real Academia Española (2014). Recuperado el 15 de mayo de 2015, de http://www.rae.
es/. En Diccionario de la Lengua Española (23ª edición).. http://lema.rae.es/drae/
[14]Rivera, R. (2007). El niño con cáncer – Los padecimientos más comunes para el médico
especialista. México: Editores de textos mexicanos.
[15]San Martín, M. (2011). Diagraphics: el mejor diseño de mapas, gráficos, esquemas y
diagramas. Barcelona, España: MaoMao Publications.
[16]Ware, C. (2004). Information Visualization – Perception for Design (2nd ed.). China:
Elseiver.
[17]Wolfgang, M. y Kowatsch, T. (2012). Semantic technologies in content management systems: trends, applications and evaluations. Berlin: Springer Verlag.
500
Políticas públicas de vivienda en México y su impacto en el
desempeño de las empresas desarrolladoras
Aurora Mina Poó Rubio
Universidad Autónoma Metropolitana, Azcapotzalco
[email protected]; [email protected]
Resumen
Las empresas constructoras desarrolladoras de vivienda en sus diferentes niveles, de interés social, medio, residencial o turístico sistemáticamente se
ven afectadas por las políticas públicas que norman la vivienda. Por un lado,
el gobierno busca resolver la demanda de vivienda, principalmente la de
interés social, y emite regulaciones en cuanto al uso del suelo, densidades
habitacionales, reglamentos de construcción, entre otros y en paralelo crea,
transforma y modifica las estructuras de financiamiento y las correspondientes instituciones financieras. Las empresas desarrolladoras de vivienda buscan oportunidades de trabajo y de inversión y se tienen que adaptar a las
políticas establecidas. Cuando estas se modifican, frecuentemente con los
cambios de las administraciones gubernamentales, los impactos pueden ser
muy severos.
El objetivo de este estudio es analizar los cambios de las políticas de vivienda en los últimos años, cómo fueron afectadas las empresas y la respuesta
que tuvieron en su planeación estratégica.
Abstract
Housing construction enterprises in all levels, social housing, medium, high
income and touristic, are systematically affected by public policies that rule
the housing market. On one side, the government wants to solve the housing
demand, mostly social, and approve regulations about land use, housing
densities, construction legislation, among others. At the same time, creates,
transforms and modifies the financial structures and the correspondent financial institutions (INFONAVIT, FOVISSTE, and so on). Housing developers
who look for opportunities in construction and investment, have to adapt
their work to changing policies. When this are modified, frequently when
governmental administrations change, the impacts can be severe.
The objective of this paper is to analyze the changes in public housing policies during the last few years and how they affect the performance of housing companies and how they change their strategic planning in order adapt
and survive in the constant changes of the business environment
501
El sector de la vivienda
En México, el concepto de vivienda tiene profundas raíces sociales e históricas. Ya desde 1917, en la Constitución de ese año, en el artículo 123, se
reconoció la necesidad de vivienda en la población y se estableció la obligación de los patrones de proporcionar a sus trabajadores viviendas confortables e higiénicas. Posteriormente, se crearon los organismos públicos de
Seguridad Social para atender las diversas necesidades de la población. En
1943 se fundó el Instituto Mexicano del Seguro Social (IMSS), que, en sus
inicios, también proporcionó vivienda a sus derechohabientes.
A mediados del siglo pasado, en la etapa de urbanización y de desarrollo
industrial se crearon los principales organismos nacionales de vivienda. En
1963, el Gobierno Federal constituyó en el Banco de México, el Fondo de
Operación y Financiamiento Bancario a la Vivienda (FOVI), para promover
la construcción y mejora de la vivienda de interés social, y para otorgar créditos a través de la banca privada. En 1972, se estableció el Fondo Nacional
de la Vivienda, con aportaciones de los patrones, para financiar y otorgar
crédito barato para que los trabajadores adquiriesen su vivienda. Con esta
reforma se creó el Instituto del Fondo Nacional de la Vivienda para los Trabajadores (INFONAVIT).
También en ese año, se instituyó el Fondo de la Vivienda del Instituto de
Seguridad y Servicios Sociales para los Trabajadores del Estado (FOVISSSTE),
para otorgar créditos hipotecarios a los empleados del Estado. Para1983, el
derecho a la vivienda se elevó a rango constitucional y se estableció como
una garantía individual.
Hasta la década de los ochenta, la política de vivienda había sido la intervención directa del Estado en la planeación, construcción y financiamiento
de vivienda y aplicación de subsidios indirectos, por medio de créditos con
tasas de interés menores a las del mercado. En la primera mitad de la década
de los noventa, se llevaron a cabo cambios en los organismos nacionales de
vivienda y se transformaron en entes eminentemente financieros.
En el sexenio de 1994-2000, en el aspecto de la vivienda se continuó con el
objetivo de que la población disfrutara del derecho a la vivienda como uno
de los ejes principales de la política social. Para fortalecer la oferta de vivienda y atender especialmente a la demanda de interés social, el Programa Nacional de Vivienda 1995-2000 establecía las siguientes líneas estratégicas:
502
• Institutos de vivienda. Reforma de los organismos de vivienda, con
sentido social, ampliando su cobertura de atención y propiciando una
mayor coordinación entre ellos.
• Servicios de financiamiento: Con un mayor financiamiento a largo plazo, mejores costos y diversificación de esquemas de financiamiento de
acuerdo con el nivel de ingreso de la población.
• Desregulación y desgravación: Marco normativo con menores costos
indirectos asociados con la producción y titulación de vivienda.
• Suelo para vivienda: promover la oferta de suelo para uso habitacional
a precios accesibles, incorporando reservas territoriales y predios infraurbanos con servicios y equipamiento.
• Autoconstrucción y mejoramiento de vivienda rural y urbana: con
apoyo la autoconstrucción y mejoramiento de la vivienda, así como la
comercialización de materiales e insumos en las zonas rurales y urbanas.
• Fomento tecnológico: fomentar la investigación, desarrollo y aplicación de tecnologías alternativas regionales para la construcción de vivienda.
• A raíz de las modificaciones legislativas, principalmente a la Ley del
INFONAVIT en 1997 hubo un fuerte impulso a la vivienda de interés
social que originó la consolidación de varias empresas desarrolladoras como Grupo ARA, GEO, HOMEX, entre otras más. Si bien existen
en México pocas empresas de alcance nacional, también hubo campo
propicio para las desarrolladoras locales.
En los años subsiguientes, la oferta de vivienda creció de manera exponencial al grado que a los sexenios 2000-2006 y 2006-2012 de los expresidentes Vicente Fox y Felipe Calderón respectivamente, fueron llamados los
sexenios de la vivienda.
Rezago habitacional hasta el año 2000.
De acuerdo con datos del Instituto Nacional de Estadística Geografía e Informática (INEGI), en 1995 los activos del país en este rubro ascendió a 19.4
millones de viviendas, mientras que la demanda mínima de vivienda para
ese mismo año fue de 22.2 millones, lo que significó un déficit de 2.8 millones de viviendas. Además, 47 por ciento de las familias residía en viviendas
con dos o menos habitaciones y 4.6 millones de viviendas presentaban condiciones inadecuadas de habitabilidad.
En 1999 el déficit acumulado de vivienda alcanzó los 6 millones. En este
sentido, era imperante construir un promedio anual más de 700 mil viviendas
para abatir el rezago y estar en condiciones de satisfacer la nueva demanda.
503
Ante el problema de bajos ingresos que adolece una proporción importante
de las familias mexicanas, se requiere impulsar mecanismos de ahorro previo con enfocados a la adquisición de vivienda, que posibiliten el acceso a
sistemas con rendimientos reales en los depósitos, de manera que se pueda
cubrir el pago inicial para un crédito hipotecario con la participación de la
banca y las SOFOLES.
El financiamiento de la vivienda y los organismos financieros.
La transformación de los institutos de fomento a la vivienda en entidades
básicamente financieras coadyuvó de sobremanera al desarrollo del sector
que depende sustancialmente de la disponibilidad de créditos, los principales son:
Instituto del fondo nacional de la vivienda para los trabajadores (INFONAVIT)
En la década de los 90, el INFONAVIT tuvo una reconversión integral, que
tuvo como resultado un importante aumento en el número de créditos y en
una mayor cobertura de atención, basada en las políticas de fortalecimiento
financiero para garantizar la viabilidad institucional en el tiempo; estímulo
a la oferta de vivienda y mayor certidumbre a los desarrolladores sobre el
número, ubicación y monto de los créditos; mejor atención a los trabajadores; convenios con algunos gobiernos estatales para la construcción de
viviendas progresivas, implementación de esquemas de cofinanciamiento
con la banca privada; adecuación de la normatividad crediticia, con montos
de acuerdo con la capacidad de pago del acreditado.
Fondo de vivienda del instituto de seguridad y servicios sociales de los trabajadores del estado (FOVISSTE)
Estableció un nuevo sistema de puntaje para la calificación y autorización
del crédito; reducción y simplificación de los trámites para su obtención;
definición de nuevos montos de crédito con base en la capacidad de pago
del trabajador; aprobación de tasas de interés diferenciadas en función del
ingreso de los acreditados; optimización del proceso de control de las aportaciones patronales a la subcuenta de vivienda (5%); reducción viviendas
irregulares y gestiones ante colegios de notarios y gobiernos estatales y municipales para bajar los costos de escrituración.
Fondo nacional de habitaciones populares (FONHAPO)
FONHAPO racionalizó su estructura orgánica y descentralizó su operación
hacia los organismos estatales, que actualmente son quienes cumplen la
función de promoción y supervisión de estos créditos.
504
Fondo de operación y financiamiento bancario a la vivienda (FOVI)[1]
En 1963, el Gobierno Federal a través de la Secretaría de Hacienda y Crédito
Público y el Banco de México, constituyeron el Fondo de Operación y Descuento Bancario a la Vivienda (FOVI), que tenía, entre otros, los siguientes
fines:
• Otorgar apoyos financieros a las instituciones de crédito con cargo al
patrimonio del Fondo, mediante aperturas de crédito destinadas al financiamiento de la construcción, adquisición y mejora de vivienda.
• Evaluar el desarrollo del mercado financiero de vivienda, así como evaluar, planear, coordinar y supervisar otros programas de promoción de
vivienda.
• Emitir dictámenes y aprobaciones técnicas a proyectos habitacionales.
A fines del Siglo XX, FOVI participó en el proceso de reestructuración del
mercado de la vivienda al incursionar con acciones en el desarrollo del
mercado secundario de hipotecas. En agosto de 1999, FOVI lanzó un producto hipotecario que establecía los valores de la vivienda en Unidades de
Inversión (UDIS), con tasa de interés real, con un seguro que respaldaría a
los inversionistas contra cualquier quebranto o eventualidad y con un cobro
de comisión por parte de los intermediarios financieros como son bancos y
SOFOLES.
Sociedad hipotecaria federal (SHF)
En febrero de 2002, Sociedad Hipotecaria Federal, S.N.C.[2],1institución de
banca de desarrollo, sustituyó al Banco de México como fiduciaria en el
Fondo de Operación y Financiamiento Bancario a la Vivienda (FOVI). Tiene
por objeto impulsar los mercados primario y secundario de crédito a la vivienda, mediante el otorgamiento de garantías destinadas: a la construcción,
adquisición y mejora de la vivienda, preferentemente de interés social; así
como al incremento de la capacidad productiva y el desarrollo tecnológico,
relacionados con la vivienda.
A partir de entonces, Sociedad Hipotecaria Federal, S.N.C. ha puesto en
marcha diversos programas y esquemas que tienen por objeto hacer que
cada vez más personas puedan tener su casa propia, aquellas que tradicionalmente no han podido acceder al crédito hipotecario por distintos factores
como problemas para la comprobación de ingresos o dificultad para reunir
el enganche necesario.
2. Sociedad Nacional de Crédito (S.N.C.)
505
Políticas gubernamentales de vivienda y la banca privada[3]
A finales de los años ochenta, el Gobierno rediseñó sus políticas para el
sector, buscaba promover la inversión por parte del sector privado, reducir
los costos de desarrollo y propiciar un incremento en la producción habitacional. Esta política originó la participación de bancos comerciales en el financiamiento hipotecario mediante el establecimiento de garantías y pagos
directos. El Gobierno también incrementó el papel del sector privado en el
desarrollo de vivienda al restringir la participación de los fondos de vivienda
gubernamentales (principalmente INFONAVIT y FOVISSSTE) únicamente al
otorgamiento de créditos hipotecarios. Además el Congreso de la Unión
modificó la Constitución en enero de 1992 y la Ley Agraria en febrero del
mismo año para permitir la transferencia de propiedades agrarias (ejidos), a
fin de ampliar la disponibilidad de tierra para desarrollos de vivienda.
El Gobierno autorizó en 1993 la creación de Sociedades Financieras de Objeto Limitado (SOFOLES) restringidas a trabajar en un sector determinado de
la economía y sin poder recibir depósitos del público. Desde su creación,
la mayor parte de las SOFOLES se habían incorporado como hipotecarias y
algunas de ellas estaban autorizadas para promover y operar créditos hipotecarios fondeados por FOVI. Aunque a principios de la década del 2000 el
número total de hipotecas que estos intermediarios financieros ofrecían era
bajo, se esperaba que como instituciones especializadas complementaran el
servicio que daban los bancos al mercado hipotecario
Para el sexenio 2000-2006, el Presidente Vicente Fox planteó como objetivo
construir 750,000 casas al año hasta cumplir con 4 millones 500 mil unidades al terminar el sexenio, de las cuales, el 50% serían por conducto del
INFONAVIT, o sea la cantidad de 370,000 anuales en promedio. El total de
viviendas significaba un gran reto, si se consideraba que hasta el año 2000
se construyeron 350,000 casas. Para lograr eliminar el déficit habitacional
al fín del sexenio y reducir la existencia de viviendas en estado de deterioro
que era de 3.5 millones, el Gobierno implementó diversas medidas de apoyo: Mejorar el marco regulatorio, desarrollar nuevos mecanismos de financiamiento más flexibles y con suficientes recursos para apoyar el desarrollo
inmobiliario, promover instrumentos financieros que propiciaran la bursatilización de la cartera hipotecaria, ampliar la capacidad de crédito bancario
y promover la cultura del ahorro a través de la banca social para generar un
ahorro previo que sirviera para el enganche de las viviendas.
506
Resultados de las políticas de vivienda
Con las políticas vigentes en ese momento, si bien se logró un gran impulso
en el número de unidades construidas en los sexenios mencionados, pero
eso provocó algunos problemas.
Desde el punto de vista de los municipios, la mancha urbana de las ciudades del país se extendió rápidamente hacia la periferia, con bajas densidades habitacionales y escasos servicios urbanos, y generó altos costos tanto
para los habitantes como para el país. La dotación de servicios básicos que
proporciona el gobierno para conectar desarrollos alejados de las ciudades
se vuelve más gravosa, problema al que se suman las bajas recaudaciones
municipales, lo que impacta en la calidad y oportunidad de los servicios
proporcionados. Se estima que el costo de introducción de servicios públicos, una vez que se han consolidado los asentamientos humanos que no
fueron planeados, es 2.7 veces mayor.
De igual manera, el abandono de los centros de las ciudades propicia el
deterioro de inmuebles, es incosteable su mantenimiento, provoca subutilización del equipamiento e infraestructura, inseguridad e impacta en los
precios del suelo de los lugares abandonados y genera incentivos para la
especulación del suelo en la periferia.
Por otra parte, desde el punto de vista de los usuarios de las viviendas, la distancia que millones de mexicanos deben recorrer diariamente para acceder
a sus trabajos, ocasiona gastos importantes en dinero y tiempo. El 15% de
los hogares en zonas urbanas reporta que gasta entre $51 y $200 pesos diarios para trasladarse de su casa al trabajo. En el Valle de México, el porcentaje de hogares que paga dicha cantidad aumenta a 16% y en las ciudades
de más de un millón de habitantes a 21%. En cuanto al tiempo de traslado
que emplea la población, 62% de los hogares encuestados reportan que a
la persona que más aporta al gasto familiar le toma entre 23 y 38 minutos
llegar a su centro de trabajo en el mejor de los casos, pero puede llegar a ser
de 2 horas el trayecto, o sea 4 horas diarias empleadas en esta tarea.
La inseguridad afecta profundamente a los habitantes de estos desarrollos
quienes consideran prioritario el fortalecimiento de un entorno urbano seguro y agradable, muchos hogares consideran que la obra más urgente en
su colonia es la vigilancia, seguridad y policía. Este problema es mayor en
el Valle de México, en algunas ciudades fronterizas y varios estados de la
República. La inseguridad y la ruptura del tejido comunitario y familiar han
507
generado problemas de violencia y deterioro del sentido de pertenencia en
las ciudades.
Un factor importante es la inexistencia de espacios públicos adecuados y
accesibles ya que es evidente que las áreas verdes y los lugares para hacer
deporte son insuficientes y que las condiciones de los existentes son malas.
Adicionalmente no hay lugares cercanos destinados a actividades culturales
y recreativas, como cines, teatros y museos. Esto provoca falta de vida comunitaria a nivel nacional.
La suma de dificultades provocó el abandono de muchas de las viviendas
construidas en la periferia de las ciudades. Esto ha causado problemas en los
municipios en los que se construyeron conjuntos que a la fecha tienen gran
cantidad de unidades deshabitadas que han sido vandalizadas y en las cuales se han refugiado malvivientes que han aumentado la inseguridad como
por ejemplo en Ciudad Juárez y otras ciudades fronterizas; para las desarrolladoras y a los institutos de vivienda, ha aumentado la cartera vencida y créditos incobrables. Y desde la óptica de los usuarios, tiene créditos asignados
que no pagan, viviendas que no usan y compromisos que no cumplen[4],1lo
que ha repercutido en pérdidas económicas también para ellos.
Hasta la publicación del Plan Nacional de Desarrollo 2013-2018[5],2era
inexistente la política de movilidad urbana integral, en los tres órdenes de
gobierno federal, estatal y municipal, lo que se refleja en la desarticulación
de acciones de los gobiernos con políticas locales de desarrollo urbano. Las
distancias que millones de ciudadanos deben recorrer día a día son percibidas como barreras para los flujos de personas y bienes, muestra de ello
es que al menos el 30% de la población urbana encuentra que su casa se
encuentra lejos o muy lejos de su trabajo. De manera paralela se ha descuidado la provisión de infraestructura peatonal y ciclista; así como la oferta de
transporte público de calidad, seguro y vinculado a criterios de densidad y
de desarrollo urbano
4. Hay casi 5 millones de viviendas abandonadas en todo el país. Periódico La Jornada. 9 abril de 2013.
5. Plan Nacional de Desarrollo 2913-2018. Presidencia de la República.
508
Figura 1. Problemas de movilidad en la urbe.[6]1
Situacion actual
Entorno económico y sector vivienda En 2014 la economía en México creció de 2.1%, cifra inferior a la que se esperaba. Sin embargo existe la perspectiva un mejor panorama en los próximos años. Aunque el crecimiento
de la economía nacional no fue el deseado, el sector vivienda logró revertir
la tendencia negativa que presentaba desde finales de 2012. La industria
de la construcción prosperó impulsada por el subsector de edificación[7]2de
10.1%, con lo que una vez más fue importante factor por su impulso del crecimiento económico, desarrollo social y generación de empleo. Al respecto,
Consorcio ARA, presentó un crecimiento de 8.2% en ingresos con lo que
superó el comportamiento de la economía.
Según INEGI, la industria de la construcción creció 6.8%, mientras que
el subsector de edificación se expandió a un ritmo de 10.1%, impulsado
principalmente por la construcción de vivienda, cuyo desempeño la ubicó
como el segundo ramo con mayor crecimiento, luego de la industria automotriz. La inversión total en el sector vivienda durante 2014, incluyendo el
financiamiento a la construcción, fue de $350 mil millones. El programa de
subsidios fue factor fundamental en el repunte del sector en 2014, pues se
logró colocar un total de $11,495 millones (47.1% más que en 2013), de los
cuales 69% fue para vivienda nueva. La política de vivienda actual promueve el desarrollo ordenado y sustentable de nuestro sector.
6. Fotografía de acceso libre en Internet.
7. El subsector de Edificación comprende las actividades de edificación residencial (viviendas), y la edificación no
residencial como naves industriales, inmuebles comerciales, institucionales y de servicios.
509
En este sentido, SEDATU, CONAVI, INFONAVIT, FOVISSSTE y SHF trabajaron para la recuperación del sector. Entre las acciones que se impulsaron
están algunas adecuaciones y/o mejoras a los esquemas de crédito para impulsar la demanda: En cuanto a los subsidios:
• Ampliación de la base de personas susceptibles de recibir subsidio al
incrementar el rango salarial de 2.6 a 5 veces el salario mínimo para
que un trabajador pueda acceder al mismo.
• Promoción de los subsidios mediante jornadas estatales “México, la
Casa de Todos”. Ampliación del monto máximo de crédito INFONAVIT, de $483 mil a $850 mil[8],1un incremento de 76%. Reducción de
cinco a dos años de cotización consecutiva y de un año a seis meses la
espera para solicitar un segundo crédito Vivienda nueva Vivienda usada Mejoramiento Autoproducción, Otros Subsidios. Liberación de la
subcuenta de vivienda como garantía para créditos de mejoramiento y
ampliación.
Por otra parte, algunas medidas se anunciaron en 2014 y se espera que se
consoliden durante 2015 y en adelante:
• Crédito INFONAVIT denominado en pesos, a tasa fija y un plazo de
hasta treinta años, así como la eliminación de gastos de titulación para
acreditados con ingresos menores a 2.6 salarios mínimos.
• FOVISSSTE crédito en pesos, para que el trabajador pueda obtener un
monto mayor de crédito al sumar al sueldo base las compensaciones
garantizadas, con un plazo de hasta 25 años y tasa fija, en cofinanciamiento con SHF o instituciones bancarias
• Estado de México segmento: Interés social. Financiamiento hipotecario
para fuerzas armadas y empleados de gobiernos estatales y municipales, con demanda se estimada en 2.5 millones de créditos.
En cuanto a la distribución de créditos en 2014, INFONAVIT colocó 389,627
hipotecas (66.2% de las cuales fueron para vivienda nueva) con una inversión de $110 mil millones. A su vez, FOVISSSTE otorgó 63,693 créditos
(66.4% para vivienda nueva) con una inversión total de $38.5 mil millones.
Para 2015 se estima una inversión de $370 mil millones para 500 mil viviendas. La meta de INFONAVIT es de 350 mil créditos para la adquisición de
vivienda con una inversión de $116 mil millones, mientras que la de FOVISSSTE es de 70 mil créditos mediante una inversión de $38.2 mil millones.
8. Cantidades a 2014.
510
La perspectiva del sector vivienda para 2015 puede ser favorable. Si bien
el entorno económico es desafiante, se considera que existen condiciones
para que la vivienda siga siendo impulsor de la actividad económica, pues
la estructura del sector es sólida, el bono demográfico del país sigue siendo
atractivo y hay disponibilidad de créditos hipotecarios. Recientemente el
INEGI dio a conocer la Cuenta Satélite de Vivienda 2008-2012. Entre los
principales resultados destaca la importancia económica de la vivienda, en
la que participan 78 clases de actividades económicas (ocho principales y
setenta conexas). Así, los resultados indican que la vivienda aportó 5.9%
del PIB en 2012 y, si se incluye el alquiler imputado de la vivienda por sus
propietarios, esta cifra sube a 14.1 por ciento. 78 clases de actividades económicas participan en el sector vivienda
Algunas desarrolladoras de vivienda y su desempeño
Consorcio ARA[9]1
Esta empresa es la única de las grandes desarrolladoras que pudo sortear la
crisis de la vivienda de 2013. Para ello contaba con una adecuada reserva
territorial tanto en cuanto a extensión como en ubicación. Al término del
2014, la reserva territorial comprendía 38.4 millones de m2 en diecinueve
estados del país, área suficiente para construir casi 160,000 viviendas. De
esta superficie, 2.8 millones de m2 están destinados para proyectos inmobiliarios como desarrollos comerciales, centros turísticos y zonas industriales.
El valor al cierre del año fue de $4,747.8 millones. La reserva territorial, además de estar ubicada en estados y zonas del país con crecimiento económico y demográfico, está conforme con la actual política de vivienda, ventaja
competitiva de la empresa durante la crisis que enfrentó el sector en 2013.
Parte importante del enfoque a mediano y largo plazo es la selectividad en
la compra de tierra; para proyectos más compactos y con una densificación
más eficiente.
Figura 2. Gráfica de evolución del precio de la acción de CONSORCIO ARA 2004-2014.
9. Consorcio Ara. Informe anual 2014. Bolsa Mexicana de Valores.
511
La Figura 2 muestra el incremento del precio de la acción hasta 2008, época
de auge de la construcción de vivienda. En 2008 impacta la crisis hipotecaria de Estados Unidos. hay recuperación en 2009 Y 2010 y, aunque hay
caída de valor de la acción al cambiar las políticas de vivienda en 2013, la
empresa mantiene su precio porque puede sortear la crisis.
HOMEX[10]1
Desarrolladora Homex, S.A.B. de C.V. Es una empresa desarrolladora de
vivienda verticalmente integrada que se dedica al desarrollo, construcción y
venta de vivienda de interés social y vivienda media en México.
Inicia operaciones en Culiacán, Sinaloa en 1989 a través de la construcción
de espacios comerciales y dos años después extiende sus operaciones al segmento de vivienda de interés social. Posteriormente, Homex se expande al
desarrollo de vivienda media y comienza la expansión hacia otros estados.
En 2005 se convierte en empresa pública y sus acciones cotizan en la Bolsa
Mexicana de Valores. En 2009 lleva 5 años como Compañía Pública y 20
años de operaciones continuas, y entrega las primeras casas en Brasil. Genera una nueva división de Gobierno-Infraestructura y completa la adquisición de Casas Beta con lo que asevera ser la desarrolladora más grande de
México, en términos de utilidad de operación y utilidad neta, de acuerdo
con su informe anual.
En el año 2012 se comenzaron a sentir los efectos de la crisis de la vivienda
en México y Homex inicia un proceso de adaptación a las nuevas condiciones.
Durante 2013 y 2014 una serie de eventos principalmente relacionados al
cambio en la política pública de vivienda combinado con condiciones de
financiamiento más restrictivas impactaron de manera aguda a la empresa y
llevaron a Homex a la solicitud de un proceso de Concurso Mercantil[11].2La
10. Consorcio Ara. Informe anual 2014. Bolsa Mexicana de Valores.
11. www.ifecom.cjf.gob.mx/faq2.asp. Accesada el 25 de mayo de 2015. Según el Instituto de Especialistas en
Concursos Mercantiles, (IFECOM) a) El concurso mercantil es un procedimiento jurisdiccional en el cual, una
autoridad jurisdiccional (Juez de Distrito) desplegará todos los actos tendientes a resolver la controversia o situación
que se le plantea, de determinar si el comerciante se encuentra en los supuestos del concurso mercantil que prevé
la ley, de aprobar el convenio que en su caso se celebre con los acreedores reconocidos, o bien, de declarar la
quiebra para proceder al remate de los bienes sujetos al concurso y efectuar el pago correspondiente a dichos
acreedores.
b) Al que se somete un comerciante. Las personas que pueden ser declaradas en concurso mercantil son los
comerciantes. Lo anterior se debe a que si bien todas las personas, comerciantes o no comerciantes, son
susceptibles de incurrir en el incumplimiento del pago de sus obligaciones, sólo a los comerciantes se les puede
declarar en concurso mercantil.
Comerciante es toda aquella persona física que tiene capacidad legal para realizar, de manera habitual y profesional,
512
empresa adujo incumplimiento del gobierno federal para otorgar subsidios,
retraso en el cobro de viviendas vendidas y la imposibilidad de acceder al
financiamiento bancario como causas que impactaron en su desplome. Asimismo, Homex contaba con importantes reservas territoriales impulsadas
por un incentivo fiscal vigente hasta 2010, localizadas en zonas periféricas
de los centros urbanos, que ya no son aptas para desarrollos conforme a las
nuevas políticas de vivienda, lo que implica una fuerte reducción de su valor
comercial.
En 2015, Desarrolladora Homex, (junto con algunas de sus subsidiarias),
informó que el Juzgado Primero de Distrito en Culiacán, Sinaloa, emitió la
sentencia aprobando los Convenios Concursales (planes de reorganización)
de la Compañía. Con lo que Homex salvaguardó su posición para continuar
con la reactivación de sus operaciones.
En mayo de 2015 la empresa publicó el Plan de Negocios de la Compañía
que incluía:
• La conversión de créditos no garantizados en el capital reorganizado de
la Compañía;
• Opciones de acciones para acreedores no garantizados,
• Propuesta de aportación de nuevo capital comprometido por $1,500
millones de pesos, sujeto a algunas condiciones, en la forma de un
bono convertible, y
• Un plan de incentivos para el equipo directivo de la Compañía basado
en medidas de desempeño, para alinear los objetivos del equipo direcactos de comercio con el fin de obtener un lucro, es decir, de conseguir una ganancia. También son comerciantes
las sociedades constituidas con arreglo a las leyes mercantiles.
Además, la ley equipara a la figura de comerciante a fideicomisos con actividades empresariales
c) Obligaciones. Por obligación debemos entender el deber que tiene una persona llamada deudor (que en este caso
es el comerciante), de conceder a otra llamada acreedor, una prestación, que puede consistir en un dar, un hacer
o un no hacer. Derivado de su actividad, un comerciante debe cumplir, de manera habitual, diversas obligaciones
contraídas con personas —llamadas acreedores—, que le proporcionan bienes o servicios.
d) Pago. Es el cumplimiento de una obligación mediante un dar, un hacer o no hacer. Es decir, el comerciante cumple
con la obligación de pagar a sus acreedores cuando entrega una cosa (dinero, mercancía u otros objetos), presta
algún servicio o se abstiene de realizar algún acto, como podría ser el dejar de efectuar actos de comercio en
determinada zona, reservada a otros comerciantes.
e) Incumple generalizadamente. Esta hipótesis se actualiza cuando el comerciante no cumple en sus obligaciones de
pago a dos o más acreedores distintos y se presentan las siguientes condiciones:
f) Objeto. Se ha considerado de interés público el que se conserven las empresas y se evite que el incumplimiento
generalizado de las obligaciones de pago ponga en riesgo la viabilidad de ellas y de las demás con las que
mantengan una relación de negocios. De ahí que el procedimiento de concurso mercantil conste de dos etapas,
a saber: la conciliación y la quiebra. La primera de ellas tiene como finalidad la conservación de las empresas o
negociaciones mediante el convenio de pago que éstos celebren con sus acreedores; mientras que la segunda, que
inicia cuando no se llega a un convenio, tiene por objeto la venta de la empresa o negociación del comerciante, de
los bienes y derecho que la integran, de forma que con su producto, se haga el pago a los acreedores respectivos.
513
tivo hacia los intereses de los nuevos accionistas de Homex.
La propuesta de inversión de nuevo capital por $1,500 millones, junto con
las líneas de crédito por $1,850 millones se esperaba que le diesen a la
Compañía el capital necesario para reactivar operaciones.
El 17 de Junio de 2015 la firma anunció que había hecho revisiones a su
Plan de Negocios, del 6 de Mayo de 2015; el Plan actualizado reflejaba los
términos de varios acuerdos realizados con acreedores así como oportunidades de ahorro adicionales[12].1
Figura 3. Gráfica de evolución del precio de la acción de HOMEX 2004-2014.
La Figura 3 muestra el incremento del precio de la acción hasta 2008, período de auge de la construcción de vivienda. En 2008 impacta la crisis
hipotecaria de Estados Unidos. La recuperación en 2009 no se sostiene y
empieza la pérdida de valor de la empresa con los cambios en las políticas
públicas de vivienda.
CORPORACIÓN GEO[13]2
La empresa fue fundada en 1973 en la Ciudad de México y desde 1994
cotiza en la Bolsa Mexicana de Valores (BMV) y forma parte del grupo de
emisoras que estructuran el Índice de Precios y Cotizaciones (IPyC) de la
Bolsa Mexicana de Valores. Asimismo, desde 2005 cotiza en el Mercado de
Valores Latinoamericanos en Euros (Latibex).
Corporación GEO se precia de ser la desarrolladora de vivienda más grande
de México enfocada en los segmentos de bajos ingresos. A través de sus
subsidiarias trabaja en las principales ciudades del país y está involucrada
en los aspectos de adquisición de tierra, diseño, desarrollo, construcción,
mercadotecnia, comercialización y entrega de viviendas de interés social
principalmente, así como de manera lateral en el segmento medio y residencial. GEO es una empresas de vivienda diversificada y opera en 22 estados
de la República. En más de 40 años, GEO ha producido y comercializado
12. http://www.homex.com.mx/ri/index.php. Accesada el 25 de mayo de 2015.
13. Corporación Geo. Informe Anual 2014. Bolsa Mexicana de Valores.
514
más de 655,000 casas en las que habitan más de 2’400,000 de mexicanos.
El modelo de negocios de GEO se enfoca principalmente en el segmento de
interés social y económico, los cuales son apoyados por las políticas gubernamentales y organismos de vivienda como INFONAVIT y FOVISSSTE. Las
15 subsidiarias de la Corporación son: Geo Monterrey, Geo Edificaciones,
Geo D.F., Geo Noreste, Geo Puebla, Geo Tamaulipas, Geo Morelos, Geo
Casas del Bajío, Promotora Turística Playa Vela, Geo Veracruz, Inmobiliaria
Anso, Geo Jalisco, Geo Guerrero, Geo Baja California y Geo Hogares Ideales.
En mayo de 2015 los accionistas aprobaron un plan para que los acreedores
capitalicen la mayor parte de su deuda a cambio de una participación del
91% en la compañía14.1
“Las empresas instrumentarán junto con sus acreedores las acciones
necesarias para cumplir con los términos acordados en el convenio
concursal aprobado y lograr una capitalización por hasta 3,500 millones de pesos, de acuerdo con la propuesta presentada en su momento
por el conciliador Thomas S. Heather”, informó Geo.
El plan, que ya fue aprobado también por la mayoría de los prestamistas,
contempla que éstos reciban acciones de Geo a cambio de una deuda de
28,500 millones de pesos (unos 1,861 millones de dólares). También se
aprobó un aumento de capital para la emisión de nuevas acciones que serán
entregadas a los acreedores.
Desde el 15 de junio el juez ha ido aprobando los convenios de la matriz
y las subsidiarias[15].2La resolución es obligatoria para todos los acreedores
que firmaron el convenio concursal, así como extensiva para aquellos acreedores reconocidos que no participaron en las negociaciones y a quienes se
otorgó el beneficio de acogerse a los mismos términos y condiciones pactados por Geo y los acreedores involucrados.
Figura 4. Gráfica de evolución del precio de la acción de CORPORACIÓN GEO 2004-2014.
14. www.cnn.expansion.com/economia2015
15. www.cnn.expansion.com/negocios2015
515
La Figura 4 muestra el incremento del precio de la acción hasta 2008, época
de auge de la construcción de vivienda. En 2008 impacta la crisis hipotecaria de Estados Unidos. El valor de la acción muestra buena recuperación
en 2009 y 2010, pero no se sostiene y empieza la pérdida de valor de la
empresa con los cambios en las políticas públicas de vivienda.
Conclusiones
El aspecto que mayor influencia tuvo en el proceso de expansión de la mancha urbana de las ciudades fue la política de vivienda. En años recientes,
el modelo de atención a las necesidades habitacionales privilegió el otorgamiento masivo de financiamiento para vivienda nueva sin considerar su
impacto territorial, urbano y ambiental al tiempo que la industria desarrolladora encontró una oportunidad de negocio en la producción de vivienda
de interés social en lugares donde el suelo era más barato, lugares cada vez
más alejados de los centros urbanos consolidados. Un efecto adicional de
esta política de vivienda, fue el reforzamiento del patrón de urbanización
periférica de baja densidad con usos predominantemente habitacionales,
modelo que hasta el día de hoy tiene importantes efectos negativos en la
cohesión social, la economía y la conectividad de las ciudades.
Las políticas de vivienda implementadas con anterioridad, especialmente en
los dos sexenios anteriores al actual, propiciaron la expansión de la mancha
urbana de manera desordenada y se provocaron daños sociales, económicos y ambientales. Lo anterior provocó que la contención se convirtiese
en prioritaria, según quedó establecido en el Plan Nacional de Desarrollo
Urbano de las SEDATU en 2013. Esto se pretende lograr al priorizar el otorgamiento de subsidios en el interior de las ciudades y establecer dentro de
ellas polígonos de contención determinados por la Comisión Nacional de
Vivienda (CONAVI), e incorporar terrenos baldíos y subutilizados a la oferta.
Las reservas territoriales periféricas adquiridas por las desarrolladoras de vivienda serían evaluadas para que los nuevos proyectos dispongan de servicios e infraestructura urbanos
Si bien existe una amplia gama de empresas constructoras de vivienda, sólo
seis cotizan en la Bolsa Mexicana de Valores (BMV). Es decir, cumplen con
las características requeridas en cuanto a transparencia en información y
administración profesional: Consorcio Ara (Ara), Corporación Geo (Geo),
Consorcio Hogar (Hogar), Desarrolladora Homex (Homex), Sare Holding
(Sare) y Urbi (Urbi)[16].1
16. Bolsa Mexicana de Valores.
516
Los directivos de las principales desarrolladoras coinciden en que los productos que actualmente están comercializando se tienen que transformar y
buscar una mejor mezcla de ventas con el fin de lograr una combinación de
viviendas de interés social, que proporcionan grandes ventas de unidades
con reducido margen de ganancia, con vivienda media y residencial, que
desplazan volúmenes menores pero con mayor margen de utilidad.
Sin embargo, viven la disyuntiva de la opción ineludible de construir en terrenos dentro de las urbes para alinear sus políticas con las normas oficiales
de vivienda, y determinar el uso de la reserva territorial adquirida bajo el
marco regulatorio anterior y que a la fecha constituye una pérdida importante para las empresas.
Referencias
[1] Bieri S. David. Form follows function. On the interaction between Real Estate Finance
and Urban Spatial Structure.. Urban and Regional Planning, University of Michigan, Ann
Arbor, MI, USA. 2013
[2] Brown Richardson, Sally. Abandonment and adverse possession. SSRN Harvard Bussines
School working papers. USA 2015
[3] Boils, Guillermo. Diseño y Vivienda pública en México. Prototipos habitacionales de
cuatro organismos habitacionales de vivienda. UAM-A. México. 2008
[4] Fernández Alva, Fernando. Metrópoli y cambio tecnológico. Anuario de Estudios de
Arquitectura, Historia, Crítica y Conservación. UAM-A. México, 2009.
[5] Terrazas Revilla, Oscar. Mercancías Inmobiliarias. Colección de Estudios Urbanos.
UAM-A. México, 1996.
[6] Vilchis Salazar, Rubén. Planeación, diseño y uso de los espacios comunes en los conjuntos habitacionales promovidos y financiados por I de 1973 a 1997 en la Ciudad de
México. Tesis de Maestría en Planeación y Políticas Metropolitanas. UAM-A. México,
1999.
[7] Villavencio Blanco, Judith. Los organismos oficiales de vivienda en el Distrito Federal.
Formas y alcances de la acción habitacional de los años 90. Administración y Estrategias
de Fin de Siglo. División de Ciencias Sociales y Humanidades. UAM-A. México, 1997.
[8] Ley del INFONAVIT 1997. Ediciones Fiscales ISEF. México, 1997.
[9] Consorcio Ara. Informe Anual 2014.
[10]Desarrolladora Homex, S.A.B. de C.V Informe Anual 2014.
[11]Corporación Geo. Informe Anual 2014.
[12]De la Rosa, Rogelio. ¿Se construirán las casas prometidas?. Periódico Reforma. Negocios. Pp. 20 A. México, septiembre 2013.
[13]Peña, Carmen. La vivienda un bien económico. Periódico El Economista. Vivienda. Pp.
4. México, 20 de junio 2013.
517
[14]Rendón, Lourdes. Zedillo despertó al sector vivienda. Reportaje periodístico de la última
comparecencia ante el Senado de la República de Carlos Jarque, Secretario de Desarrollo Social 1994-2000. Periódico El Economista. Vivienda. México, 13 de diciembre
2000.
[15]Schüte y Elguero, Fernando. Coordinación y Vivienda. Periódico El Economista. Vivienda. Pp. 9. México, 20 de junio 2013.
[16]Hay casi 5 millones de viviendas abandonadas en todo el país. Periódico La Jornada. 9
abril de 2013.
[17]www.amsofoles.com.mx. AMSOFOLES. Página de Internet de la Asociación Mexicana
de SOFOLES. México, 2013.
[18]www.grupoara.com.mx. CONSORCIO ARA. División Construcción. Página de Internet.
consultada el 29 enero 2015.
[19]www.infonavit.gob.mx. Crédito INFONAVIT. Tipos de Crédito. Página de Internet de
INFONAVIT. Consultada el 29 de enero, 2015.
[20]www.presidencia.gob.mx Programa Sectorial de Vivienda 2001-2006. PRESIDENCIA.
México, 2012.
[21]www.presidencia.gob.mx Programa Sectorial de Vivienda 2007-2012”. PRESIDENCIA.
México, 2012.
[22]www.sedatu.gob.mx Programas Nacionales de Desarrollo Urbano y Vivienda 20132018. Gobierno de la República.
[23]PRONAFIDE. Capítulo 4. Desarrollo Social. Programa de Vivienda 2007-2012.
[24]Reformas a la Ley del INFONAVIT. INFONAVIT órgano de comunicación interna No. 2
Julio 1997
[25]www.fovi.gob.mx. Principales
518
Estudio formal de elementos arquitectónicos en
la Catedral de Puebla
Jaime González Montes
División de Ciencias y Artes para el Diseño, Universidad Autónoma Metropolitana Unidad Azcapotzalco
[email protected]
Resumen
El “Estudio formal de elementos arquitectónicos en la Catedral de Puebla”
forma parte del proyecto de investigación “Estudio y Análisis de la forma
Geométrica en la Arquitectura de la Catedral de Puebla, en la Ciudad de
Puebla de los Ángeles” con aprobación en la sesión 425 Ordinaria del Trigésimo Sexto Consejo Divisional de CYAD, celebrado el día 1 de febrero de
2011, del programa de Investigación “La Forma Geométrica en Elementos
de Diseño” del Grupo de Investigación “Forma, Expresión y Tecnología del
Diseño”.
Este proyecto de investigación tiene como objeto el análisis de la geometría
en los elementos de la arquitectura, desde el punto de vista de su generación formal, en los siglos XVI, XVII, XVIII y albores del XIX, tomando como
referencia el exterior e interior de la catedral de la ciudad de Puebla de los
Ángeles.
El desarrollo del proyecto se basa en un Marco de Referencia que abarca
cuatro aspectos, el Histórico, el Religioso, el Urbano y el Formal Arquitectónico, sin dejar al margen, la importancia iconográfica implícita en la evolución estilística de la época virreinal en que se desarrolló la catedral poblana.
La investigación se sustenta en la premisa universal propuesta por la escuela ateniense “No hay arquitectura sin geometría” aportando, bajo el Estudio
de la Forma aquí mostrado, un amplio acervo de elementos que acercan a la
apreciación y comprensión de la arquitectura.
Palabras clave: Geometría, arquitectura, generación formal.
519
Abstract
“The Shape’s study of the architecture elements of Puebla’s Cathedral” is
part of the project: “Study and Analysis of the Geometric Shape in the Architecture of Puebla’s Cathedral, Puebla de los Ángeles City” approved by
the 425th Regular Meeting of the CYAD’s XXXVI Divisional Board, held on
February 1st, 2011, is part of the Research program “Geometric Shape on
Design Elements” of the Research Group “Shape, Expression and Design
Technology”
The main objective of this research project is to study the geometry of the architecture elements from the point of view of their formal generation, taking
as reference the Cathedral of Puebla de los Ángeles City.
The project development is based on a Frame of Reference that covers four
issues: History, Religion, Urban, and the Formal Architectonic.
The Research holds the universal statement established by the Athenian
school: “There is no Architecture without geometry” providing under the
Shape Study a broad heritage of elements promoting the appreciation and
comprehension of architecture.
Introducción
El estilo arquitectónico en que se apoya esta investigación responde a la
definición de Puebla como un estado netamente barroco. Barroco derivado
de la palabra italiana barocco, que significa impuro. El barroco propiamente dicho en Latinoamérica se conoce como: Barroco sobrio, Barroco rico y
Barroco exuberante.
• El Barroco sobrio. Es el primero que florece en América como reproducción del Barroco español (1580-1630).
• El Barroco rico. (1630 a 1730) es un Barroco refinado y detallista, diferente al modelo español, que va conformando un tipo de construcciones con portadas más profusamente adornadas.
• El Barroco exuberante. Es una modalidad del Barroco de mediados del
siglo XVIII, que se complace en cubrir la totalidad del espacio con ornamentación, abusando del uso de yeso y argamasa, con lujo de fantasía
y color.
Aspectos históricos y religiosos
Los orígenes de la iglesia en Puebla como primera diócesis de México se re520
montan a cuando el Papa León X, en 1518 mediante la Bula “Sacri apostolatus ministerio”, por petición del Rey Carlos V, erigió la primera Diócesis de
la Nueva España, llamada Carolense en honor al Rey, en tierras de Yucatán,
donde decide hacer la primera catedral en tierras novohispánicas, para más
tarde extender el obispado hasta quedar establecida la sede en Tlaxcala, en
1543. Es así que en 1527 tomó posesión como primer Obispo Fray Julián
Garcés, quien se convertía también en el primer Obispo de América, hasta
que la sede episcopal se trasladó a Puebla, un año después de la muerte del
Obispo Garcés.
Fray Juan de Zumárraga en el año 1531 coloca la primera piedra de la catedral poblana, en terrenos conocidos como el “Portal de Borja”, cuya construcción se inicia el 29 de agosto de 1536. Se hizo de tres naves y cubierta
de madera y paja, la obra fue concluida en 1539, y a este sitio se trasladó la
diócesis de Tlaxcala.
En 1552 una Cédula Real, firmada por el rey Felipe II ordena, en Monzón,
ordena la construcción de una nueva Catedral en la ciudad de Puebla, dado
que la anterior se hallaba muy deteriorada. La monumental obra avanzaba
lentamente y, de hecho, se tuvo que suspender entre los años 1618 y 1640
cuando se llevaba la tercera parte. Pero el entusiasmo y la libertad del Obispo Juan de Palafox y Mendoza (1640-1649) permitieron su conclusión en
1649.
Aspecto urbano
Originalmente se comenzó a poblar la zona que estaba delimitada por el
margen oriente del cauce del Río San Francisco y el Cerro de San Cristóbal
(Hoy en día cerros de Loreto y Guadalupe). Sin embargo, las lluvias torrenciales y el desigual crecimiento del río y sus afluentes, pusieron en peligro
la existencia de la ciudad y para evitar su abandono, se decidió cambiar la
ubicación a la margen poniente del Rio de San Francisco, donde se trazó de
nuevo la ciudad el 29de septiembre de1531.
La retícula del centro histórico con que fue planeado, al poniente de la ciudad, es de una uniformidad impecable con las manzanas rectangulares con
sus ejes longitudinales de este-oeste que protegían los vientos del norte en
su selecta orientación y ubicación por su debido aprovechamiento de aguas
pluviales por la pendiente hacia la afluencia del río San Francisco.
La Catedral se erige imponente a un costado de la plaza mayor, en su fachada norte, y con su eje longitudinal oriente-poniente, dando su fachada principal hacia el poniente hacia un atrio que en un principio fue cementerio.
521
Se desarrolló importantemente durante los siglos siguientes siendo a finales
del XVI ya una ciudad de renombre, que en el XVII y XVIII destacó tanto que
ya se había triplicado en tamaño.
Descripción formal arquitectónica
La planta arquitectónica es un gran rectángulo de 97 m de largo por 50 de
ancho (Fig.1). En el interior se conjugan cinco naves , distribuidas a los lados
de la nave central se encuentran catorce capillas, ocho antes de llegar al crucero y seis después de pasar éste.(Fig.2) Cada una de estas capillas guarda
objetos artísticos de distintas épocas.
1.
2.
Figura 1. Planta de la catedral poblana.
Figura 2. Corte Longitudinal de catedral poblana.
En su esquina noreste se halla la parroquia del Sagrario que se une interiormente con la Capilla de Santiago apóstol, así como la Capilla de los Dolores
se une con la Sacristía y las Salas “de los gobiernos” y la “Capitular”. En su
otra esquina, la sureste se encuentra la Capilla del Ochavo, por su forma
octagonal, muy peculiar.
La fachada principal se haya dividida en cinco partes, dos a los flancos que
son las dos torres y en medio tres portadas, dos laterales uno del lado del
evangelio y el otro del lado de la epístola, y una tercera que es la portada
central (Fig.3). Estas tres puertas son por honor a la Santísima Trinidad. La
portada principal, llamada del Perdón, se concluyó en 1664. Es la puerta
de honor y se abre sólo en grandes ocasiones. A la izquierda de este portal,
522
Figura 3. Fachada Principal de catedral.
en el nicho que está en el intercolumnio de columnas estriadas tritóstilas
cuyo tercio del fuste inferior es contracanalado, se encuentra la estatua de
San Pedro con el libro y la llave del reino de los cielos. En el otro intercolumnio análogo de la derecha, en un nicho está San Pablo con la espada.
Encima de ellas dos escudos: los jarrones con azucenas simbolizan a la
Inmaculada Concepción de María, a quien se dedicó esta iglesia; el otro
escudo es el de España.En el segundo cuerpo a la izquierda del escudo,
se observa a San José llevando de la mano al niño Jesús mientras que, a la
derecha, vemos a Santiago el Mayor, con un calabazo sobre el báculo que
representa al peregrino; arriba de San José la palmera en el desierto y sobre
Santiago Apóstol un cedro del Líbano, ambas escenas marianas dentro de
cartelas barrocas. En el tercer cuerpo o remate de la portada central debajo
el escudo real se ve un rectángulo que dice: “Año de 1644” año en que
fueron culminadas las portadas. La ventana rectangular al centro está enmarcada por molduras en “villerías” que contrasta con el oscuro del orden
arquitectónico que la envuelve.
El tratamiento de la portada lateral norte, (Fig 4) de San Cristóbal, es similar
al portal central , del perdón, de la fachada principal de la catedral poblana.
Sólo que en esta fachada se intercalan entre medallones los reyes de España
Carlos I y Felipe II , sobre los evangelistas San Mateo y San Juan, en el primer
cuerpo, a lo que corresponden en el segundo, el alto relieve de Felipe III y
Felipe IV sobre San Lucas y San Marcos. Remata al igual que en la fachada
principal el escudo real español, sólo que aquí, resaltado en piedra y en el
principal, de blanco de “Villerías”
523
Figura 4. Fachada lateral norte.
Del mismo modo que los frailes evangelizadores crearon su propia concepción del Templo Divino que tradujeron en la imagen arquitectónica de los
conventos en la Nueva España, el clero secular se preocupó por crear la suya
en sus templos más importantes: las Catedrales. En las construcciones de las
primeras catedrales en la Nueva España, existen dos momentos claramente
diferenciados: Las Catedrales de planta basilical y las Catedrales claustrales.
La nave central ó principal de la Catedral de Puebla está dividida en nueve
tramos o entre-ejes: dos del trascoro, dos del coro, uno de planta cuadrada
para la cúpula central (crujía central), dos para el presbiterio (Ciprés y Altar
Mayor), uno que liga las naves procesionales con la cabecera y finalmente,
otro más ancho para la Capilla Absidal (Altar de Los Reyes) (Fig.5), que cierra el inmueble.
La Portada principal da paso al primer espacio que es el del inicio de las
procesiones, es a través de la puerta central que por lo general permanece
cerrada salvo en las grandes ocasiones como el entronizamiento de un Arzobispo, así como sus exequias, Año Santo o Jubilar y otras muy especiales.
Este acceso se halla resguardado por un gran portón a modo de cancel
también llamado exclusa con puertas tanto en el centro como laterales, Toda
esta área estaba dedicada a la penitencia, hay altares de las ánimas, o sea
el área del Perdón para limpiarse o purgarse de pecado y adquirir la gracia,
y así, acceder justificado al interior de la catedral. En estos dos tramos ó
524
entre-ejes, los primeros de la nave central, encontramos el altar advocado a
la penitencia de los feligreses.
Las naves laterales se les denomina naves procesionales solamente tienen
ocho tramos, el remate de la nave procesional del norte es el altar de San
José y el del sur es el altar de los arcángeles. Este último tramo se une por
un tramo de la nave central común, que es el costado posterior al ciprés y
anterior al mismo tiempo al presbiterio del altar de Los Reyes, es como el
área de crucero o interprocesional de las naves basilicales españolas.
6.
5.
Figura 5. Retablo de los Reyes.
Figura 6. Cúpula central y Bóvedas de naves.
En el cruce del transepto, espacio central ó crujía, se levanta la Cúpula mayor, (Fig.6) construida por Juan Gómez de Trasmonte, sobre una planta circular de una bóveda vaída levantó un tambor falso de forma octagonal, lo
que vino a ser la primera obra en utilizar el octágono en la arquitectura de
la Nueva España, sobre éste, se elevó la semi-esfera o cúpula con una linternilla, ochavada también.
Estudio de la forma
La aportación del proyecto es el análisis formal geométrico de elementos arquitectónicos bajo un Estudio de la forma que desde una visión descriptiva
se marca el momento estilístico de la obra tratada.
525
La geometría de los elementos arquitectónicos, mostrada en gráficos, guardan características de una generación formal cilíndrica así como la prismática o sea de generatrices paralelas, aunadas al estudio de las de generatrices de punta ó de vértice común, como son las cónicas ó piramidales y
las que se generan de forma irregular hacen posible que su análisis permita
identificar los elementos de la arquitectura con una óptica geométrica que
los prevalece en el estilo estudiado, en este caso, el virreinal de la Nueva
España. (Figs.7 y 8)
7.
8.
Figura 7. Portada del Sagrario.
Figura 8. Portal del acceso al Coro.
Conclusiones
Partiendo de la idea universal acentuada por la escuela de Atenas, de que
“no hay Arquitectura sin Geometría”, durante el desarrollo de este estudio
sobre elementos arquitectónicos del Barroco Poblano en diversos edificios
representativos de los siglos XVI, XVII y XVIII, se ha encontrado ciertas características similares que destacan un notable e interesante tratamiento formal. Ante estas consideraciones y con el antecedente de haber publicado
los libros sobre “El Barroco Queretano” y “el Barroco Potosino” concluyo,
que la premisa anteriormente mencionada, motivo del presente análisis, se
hace evidente también en esta investigación que:
“No hay Arquitectura sin Geometría”
526
Referencias
[1] Fernández de Echeverría y Veytia, Mariano, Historia de la fundación de la Puebla de los
Ángeles. 2 vols. Puebla, Altiplano, 1962.
[2] Galí Boadella, Monserrat , El mundo de las catedrales novohispanas, BUAP, Puebla,
México. 2002.
[3] Maquívar, Consuelo, “Retablos del siglo XVII”, en: Historia del arte mexicano, Tomo 6,
Salvat, México, 1982, p.113
[4] Medel, Vicente, Diccionario Mexicano de Arquitectura, Instituto del Fondo Nacional de
la Vivienda para los Trabajadores, Banco INBURSA, S.A. México.1994.
[5] Merlo Juárez, Eduardo, Pavón Rivero, Miguel, Quintana Fernández., José Antonio, La
Catedral Basílica de la Puebla de los Angeles, Universidad Popular Autónoma de Puebla, Gobierno Municipal 2005-2008 de la Heroica Puebla de Zaragoza, Puebla. México.2006
[6] Toussaint, Manuel, Arte Colonial en México . Instituto de Investigaciones Estéticas.
UNAM, México. 1974.
[7] Toussaint, Manuel, La catedral y las iglesias de Puebla, Porrua, México, 1954.
527
Plan paisajístico de recuperación monumental y ambiental de la
alameda central de la ciudad de México: contribución académica
UAM-A al proyecto del gobierno del Distrito Federal.
María Teresa Ocejo Cázares
Divisió de Ciencias y Artes para el Diseño. Universidad Autónoma Metropolitana, Unidad Azcapotzalco
[email protected]
Resumen
La Alameda Central de la ciudad de México, es el paseo más antiguo de la
América Hispana, fue concebida por el Virrey Don Luis de Velasco, hijo,
hacia fines del siglo XVI en 1592. Es un jardín histórico de alto significado
para la ciudad y para el país, presenta valores culturales y paisajísticos de
gran arraigo entre la población, concentra la evolución del paisaje en la ciudad de México, paseo emblemático de los habitantes y espacio cardinal en
la organización física y social del área central y puerta de entrada al Centro
Histórico.
Con el fin de contribuir a la recuperación de su memoria histórica y su patrimonio, nos propusimos realizar un estudio detallado para definir un Plan
Maestro Paisajístico de Recuperación Monumental y Ambiental que lograra
la puesta en valor, de este sitio memorable, y así, devolver el mensaje cultural que tuvo ésta en el transcurrir de la historia, el cual se fue desvirtuado en
las últimas décadas. Esta investigación académica realizada en el Posgrado
en Diseño de la Universidad Autónoma Metropolitana – Azcapotzalco, en
su momento puso a disposición del Gobierno del Distrito Federal el proyecto llevado a cabo, por la Línea, Diseño, Planificación y Conservación de Paisajes y Jardines, contribuyendo así a la puesta en marcha de la restauración
física de la Alameda, durante el año de 2012
Palabras clave: Alameda, Jardín, Histórico, Paisaje, Recuperación.
Introducción
La Alameda de la Ciudad de México, es un Jardín Histórico y Monumento
Urbano, que tiene un alto significado para la ciudad y para el país, es puerta
de entrada al Centro Histórico y espacio emblemático de los habitantes.
Presenta valores culturales y paisajísticos de gran arraigo entre la población.
La Alameda concentra la evolución del paisaje en la ciudad, y es un espacio
cardinal de la organización física y social del área capital.
528
Sin embargo, La Alameda, en las últimas décadas, presentaba un alto grado
de deterioro en su generalidad, particularmente en lo ambiental, lo demostraba en la vegetación existente, con un alto grado de degradación, aunado
a otros factores de uso y diversas funciones que se establecieron a lo largo
del tiempo, muchas de ellas ajenas a lo que corresponde a un sitio de alto
valor paisajístico.
Con el fin de contribuir en la recuperación de un paisaje urbano patrimonio
nacional, su memoria histórica e identidad de la Alameda, se planteó en el
Posgrado de Diseño, Planificación y Conservación de Paisajes y Jardines de
la Universidad Autónoma Metropolitana Azcapotzalco; realizar un estudio
detallado y definirlas bases para este sector en un Plan Paisajístico de Recuperación Monumental y Ambiental [1] , con la finalidad de devolver así el
mensaje cultural que La Alameda tuvo tanto en su origen como en el transcurrir de la historia. (Figura 1).
Figura 1. Plano de la Ciudad de México. 1755-1768. Fuente: CASTRO Morales, Efraín. Alameda: visión histórica y estética de la Alameda de la Ciudad de México. México: Américo
Arte Editores; CONACULTA; INBA, p. 31.
Antecedentes históricos: Siglo XVI. La fundación de la Alameda en el Virreinato
La Alameda Central de la ciudad de México, es el paseo más antiguo de la
América Hispana, fue concebida hacia fines del siglo XVI por orden del 8º
Virrey de la Nueva España, Don Luis de Velasco Hijo, a través de la ordenanza del 11 de enero de 1592, fue quien solicitó al Ayuntamiento realizar
1 RECUPERACION MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis
de Especialidad , México: UAM-Azcapotzalco. 2011
529
un paseo para embellecer a la ciudad y lugar de recreo para sus habitantes
(Máximo, 1956, p.145).
Una de las razones de fondo en su construcción, fue de carácter militar, así
como habilitar tierras para el crecimiento del territorio de la Nueva España.
Creada al poniente, a extramuros de la Ciudad de México, pronto se transformó durante la época colonial en el centro de convivencia más importante
del virreinato, y visita obligada de los forasteros.
Los mapas, planos, dibujos, litografías y fotografías, ilustran la evolución
urbano-arquitectónica y paisajística de la Alameda de la Ciudad de México.
Siglo XVII. La Alameda Renacentista
La Alameda con su traza original a manera renacentista en forma cuadrada
estaba provista de una fuente con un brocado ortogonal de cantera labrada
que dividía los cuatro prados del paseo en el plano de la capital novohispana levantado en 1628 por el maestro en arquitectura Juan Gómez de Trasmonte, (Castro, 2001, p. 34) En la imagen se distingue, la Alameda próxima
a la calzada de Tacuba por donde corría el acueducto prehispánico renovado que venía de Chapultepec. (Figura 2)
Figura 2. Dibujo en tinta y acuarela. Forma y levantado de la Ciudad de México, Juan Gómez de Transmonte, 1628. Museo Nacional de Historia. Fuente: CASTRO Morales, Efraín,
“Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la Alameda de la Ciudad de México. México: Américo Arte Editores; CONACULTA;
INBA, p. 34.
Para mediados del siglo XVII la Alameda conservaba su traza y fuente; se
había convertido en el paseo preferido por los miembros de la aristocracia
y de la alta burguesía virreinal, quienes la visitaban en sus carruajes o a
caballo, a finales de siglo el crecimiento de la ciudad de México dirección
poniente hacía de esta zona un área enmarcada por obras urbanas de gran
importancia para la ciudad, como el nuevo acueducto colonial que venía de
Santa Fe a desembocar en la fuente de la Mariscala, cercada de acequias y
puentes que daban acceso a su espacio.
530
Siglo XVIII, Alameda Barroca
Durante el siglo XVIII, bajo el resultado de las reformas borbónicas y de
la Ilustración, la Alameda tuvo dos importantes modificaciones. La primera
gran transformación que se observa es que pasó de ser originalmente de
forma cuadrada, para convertirse en un hermoso jardín rectangular a la manera barroca, con el aumento llegó a tener 16 calzadas e igual número de
prados triangulares, bordeados de árboles bajo una composición definida
de su retícula vegetal, a su vez con cinco nuevas rotondas y tres calzadas
que desembocaban en pórticos con sencillas rejas de madera. (Figura 3 y 4)
Figura 3. Biombo. Vista de la Alameda y el palacio de los virreyes, Anónimo, mediados del
siglo XVII. Museo de América, Madrid. Fuente: CASTRO Morales Efraín, “Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la Alameda
de la Ciudad de México. México: Américo Arte Editores; CONACULTA; INBA, p. 36.
Figura 4. Plano a color del año1775. Paseo de la Alameda de México. Anónimo. Fuente:
Lombardo de Ruiz Sonia y Yolanda Teran Trillo (col). Altas histórico de la ciudad de México.
México: INAH. Smurfit Cartón y Papel, Vol 2, p.501.
Bajo el impulso de los virreyes ilustrados, Croix, Bucareli y Revillagigedo,
la Alameda se convirtió en un paseo de mayor belleza e interés, con nuevas
fuentes, esculturas y refinado enverjado de mampostería. (Figura 5)
531
Figura 5. Plano ingnográfico de la Alameda de la nobilísima Ciudad de México hecho el
año de 1778, José María de La Bastida. Fuente: LOMBARDO DE RUIZ, Sonia y Yolanda
TERÁN TRILLO (colaboradora) Atlas histórico de la ciudad de México. México: Instituto
Nacional de Antropología e Historia; Smurfit Cartón y Papel, Vol. 2, p. 55.
Siglo XIX. La Alameda del México Independiente: El Primer Imperio, la Primera República, el Segundo Imperio, la Reforma Juarista
La Alameda en el México Independiente, presenció importantes acontecimientos políticos, sociales y militares, sucesos que marcaron la historia de
la nación.
Figura 6. Litografía. Interior de la Alameda de México, 1855 – 1856. México y sus Alrededores, litografía de Decaen, grabado de Casimiro Castro y Juan Campillo Colección
Biblioteca de Arte Mexicano/ Ricardo Pérez Escamilla. Fuente: En CASTRO Morales, Efraín,
“Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la Alameda de la Ciudad de México. México: Américo Arte Editores; CONACULTA; INBA, p. 75.
532
Figura 7. Litografía. La Alameda de México, tomada en globo, 1855 – 1856. México y sus
alrededores, litografía de Decaen, grabado de Casimiro Castro y Juan Campillo Fototeca
Culhuacán, CNCA – INAH. Fuente: CASTRO Morales, Efraín, “Alameda mexicana, breve
crónica de un viejo paseo”, en Alameda: visión histórica y estética de la Alameda de la
Ciudad de México. México: Américo Arte Editores; CONACULTA; INBA, p. 74
En el año de 1864, durante el gobierno del segundo emperador de México,
Maximiliano de Hasburgo y Carlota (1864 – 1887) la Alameda fue uno de los
centros de atención principal, su recuperación basada en la mejora aplicada
a la vegetación y el mobiliario, no se vería concluida desafortunadamente
en el tiempo planeado. Posteriormente uno de los hechos impactantes ocurridos en el paseo de la Alameda, fue el atentado contra el General Porfirio
Díaz en la celebración del 16 de septiembre de 1867. (Molano, 2012)
Figura 8. Acuarela y lápiz sobre papel. La Alameda y fachada del Hospital de San Juan
de Dios, Anthony Carey Stannus, ca. 1865. Fuente: CASTRO Morales, Efraín, “Alameda
mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la
alameda de la Ciudad de México. México: Américo Editores; CONACULTA; INBA, p. 70.
La Alameda en el Porfiriato a finales del siglo XIX e inicios del XX
En el Gobierno del General Porfirio Díaz, etapa que marco un segundo auge
con la actualización, renovación y modernización de la infraestructura de
los sistemas de riego, electrificación, renovación de su jardinería.(Figura 9)
533
Figura 9. Plano de la Alameda después de las reformas de 1901. Guillermo Heredia (Regidor del Ramo). Fuente: Biblioteca del Museo de la Ciudad de México.
Con la llegada de profesionales extranjeros, expertos en botánica, se introdujeron especies hasta el momento no empleadas, con una gran variedad
de flores, arbustos, árboles exóticos y frutales, acorde con la estética de los
jardines decimonónicos parisinos, así como la creación de un invernadero
de plantas delicadas. La Alameda se erigió así como un corredor artístico y
cultural importante, después de tres siglos de existencia, ocupaba un lugar
especial en la memoria y el alma de los capitalinos, era ya el parque de mayor tradición y abolengo de la ciudad en cuyo interior guardaba recuerdos
y nostalgias derivados de las actividades sociales, mercantiles, culturales y
de esparcimiento.
Figura 10. Plano general de los jardines, vista a vuelo de pájaro, ca. 1923. Reproducción
fotográfica virada a sepia. Fuente: CASTRO Morales, Efraín, “Alameda mexicana, breve crónica de un viejo paseo”, en Alameda: visión histórica y estética de la alameda de la Ciudad
de México. México: Américo Editores; CONACULTA; INBA, p. 104.
La Alameda recibió una atención especial a partir de 1880, bajo el gobierno
de Díaz, obras que concluyen en 1901. Tomando en cuenta el proyecto integral del Teatro Nacional (Bellas Artes) iniciado en 1904, en el cual se integró
un proyecto para la Alameda presentado éste por el arquitecto italiano Adamo Boari (1856-1928) el cual tuvo la intención de modificar la Alameda,
en cuyo proyecto se buscaba cambiar la traza antigua del paseo, integrar
una pérgola, retirar las fuentes y monumentos, para dar cabida a amplias
calzadas proyecto inconcluso debido al inicio de la Revolución Mexicana.
(Figura 10)
534
La Alameda posterior al Movimiento Revolucionario
Una vez que México recuperó la estabilidad política, económica y social,
siendo presidente de la República Abelardo L. Rodríguez, la obra fue retomada en 1931 bajo la responsabilidad del arquitecto Federico Mariscal,
etapa en la que se realizó en su totalidad la pérgola, (Figura 11 y 12) la cual
comprendió además la instalación de la Librería de Cristal y áreas culturales,
obra inaugurada el 29 de septiembre de 1934, la cual existió a un costado
de Bellas Artes hasta 1973 en que fue demolida. (Figura 13).
Figura 11. Pérgola de la Alameda.
Fuente:www.esteticas.unam.mx/revista_imagenes/anotaciones/ano_fernandez03.html.
Figura 12. Detalle de Pérgola de la Alameda. Fuente: Alameda: visión histórica y estética de
la alameda de la Ciudad de México. México: Américo Editores;
CONACULTA; INBA, p. 103.
Figura 13. Librería de Cristal. Fuente: http://svazquez.blogspot.com/2004/05/gregorio-lalibrera-de-cristal-y-la.html.
La Alameda a fines del siglo XX y principios de siglo XXI
Figura 14. Vista Aérea de la Alameda antes de la intervención. Fuente: M. T. Ocejo 2011.
A fines del siglo XX y principios de siglo XXI hubo esfuerzos de parte de
nuestras autoridades para recuperar la imagen histórica de la Alameda empeñándose en salvaguardar las esculturas de mármol, resguardadas en el
Museo Nacional de Arte, rehabilitar Bellas Artes y las fuentes del pasado así
como reforestar los jardines, colocar adoquines en calzadas y glorietas, introducir el sistemas de riego por aspersión y un nuevo drenaje, no obstante
ese esfuerzo, el parque de mayor tradición y abolengo de la ciudad carecía
de una imagen paisajística y estilística definida además de enfrentar importantes problemas[2].
Proyecto Académico para la Recuperación y Conservación de la Alameda.
Posgrado en Diseño, Planificación y Conservación de Paisajes y Jardines
El Plan Paisajístico de Recuperación Monumental y Ambiental, fue realizado
en el Taller de Diseño, en la Especialización en Planificación, Conservación
de Paisajes y Jardines, en el Posgrado en Diseño de la División de Ciencias
y Artes para el Diseño, de la Universidad Autónoma Metropolitana– Azcapotzalco (UAM-A), taller coordinado por el Dr. Saúl Alcántara Onofre, Mtra.
María Teresa Ocejo Cázares, Mtro. Armando Alonso Navarrete, y desarrollado por los alumnos del mismo.
2 RECUPERACIÓN MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis
de Especialidad, México: UAM-Azcapotzalco. 2011.
536
El estudio y la propuesta de acción se implementó en tres etapas, 1.- “Investigación cognitiva”: estudio histórico, cultural y paisajístico del sitio, 2.Análisis detallado de la situación actual de la Alameda y su entorno, 3.- Desarrollo del Plan Maestro y Proyectos de Diseño
Primera Etapa: “Investigación Cognitiva”
El estudio comprendió el análisis histórico con los antecedentes del lugar
elementos con los cuales se obtuvo información histórica-cultural y paisajística de la Alameda, así como, de los elementos de mayor interés paisajístico, artístico, ambiental de la misma y de su entorno. Con la consulta
en archivos y la recopilación del material gráfico-histórico, se conformaron
documentos específicos de cada material localizado, sobre el patrimonio
histórico, fotográfico, gráfico-histórico, planimétrico y documental. (Figura
12). Tomando como base la planimetría original, se elaboraron planos de las
épocas más representativas con el objeto de observar los cambios efectuados en su conformación dando por resultado la elaboración del “Palimpsesto”, y con ello identificar las modificaciones de la traza urbana, los diseños
del jardín histórico y de su vegetación a lo largo del tiempo, así como el
deterioro paisajístico sufrido en las diferentes épocas. La traza histórica fue
base para el análisis interpretativo de la arquitectura del sitio, relevando el
estado de conservación del patrimonio vegetal y su relación en el tiempo,
los manufactos arquitectónicos, la infraestructura y equipamiento histórico.
Por otro lado los datos iconográficos permitieron reconstruir la historia gráfica, y la evolución del crecimiento urbano del área, haciendo un intento de
interpretación, para comprender la evolución del sitio, de su entorno y de
su área de influencia.
Figura 12. Ejemplo de fichas fotográficas, Alameda. Fuente: recuperación monumental y
ambiental de la alameda central de la ciudad de méxico. Tesis de especialidad, México:
UAM-Azcapotzalco 2011.
537
Segunda etapa: Situación Actual.
Una vez realizado el análisis histórico del sitio, el estudio se centró en la
realización de una investigación sobre el estado actual de la Alameda y
de su contexto, el punto de partida, se inicia con la delimitación del área
de actuación y su relación con otros espacios públicos de la zona, identificando las calles principales, recorridos, puntos de acceso, plazas, edificios,
espacios culturales, arquitectura relevante y zona de monumentos, del sitio
y la zona adyacente.
Figura 13. Estudio de la vegetación y sus valores. Fuente: RECUPERACIÓN MONUMENTAL
Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis de Especialidad, México: UAM-Azcapotzalco 2011.
El estudio detallado al interior de la Alameda, partió al realizar un levantamiento exhaustivo del área y de sus componentes, tanto del trazo urbano
actual, como de la conformación de la vegetación existente, de su arquitectura, fuentes, equipamiento urbano y elementos artísticos.
Respecto a la vegetación se logró inventariar y catalogar todos los árboles
existentes en la Alameda, identificando cada uno de ellos con fichas completas, verificando sus dimensiones así como su situación fitosanitaria. (Figura 14) El estudio realizado fue traducido a planos con una expresión gráfica y planimétrica propia del lenguaje de la arquitectura del paisaje, también
en este inventario se relevó la importancia de los árboles monumentales e
históricos.
En el estudio paisajístico se definieron las zonas históricas, perspectivas y
puntos focales más relevantes, señalando los catalejos de máximo interés
visual para potenciar perspectivas relevantes y puntos focales históricos.
538
Figura 14. Estudio Fitosanitario, Alameda Central. Fuente: RECUPERACIÓN MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis de
Especialidad, México: UAM-Azcapotzalco 2011.
Con todos los elementos estudiados en esta etapa, se obtuvo en conjunto un
conocimiento profundo y detallado de la misma, se logró establecer también un contacto estrecho con el área, y establecer el estatus paisajístico de
la misma en la situación actual estudiada.
Tercera Etapa: Plan Maestro Paisajístico y desarrollo de proyectos
Figura 15. Estudio Alameda. Fuente: RECUPERACIÓN MONUMENTAL Y AMBIENTAL
DE LA ALAMEDA CENTRAL DE LA CIUDAD DE MÉXICO. Tesis de Especialidad, México:
UAM-Azcapotzalco 2011.
Para el desarrollo de esta fase, la información obtenida en las etapas anteriores fue base para la implementación de las propuestas paisajísticas. Para
el Plan Paisajístico de la Alameda, se definieron lineamientos y criterios generales respecto a los usos y destinos del suelo tanto presentes como para
futuras intervenciones, así como para la salvaguarda y recuperación de la
arquitectura histórica y patrimonio artístico. El diseño paisajístico del plan,
consideró también la revitalización del entorno y su contexto.
539
El concepto paisajístico implementado, definió un orden en el trazo acorde
a las características originales, a su vez un nuevo planteamiento para el diseño de los parterres, zonas y regiones, al interior de la Alameda, a su vez
criterios específicos para la conservación del arbolado tales como preservar
los árboles con valor monumental, botánico e histórico-cultural, así como
la zonificación de arquitectura contemporánea en zonas específicas, vialidades y recorridos didácticos, infraestructura, equipamiento, instalaciones y
seguridad del área.
Principal atención se le dio a la iluminación escénica para dar énfasis a los
elementos arquitectónicos y artísticos.
La intervención en las arquitecturas vegetales consistió en definir los trasplantes, retiros, podas técnicas y de formación de los árboles existentes
definiendo la paleta vegetal para la determinación de un nuevo carácter
paisajístico de la Alameda. Para la recuperación de visuales históricas se matizaron las disonancias paisajísticas y establecieron perspectivas y visuales
hacia el interior y exterior de la misma relevando puntos de interés visual.
Vinculación del Proyecto Académico con el Plan de Rehabilitación de la
Alameda desarrollado por el Gobierno del Distrito Federal
Para la puesta en valor de este sitio memorable, el grupo de investigación
académica del Posgrado en Diseño de la UAM-A se vinculó con el Gobierno
del Distrito Federal, para colaborar en ésta importante tarea.
Figura 16. Proyecto de Rehabilitación de la Alameda Central, Gobierno del Distrito Federal:
Secretaria de Desarrollo Urbano y Vivencia (SEDUVI).
En el desarrollo del trabajo académico, el estudio fue presentado en sus diferentes etapas a la Dirección y Fideicomiso del Centro Histórico, los avances
presentados a las autoridades del Centro Histórico en sus diferentes fases
en cierto modo fue uno de los factores que alentaron a las autoridades a
desarrollar la Rehabilitación de la Alameda Central de la Ciudad de México.
540
Al concluir académicamente el Plan Paisajístico de la Alameda fue presentado y entregado el mismo al Arq. Enrique Lastra, proyectista de la Recuperación de la Alameda, y a su grupo de trabajo, teniendo conocimiento de ésta
aportación universitaria la Secretaría de Desarrollo Urbano y Vivienda (SEDUVI) este trabajo terminal de la Especialización de Diseño, Planificación
y Conservación de Paisajes y Jardines, permitió sustentar tanto documental
como propositivamente la implementación del proyecto gubernamental .
Figura 17. Planta de conjunto, localización y renders del Proyecto de Rehabilitación. Gobierno del Distrito Federal. Fuente: Secretaría de Desarrollo Urbano y Vivienda (SEDUVI),
2010.
541
Figura 18. Renders del Proyecto de Rehabilitación. Gobierno del Distrito Federal. Fuente:
Secretaría de Desarrollo Urbano y Vivienda (SEDUVI), 2010.
542
Figura 19. Alameda Central en la actualidad, vista aérea. Fuente: https://www.flickr.com/
photos/45079117@N00/9462213225/.
Figura 20. Alameda Central en la actualidad. Fuente: https://www.flickr.com/photos/45079117@N00/9462213225/.
Concluyendo
La metodología implementada por el Posgrado en Diseño en la Línea de Diseño, Planificación y Conservación de Paisajes y Jardines, permite desarrollar investigaciones profesionalizantes articulada a sectores sociales y sector
público en proyectos reales. El trabajo anteriormente expuesto es ejemplo
de ello porque en su desarrollo alentó a las autoridades a tomar la decisión
de iniciar la obra de “Rehabilitación de la Alameda” (abril de 2012), misma
que concluyó y fue inaugurada el 20 de noviembre del mismo año. El estudio realizado en la academia y el desarrollo de esta investigación, se llevó a
cabo de común acuerdo con las autoridades del Gobierno del DF.
Finalmente el proyecto de ejecución de la obra, contó con el respaldo de
una información especializada y fundamentada basada en el estudio realizado por la UAM-A, a su vez se tuvo la oportunidad de colaborar como asesores del proyecto, a profesores del Posgrado y la incorporación de alumnos
de la Especialización al equipo de trabajo de dicho plan.
543
El estudio realizado basado en un proceso metodológico propio del modelo
implementado por los Planes y Programas del Posgrado en Diseño, Planificación y Conservación de Paisajes y Jardines, permite a los alumnos tener
una formación en la investigación y en el desarrollo de proyectos reales que
contribuyan a la conservación, preservación y recuperación de los paisajes
y jardines.
El mejoramiento y la rehabilitación de este jardín, es una muestra de cómo
la academia puede contribuir al rescate de este importante paseo histórico,
así con su rehabilitación, la Alameda de la Ciudad de México vuelve a tener
la calidad y belleza que los habitantes de la ciudad actualmente disfrutan.
El mejoramiento y la rehabilitación de este jardín, es una muestra de cómo
la academia puede contribuir al rescate de este importante paseo histórico,
así con su rehabilitación, la Alameda de la Ciudad de México vuelve a tener
la calidad y belleza que los habitantes de la ciudad actualmente disfrutan.
Figura 21. Sueño de una tarde dominical en la Alameda Central. Diego Rivera. Fuente:
http://www.retratodeunsueno.com/about/.
Referencias
[1] ALAMEDA. Visión histórica y estética de la Alameda de México. CONACULTA/INBA.
América Artes Editores, México 2001.
[2] ALTAMIRANO, Ignacio (1954). Paisajes y Leyendas. México: Editora Nacional S.A.
[3] ANTOLOGIA, (1964). México visto por algunos de sus viajeros. México: Ediciones Botas.
[4] BENÍTEZ, Fernando. “La Ciudad de México”. México, Salvat, 1981.
[5] CASTRO, Efraín (2001). Alameda, visión histórica y estética. México: Americo Arte Editores, Landucci Editores.
[6] FLORES, Berta (1964) México visto por algunos de sus viajeros. México: Ediciones Botas. GARCIA, Rubén (1950). Rincones y Paisajes del México Maravilloso. México: Talleres Gráficos de la Nación.
[7] FOTOTECA CONSTANTINO REYES-Valerio de la CNMH-CONACULTA-INAH-MEX.
[8] GLANTZ, Margo (1982). Viajes en México. Crónicas extranjeras. Tomo I. México: SEP/80
y FCE.
[9] HACIA UN PLAN MAESTRO PARA LA ALAMEDA CENTRAL. Alcántara Onofre Saúl
Coord. México: INAH. CONACULTA. 2011
[10]HERRERA MORENO, Ethel y DE ITA MARTÍNEZ,Concepción. “500 (Quinientos) Planos
de la Ciudad de México 1325-1933 .Investigación de textos y planos.” México: Secreta-
544
ria de Asentamientos Humanos y Obras Públicas, 1982.
[11]LOMBARDO, Sonia. (1996). Atlas histórico de la ciudad de México. México: UNAM.
[12]MARTÌNEZ, Eduardo (2009). Miradas sobre el paisaje. España: Biblioteca Nueva.
[13]MÁXIMO Magdaleno (1956) La Alameda Central. México: DDF-DGAS.
[14]MOLANO, Horacio. “Descubriendo el Expediente del atentado. La novela histórica según Álvaro Uribe”. Decires, Revista del Centro de Enseñanza para Extranjeros. ISSN
1405-9134, vol. 14, núm. 17, primer semestre, 2012, pp. 71-90.
[15]RECUPERACIÓN MONUMENTAL Y AMBIENTAL DE LA ALAMEDA CENTRAL DE LA
CIUDAD DE MÉXICO. Tesis de Especialidad, México: UAM-Azcapotzalco. 2011
[16]SANCHEZ, Adolfo (2003) Cuestiones estéticas y artísticas contemporáneas. México:
Fondo de Cultura Económica.
[17]TOUSSAINT, Manuel; GÓMEZ DE OROZCO, Federico; FERNÁNDEZ, Justino. “Plano
de la Ciudad de México siglos XVI y XVII. Estudio urbanístico y bibliográfico”. XVI°
Congreso Internacional de Planificación y de la Habitación, México MCMXC. Instituto
de Investigaciones Estéticas de la Universidad Nacional Autónoma de México, 1938.
México D.F.
[18]TOVAR, Guillermo (2004). La ciudad: un palimpsesto. México: Ediciones sin Nombre/
Conaculta.
[19]SEDUVI.Proyecto de Rehabilitación de la Alameda Central. Gobierno del Distrito Federal. Fuente: Secretaría de Desarrollo Urbano y Vivienda. México D.F. 2011
[20]http://www.retratodeunsueno.com/about/.
[21]http://es.wikipedia.org/wiki/Palimpsesto.
[22]http://todosobremivida-montezuma.blogspot.mx/2010/05/tenochtitlan-corazon-de-latierra.html
[23]http://faculty-staff.ou.edu/L/A-Robert.R.Lauer-1/tenochtitlan2.gif
[24]www.esteticas.unam.mx/revista_imagenes/anotaciones/ano_fernandez03.html
[25]https://www.flickr.com/photos/45079117@N00/9462213225/
[26]https://www.flickr.com/photos/45079117@N00/9462213225/
[27]http://svazquez.blogspot.com/2004/05/gregorio-la-librera-de-cristal-y-la.html
El Libro Científico Vol. I de Ciencias Básicas e Ingeniería y Ciencias y Artes
para el Diseño, se terminó de imprimir el día 25 de noviembre de 2015 en Forma y Color,
Av. Cuauhtémoc No. 12, San Lorenzo Atemoaya, C.P. 16400, Xochimilco, México, D.F.
La obra consta de 200 ejemplares.
©Universidad Autónoma Metropolitana, Unidad Azcapotzalco.
Av. San Pablo 180. Col. Reynosa, Tamaulipas. C.P. 02200, México, D.F.
Descargar