La Universidad del Centro Educativo La­tinoa­me­ricano integra una Institución Evan­gé­lica Metodista al servicio de la comunidad desde 1875. La UCEL tiene su origen en la iniciativa del Pastor Tho- ISSN 0329-3475 Rosario • Argentina • Año 14 Nº 26 •JUNIO 2011 UCEL - GRADUACIÓN 2010 REVISTA DE INVESTIGACIÓN ACADÉMICA UNIVERSIDAD DEL CENTRO EDUCATIVO LATINOAMERICANO Rosario • Argentina • Año 14 • Nº 26 • JUNIO 2011 mas B. Wood, destacado educador y ministro de la Iglesia Metodista en la Argentina, quien se propuso fundar una escuela moderna hacia 1871. La misma abrió sus puertas el 28 de mayo de 1875 conducida por las maestras Louise Denning y Jennis Chapin, con el respaldo activo del Pastor Wood, y así se inició el actual Centro Educativo Latinoa­mericano. Por más de un siglo la institución fue creciendo y en el año 1993 inauguró sus cursos la Universidad. UCEL es una universidad joven pero sus raíces se nutren en una tradición y procura brindar a sus estudiantes la mejor vía y las más actuales herramientas para encarar con seriedad y solvencia los desafíos que se vislumbran, ante el vértigo de los cambios extraordinarios en la tecnología aplicada al desarrollo de los pueblos. La misión consiste en abrir, recorrer y enseñar las buenas sendas que llevan hacia un futuro promisorio. Universidad del Centro Educativo Latinoamericano con autorización definitiva otorgada por el decreto Nº 979/06 de acuerdo con la Ley 24.521 de Educación Superior Av. Pellegrini 1332 - S2000BUM Rosario - Argentina Internet: www.ucel.edu.ar / e-mail: [email protected] INVENIO historia educacional de prestigio. UCEL trata de hacer honor a esa El gran diseño Consumo de fibra alimentaria El derecho como ciencia Circularidad, arbitrariedad y regreso infinito de razones Una mirada argentina a la economía brasileña La creatina en la performance deportiva La “batalla de las monedas” Difusión de tics en las pymes Dehidrocongelación de frutas Pizzas con harina de grano entero de sorgo y mijo Variación de las propiedades superficiales a altas temperaturas Consejo Asesor Académico Dr. Carlos Marcelo Aldao Zapiola Catedrático en la UBA, Universidad de San Andrés, UADE y UCA. Ex Presidente de la Federación Mundial de Asociaciones de Administración de Personal (WFPMA). Dr. Enrique Blasco Garma Ph. D. en Economía. Universidad de Chicago. Ex economista del BID en Washington DC. Dr. Heinrich Beck Ex Rector, Decano y Catedrático emérito de la Universidad Otto Friedrich. Bamberg, Alemania. Dra. María R. Marques Doctora en Ciencias de la Alimentación. Maestría en Ciencias Farmacéuticas. Especialización en Nutrición Clínica. Catedrática e Investigadora. UNIMEP, Brasil. Dr. Emilio Alberto Navarini Fellow of the International College of Surgeons. Chicago, USA. Rector Instituto Universitario Italiano de Rosario. Asesor Evaluador en la CONEAU. Dr. Karl-Otto Apel Profesor emérito de la Universidad de Frankfurt. Alemania. Dra. Silvana Filippi Catedrática e Investigadora. UNR-CONICET. Dr. Tomaso Bugossi Catedrático y Director de Investigaciones en la Facultad de Ciencias de la Formación de la Universidad de Génova, Italia. Dr. José Ricardo P. Sánchez Catedrático e Investigador en la Universidad Autónoma del Estado de México. Dr. Cristiano Morini Doctor en Ingeniería de Producción. Magister en Integración Latinoamericana. Docente e Investigador en UNIMEP, Brasil. Dr. Fernando Aranda Fraga Catedrático y Director de Investigación. Universidad de Montemorelos, México. Dr. Antonio Giuliani Doctor en Administración. Coordinador de Maestría. UNIMEP. Brasil. Dr. Oscar Velásquez Catedrático e Investigador. Universidad Católica. Santiago de Chile. Dr. Osvaldo Elias Farah Doctor en Administración de Empresas. Piracicaba. Brasil. Mg. María R. Cena Magister en Tecnología de los Alimentos Mag. María A. Marín Magister en Ingeniería en Calidad. Investigadora en la UNC Dra. Miriam Coelho de Sousa Nutrición y Ciencia de la Alimentación (University of Reading, Inglaterra) UNINEP Brasil INVENIO REVISTA DE INVESTIGACIÓN ACADÉMICA UNIVERSIDAD DEL CENTRO EDUCATIVO LATINOAMERICANO AUSPICIADA POR LA SECRETARÍA DE CULTURA DE LA NACIÓN Año 14 Nº 26 Rector de la Universidad Director Secretario de Redacción Asesor Financiero Asesora Traducciones Idioma Inglés Junio 2011 Dr. Ovidio Torres CPN Rogelio T. Pontón Dr. William R. Daros CPN Rafael Beltramino Prof. Fanny N. Sloer de Godfrid Consejo Editorial Lic. Carlos A. Fernández Souza CPN Arnolfo C. Martínez Lic. Diego Marcos Abg. Efraím Torres Psic. Stella M. Requena Dr. Ignacio A. Coria Dr. Ángel Pérez Cortés INVENIO es una publicación semestral. Los artículos de esta revista deben ser originales y son sometidos al arbitraje y evaluación anónima y externa de pares. Estos artículos no reflejan necesariamente la opinión de la Dirección de la revista y son de exclusiva responsabilidad de sus autores. La Dirección de la revista tampoco se hace responsable del estilo literario y las licencias lingüísticas que cada autor asuma en la redacción de su trabajo. La reproducción total o parcial de esta revista, sin la autorización de los editores, viola los derechos reservados. INVENIO está indizada por Latindex, por REDALYC (Red de revistas científicas de América Latina y el Caribe, España y Portugal): http://www.latindex.unam.mx y http://redalyc. unamex.mx, por DOAJ Directory of Open Access Journals (Lund University Libraries, Suecia): http://www.doaj.org y por DIALNET (Red de revistas por la Universidad de La Rioja, España) http://dialnet.unirioja.es. Se publican artículos en castellano, inglés y portugués. Redacción y Administración de INVENIO: Universidad del Centro Educativo Latinoamericano. Avda. Pellegrini 1332 - S2000BUM - Rosario - República Argentina Tel./Fax: 54-341-4499292, 54-341-4261241 Internet: www.ucel.edu.ar / E-mail: [email protected] Propietario: Asociación Universidad del Centro Educativo Latinoamericano / AUCEL Toda correspondencia, colaboración o solicitud de suscripción debe dirigirse a la dirección de esa revista. INVENIO se distribuye internacionalmente. ISSN: 0329-3475 - Queda hecho el depósito que marca la Ley 11.723 Impreso en: Talleres Gráficos Fervil S.R.L. Santa Fe 3316 - Tel. 0341 4372505 - E-mail: [email protected] 2000 Rosario - Argentina 3 Acerca del título de nuestra publicación En Latín, “invenio” es un verbo transitivo de la cuarta conjugación, que significa “encontrar”, “hallar”, “conseguir”, “adquirir”, “inventar”, “descubrir preguntando”, “enterarse de”... Ya se ve que es una de esas palabras ricas en significados y connotaciones, y que, quizá como ninguna otra, expresa todo eso que se pretende en la vida universitaria. Así, por ejemplo, encontramos problemas, hallamos respuestas, conseguimos soluciones, adquirimos información, inventamos proyectos, descubrimos preguntando la opinión ajena, y nos enteramos de las preocupaciones de los otros. Todo eso significa “invenio”. El nombre de nuestra revista es una invitación y un estímulo al trabajo constante y mancomunado de todos los que conforman y colaboran con la tarea universitaria. INVENIO tiene por finalidad brindar un espacio para las ideas producto de investigaciones originales de UCEL y de otras entidades de investigación tanto de Argentina como del exterior. 4 INVENIO Año 14 Nº 26 Junio 2011 ÍNDICE GENERAL Nota del Director: El gran diseño Rogelio Tomás Pontón............................................................................................ 7 DERECHO El derecho como ciencia Silvana Mabel García.............................................................................................. 13 FILOSOFÍA Circularidad, arbitrariedad y regreso infinito de razones Tito Flores............................................................................................................... 39 ECONOMÍA Una mirada argentina a la economía brasileña. Los gobiernos de Cardoso y Lula Diego N. Marcos - Gabriel D. Frontons................................................................. 47 Tema de actualidad: La “batalla de las monedas” y el precio de los alimentos Rodolfo C. Rossi..................................................................................................... 73 ADMINISTRACIÓN DE EMPRESAS Innovación empresaria en Argentina. Difusión de TICs en las PYMES -Segunda parteJuan Carlos Scarabino - Mariana Belén Colonnello............................................... 79 NUTRICIÓN Fibra alimentaria: consumo en estudiantes universitarios y asociación con síndrome de intestino irritable Nadia Meisner - Karina Muñoz - Romina Restovich - María Elisa Zapata Silvina Camoletto - María Cecilia Torrent - Jorge Molinas.................................... 91 5 Los efectos que produce la creatina en la performance deportiva Paula Carrillo - María Victoria Gilli....................................................................... 101 INGENIERÍA EN TECNOLOGÍA DE LOS ALIMENTOS Dehidrocongelación de frutas: estudio de los parámetros de calidad Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda......................................... 117 Desarrollo de una pre-mezcla para pizza a base de harina de grano entero de sorgo y mijo. Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino Adriana Clementz .................................................................................................. 113 QUÍMICA Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición soportados en alúmina, para su utilización en reacciones catalíticas que involucren adsorción de gases Ignacio Daniel Coria............................................................................................... 141 RESEÑA BIBLIOGRÁFICA............................................................................... 155 PENSAMIENTOS DE JOHN WESLEY............................................................ 157 6 NOTA DEL DIRECTOR El gran diseño En el mes de setiembre del año 2010 se publicó el libro de Stephen Hawking y Leonard Mlodinow The Grand Design, libro que fue ampliamente publicitado antes de su aparición. Medios muy importantes del mundo, especialmente británicos, hicieron conocer algunos extractos de la mencionada obra y ya desde antes de su publicación varios críticos hicieron comentarios sobre sus bondades o no. En este corto artículo vamos a analizar la obra no desde un punto de vista técnico, que no está a nuestro alcance, sino desde el llano. Por provenir la obra de un distinguido físico como Hawking, no se puede negar que ejerció desde el primer momento un gran impacto. Es que, como ya se dijo veinticinco años antes cuando la publicación de Breve Historia del Tiempo del mismo autor, existen razones que pueden explicar los éxitos de librería: a) que el libro no contenga fórmulas matemáticas complejas y b) que en algunos de sus párrafos se aluda a Dios. En este sentido, Hawking siempre se caracterizó, en sus obras populares, por cumplir ese objetivo. Que Hawking es un físico notable no es algo creado por los medios. Basta consultar al respecto la obra que en su homenaje le dedicaron colegas y discípulos al cumplir sus 60 aniversario. La obra fue editada por Gibbons, Shellard y Rankin y se tituló The future of theoretical physics and cosmology. En sus casi 900 páginas, un sinnúmero de destacados físicos analizan aspectos de las investigaciones del gran autor. En las páginas finales se listan los artículos científicos escritos hasta ese momento por Hawking en número cercano a 180. Para aquellos, como Richard Dawkins, que ven en la última obra de Hawking la sepultura final de la creencia en Dios, les recordamos que varios de los colegas y discípulos que escriben en dicha obra homenaje, son teístas y eminentes cosmólogos, como George Ellis, Don Page, Chris Isham y Paul Shellard. Probablemente, a ese número se agreguen otros. Los científicos serios no creen que la ciencia tenga que demostrar la existencia de Dios, pero tampoco su no existencia. En declaraciones a unos medios, el coautor de la obra. Mlodinow, manifestó que no es la intención del libro mostrar la no existencia de Dios sino que el universo está autocontenido. En escritos anteriores Hawking había desarrollado lo que se llama ‘The Hartle-Hawking no-boundary proposal’. Otra cosa que debemos agregar al comienzo de este comentario, es que en muchos de sus libros y artículos populares, Hawking introduce expresiones sobre algunos aspectos de carácter religioso que parecerían puestos para producir en los lectores ‘cierto escándalo’, lo que se ve en su libro Breve Historia del Tiempo, pero especialmente en el que estamos comentando. El libro en la versión inglesa tiene aproximadamente 200 páginas. Poco tiempo después se editó en español por Crítica con el título de El Gran Diseño. Ambas ediciones están finamente ilustradas y el libro está bien escrito. También hay que acotar que a lo largo de la obra se hacen interrogantes a los cuales ningún ser humano puede estar ajeno. No hay duda de que los mencionados puntos hacen sumamente atractiva su lectura. Pero también hay que reconocer la crítica que le han hecho algunos de una cierta arrogancia en las contestaciones. En una revisión de la obra se dice: “…he had an opinión about everything, and an answer to every question. Unfortunately, he was also very naive”. Hay que hacer notar, también, que hay afirmaciones muy discutidas, como la expre- INVENIO 14 (26) 2011: 7-10 7 Rogelio Tomás Pontón sión en las primeras páginas de que la “philosophy is dead”. Por supuesto, este comentario puede ser algo sobre el que los autores están totalmente convencidos pero, llama la atención, que en páginas posteriores, parecería que las preguntas de orden filosófico no le son ajenas. El libro está compuesto de los siguientes capítulos: 1. 2. 3. 4. 5. 6. 7. 8. El misterio del ser Las reglas de la ley ¿Qué es la realidad? Historias alternativas La teoría del todo Escogiendo nuestro universo El milagro aparente El gran diseño. Sobre el final hay un glosario en el que se explican los términos técnicos usados en los capítulos anteriores. Cada uno de los capítulos se inicia con alguna historia extraída de la mitología de distintos pueblos o de algún hecho significativo de la ciencia, a los que los autores agregan comentarios muy sabrosos. Una línea que cruza una parte del libro es la oposición entre la corriente atomista de Demócrito y de los jonios, a la cual los autores se alinean, y la posición filosófica de Platón y Aristóteles, seguida en la edad media por autores como Santo Tomás de Aquino. Los historiadores del pensamiento filosófico, probablemente, no estarán de acuerdo con algunos de los comentarios que en muchos casos parecen sumamente simples como, por ejemplo, cuando se dice de Aristóteles que rechazaba “la idea de una ciencia basada principalmente en la observación” (pág. 30). El principio básico explicitado a lo largo del libro es que el universo se crea a sí mismo de la nada, idea que no es nueva ya que el físico alemán Pascual Jordan, coautor de la mecánica cuántica (por otro lado, un autor que era evangélico), la desarrolló hace muchos años. Se comenta que Albert Einstein, cuando la escuchó por primera vez, se horrorizó en extremo de la misma. La idea también había sido presentada por Edward Tryon a comienzos de los ’70. En un artículo publicado por la revista Nature hablaba de la ‘emergencia del universo del vacío cuántico’. El argumento básico, para expresar la mencionada idea, es que la gravedad tiene que tener energía negativa. Dicen los autores de libro que comentamos “que a escala del conjunto del universo, la energía positiva de la materia puede ser contrarrestada exactamente por la energía gravitatoria negativa, por lo cual no hay restricción a la creación de universos enteros” (pág. 203). Los autores dicen explícitamente: “Como hay una ley como la de la gravedad, el universo puede ser y será creado de la nada” (pág. 203). En el texto que hemos reproducido hay una contradicción. Los autores presuponen que el universo nace de la nada, pero al mismo tiempo que hay una ley de la gravedad que actúa en esa nada. Si estamos hablando de la nada, ¿de dónde proviene la ley de gravedad? Es probable que cuando los autores hablan de la ‘nada’ están suponiendo que no es la nada tal como lo entendemos normalmente ya que en esa nada hay gravedad. Por otro lado, los autores interpretan que las leyes tienen una habilidad mágica de hacer cosas. Respecto a esto dice el matemático John Lennox: 8 INVENIO 14 (26) 2011: 7-10 El gran diseño “Laws themselves do not create anything, they are merely a description of what happens under certain conditions” (las leyes en sí mismas no crean nada, ellas son meramente una descripción de lo que pasa bajo ciertas condiciones). Una ley científica nunca hace que algo pase, lo único que hace es describir lo que pasa. La gravedad causa que los planetas giren en órbita alrededor del sol y que las manzanas caigan hacia el centro de la tierra, pero no la ley de gravedad. Lo que hace ésta es describir como trabaja la gravedad. Si no hay nada, no hay gravedad, y si no hay gravedad no hay ley de la gravedad. Dice John Lennox: “Isaac Newton’s laws of motion in themselves never sent a snooker ball racing across the Green baize. That can only be done by people using a snooker cue and the actions of their own arms” (las leyes del movimiento de Isaac Newton en sí mismas no hacen que la bola de billar cruce el paño verde. Esto solo puede hacerse por la gente usando el taco de billar y la acción de sus propias manos). Para explicar la creación del universo de la nada, los autores recurren a la llamada Teoría-M y prometen explicar como es esto pero, lamentablemente, a lo largo del libro no encontramos una explicación clara sobre qué significa esa teoría. Retrocedamos unos pasos en nuestra explicación. En las primeras décadas del siglo XX los físicos desarrollaron dos teorías fundamentales: la teoría general de la relatividad (teoría de la gravedad), desarrollada por Albert Einstein, y la teoría de la mecánica cuántica, desarrollada por Heisenberg, Born, Jordan, Dirac y Schrödinger. La primera apuntaba a explicar los fenómenos macro del universo y fue la base que posteriormente otros autores, como Friedmann y el Padre George Lemaitre, usaron para explicar la expansión del universo desde el llamado Big Bang de hace alrededor de 13.700 millones de años. La segunda teoría tuvo un éxito aún mayor en la explicación de los fenómenos de la microfísica. El gran problema que lo ocupó a Einstein en sus últimos años fue el desarrollo de una teoría del todo, es decir la unificación de la teoría de la relatividad y del electromagnetismo, pero sin éxito. Tengamos en cuenta que en los primeros instantes del universo éste era infinitamente pequeño y es por eso que la mecánica cuántica interviene en su explicación. Desde hace casi cuarenta años, una gran cantidad de físicos (entre los cuales hay que mencionar al eminente físico argentino, Juan Maldacena), para lograr la mencionada unificación, desarrollaron diversas teorías sobre las llamadas cuerdas y finalmente varios de esos enfoques, fuertemente matemáticos, dieron lugar a la Teoría-M. Las cuerdas serían los componentes más pequeños del universo y vibrarían continuamente dando lugar a lo que divisamos como partículas. Estas cuerdas necesitan al menos 10 dimensiones. En los años noventa, buscando unificar cinco teorías de la supercuerdas, el gran matemático y físico Edward Witten propuso la Teoría-M y en la misma se identifican 11 dimensiones, actuando la llamada supergravedad entre membranas. ¿Esta Teoría-M es aceptada sin discusión por todos los físicos? ¿Está probada experimentalmente? ¿Se podrá probar en el futuro? INVENIO 14 (26) 2011: 7-10 9 Rogelio Tomás Pontón Los anteriores son interrogantes no resueltos. No todos los físicos la aceptan y algunos de ellos, como Lee Smolin, la han atacado recientemente. Veamos lo que dice el eminente matemático y físico compañero de Hawking, Roger Penrose, en su reciente libro Ciclos del Tiempo analizando distintas teorías sobre el pre Big Bang: “Apenas menos fantasiosas, en mi humilde opinión, son esas propuestas cosmológicas que dependen en su operación de las ideas de la teoría de cuerdas y su dependencia -tal como está la teoría de cuerdas- de la existencia de dimensiones espaciales extra” (pág. 175). Pero tampoco está probada experimentalmente y según muchos físicos es difícil que se pueda probar en el futuro. Los aceleradores de partículas (como el recientemente inaugurado por el CERN en Ginebra), necesitarían ser muchísimo más grandes, casi imposibles de construir, y esto lo dice un físico experimental que trabajó en el CERN como es Russell Stannard, de quién recomendamos el pequeño libro citado en la bibliografía. En base a la Teoría-M, Hawking y Mlodinow, deducen la existencia de cuasi infinitos universos (10 a una potencia de 500), que explicarían el ‘ajuste fino’ del llamado principio antrópico, es decir una serie de constantes (hasta seis según el libro del gran astrofísico Martin Rees, Sólo 6 números) que gobiernan el universo físico. De existir un solo universo no se podría explicar la existencia de la vida. De existir múltiples universos queda otro interrogante: ¿no tendrán todos ellos las mismas constantes? De ser así, habría que explicar el ‘ajuste fino’ de esas constantes. De todas maneras, hay que aclarar que aun existiendo cuasi infinitos universos (teoría del multiverso), que Hawking y Mlodinow explican en los últimos capítulos del libro bajo comentario, la fe en Dios no se ve resentida, por el contrario. Un eminente discípulo de Hawking, Donald Page, de fe cristiana, lo sostiene en numerosos artículos que se pueden bajar de internet. También otros autores, como Michael Heller, eminente físico y sacerdote polaco, quien analiza el tema de los universos múltiples en su reciente obra Ultimate Explanations of the Universe en donde se puede rastrear la idea de un Dios creador de diversos mundos en un autor del siglo tercero como fue Orígenes de Alejandría. Hace algo más de veinte años, Hawking y Hartle habían desarrollado una teoría por la cual, al nivel del tiempo de Planck (10 a una potencia de -43 segundo) del big bang, el tiempo pasaba a ser una dimensión espacial y, como las otras tres dimensiones espaciales se curvaba. En ese caso no había tiempo antes de ese tiempo. Esta idea está presente también en el libro que comentamos. Algunos autores la objetan diciendo que no es más que un desarrollo matemático pero no real (ver por ejemplo los análisis de Stoeger y Heller en los trabajos citados en la bibliografía). La obra de Hawking llega a la conclusión de que el universo se hizo solo de la nada y esto no puede probarlo. De hecho la teología enseña que Dios hizo el mundo (el universo o los multiversos) de la nada y, en definitiva, estarían diciendo lo mismo, con la diferencia de que el teísmo muestra que detrás de esa nada está la acción de Dios, mientras que para Hawking, detrás de la nada no sabemos si hay alguien o no, ya que no es tarea de la ciencia el demostrarlo, y eso no puede probarlo. Probablemente tenga razón el eminente astrofísico Martin Rees que enseña que no hay que hacerle mucho caso a las opiniones teológicas de Hawking. Aun demostrando que el mundo se hizo de la nada, como también enseña la teología judeocristiana e islámica desde hace miles de años, el tema de la existencia o no de Dios está fuera del alcance de la física y la obra que comentamos no logra darnos la respuesta. Rogelio Tomás Pontón 10 INVENIO 14 (26) 2011: 7-10 El gran diseño REFERENCIAS BibliogrÁfICaS Hawking y Mlodinow. El Gran Diseño. Barcelona, Crítica, 2010. Lennox, John C. God and Stephen Hawking. Oxford, Lion Hudson plc, 2010. Penrose, Roger. Ciclos del Tiempo. Barcelona, Debate,2010. Heller, Michael. Ultimate Explanations of the Universe. Berlín Heidelberg, Springer-Verlag, 2009. Hay un sinnúmero de comentarios del libro “El Gran Diseño” en distintos medios. De ellos recomendamos de Roger Penrose, The Grand Design, en FT.com, del 4 de septiembre y del físico experimental Russell Stannard, The Grand Design, en NewStatesman, del 14 de octubre. Para una introducción a la teoría de la gravedad, de la mecánica cuántica y de las cuerdas recomendamos de Russell Stannard su libro The End of Discovery, Oxford University Press, 2010. Un más detallado libro sobre la teoría de las cuerdas y la M-Theory es el de Brian Greene, El Tejido del Cosmos: espacio, tiempo y la textura de la realidad. Barcelona, Crítica, 2006. Desde un punto de vista más teológico y filosófico, recomendamos el libro de varios autores Creation and the God of Abraham, Cambridge University Press, 2010, donde entre otros se puede leer el trabajo de William R. Stoeger S.J. The Big Bang, quantum cosmology and creatio ex nihilo. El Padre Stoeger es un cosmólogo del Observatorio Vaticano. INVENIO 14 (26) 2011: 47-71 11 12 El Derecho como Ciencia Silvana Mabel García*1 RESUMEN: La condición científica del Derecho, no tiene aún consenso unánime y el debate entre los pensadores del derecho permanece vigente y con fuerza. Las dificultades en este tema se presentan desde el momento mismo en que se intenta explicitar el concepto y contenido de la “Ciencia del Derecho” pues la propia definición del objeto de la ciencia resulta controvertida. A lo largo de los siglos se han propuesto diferentes visiones acerca de la Ciencia del Derecho, su finalidad y contenido y todas ellas contribuyeron en su formación. Existen también tesis negatorias del carácter científico del Derecho. Palabras clave: derecho - condición científica - ciencia del derecho ABSTRACT: Law as a science Law scientific status has not reached unanimous consent and thinkers still passionately debate about whether law should be considered a science at all. Difficulties arise from the very moment an explanation of the concept and content of the “Science of Law” is attempted since the mere definition of the object of the science remains controversial. Different versions regarding the Science of Law, its purpose and content have been suggested throughout the centuries and all of them had contributed to forming it. On the other hand, some theses refuse to grant Law a scientific character. Key words: law - scientific condition - science of law 1. Introducción Recurrir a la epistemología, como filosofía de la ciencia, en su enfoque hacia la problemática del saber jurídico, implica adoptar una actitud reflexiva y crítica respecto de la propia ciencia que tiene por objeto al Derecho. Y ya que nunca antes en nuestro desempeño profesional nos habíamos formulado la pregunta acerca de la condición científica o no de nuestro saber (quizás la dábamos por cierta), nos pareció importante abocarnos en estas páginas, a la Ciencia del Derecho. Al abordar la bibliografía sobre el tema, advertimos que contrariando nuestro “pre* Abogada. Egresada de la Facultad de Derecho de Rosario (UNR). Doctora en Derecho de la Facultad de Derecho de Rosario (UNR). Magíster en Asesoramiento Jurídico de Empresas de la Universidad Austral de Rosario. Profesora adjunta en Carrera de Grado de la misma Facultad en “Derecho Comercial III” y en Carrera de Postgrado en esa Casa de Estudios – Carrera de Especialización en Derecho Empresario - y en la Facultad de Ciencias Económicas y Estadística de Rosario (UNR) - Carrera de Especialización en Sindicatura Concursal –. Docente Adscripta a la Cátedra de Derecho Comercial II (“Concursos”) de la Facultad de Derecho y Ciencias Sociales del Rosario (U.C.A.). Autora de dos libros “Régimen de Inhabilitaciones por Quiebra” (Bs. As., La Ley, 2002) y “Extinción de las obligaciones por quiebra” (Bs. As., Astrea, 2010). Miembro del Instituto Iberoamericano de Derecho Concursal; Miembro del Instituto de la Empresa de la Academia Nacional de Derecho y Ciencias Sociales de Córdoba; Miembro del Instituto de Derecho Concursal del Colegio de Abogados de Rosario. Ejerce activamente la profesión de abogada en la ciudad de Rosario (S. Fe.). E-mail: [email protected] INVENIO 14 (26) 2011: 13-38 13 Silvana Mabel García juicio” respecto de la cuestión, la situación científica del Derecho, no tiene aún consenso unánime y que todavía el debate entre los pensadores del derecho permanece vigente y con fuerza. Sobre el final del trabajo, exponemos nuestro punto de vista y contribuciones personales con relación al tema en estudio (punto 5), no sin antes analizar los cuestionamientos que se formulan tanto en torno al concepto, como al objeto y contenido de la Ciencia del Derecho (punto 2). Especial atención prestamos a los aportes que en su evolución fueron realizando los grandes forjadores de esta ciencia y exponemos ciertas visiones particulares (punto 3), considerando asimismo algunas de las posiciones que discuten el carácter científico de este saber (punto 4). Concluimos con algunas reflexiones (punto 6) 2. El carácter problemático de la delimitación del concepto, objeto y contenido de la Ciencia del Derecho Dice Bertrand Russell: “la ciencia es lo que conocemos y la filosofía es lo que no conocemos”1. Sin embargo, definir “la ciencia”, esto es, aquello que conocemos, no es una tarea sencilla, entre otros motivos, porque la expresión es ambigua, pues se utiliza tanto para describir las actividades consideradas científicas (el proceso) como para el conjunto de proposiciones que constituyen el resultado de tales actividades (el producto); y porque adolece también de vaguedad o imprecisión, ya que no existe un conjunto de propiedades necesarias y suficientes para el uso del término, lo que deja una zona de penumbra constituida por actividades a las cuales vacilaríamos en aplicar o no el término. Intentando alguna conceptualización, podemos tomar la siguiente: “saber científico, supone un sistema de conocimientos, ciertos y probables, respecto de un determinado sector de objetos de la realidad universal, a los que es posible acceder a través de una adecuada fundamentación metodológica”2. Y en punto a esta última característica, nos resulta gráfica la explicación de Ricardo Guibourg cuando dice que una ciencia, en ese sentido, no es otra cosa que un sistema de decisiones metodológicas, en el que se insertan los datos de la realidad, una vez identificados e interpretados por el mismo sistema, como los libros de la biblioteca se ordenan en los estantes. Y evoluciona o se modifica del modo en que los estantes se construyen, cuando lo creemos preciso, a la medida de los libros que tenemos o imaginamos que tendremos algún día3. Pero si conceptualizar a la ciencia en general es una tarea ardua, aún más lo es explicitar el concepto y contenido de la “Ciencia del Derecho”. Confluyen en esa dificultad numerosos obstáculos: En primer término, se señala que es de por sí equívoco individualizar con la misma palabra (“derecho”) tanto al objeto de estudio (el derecho) como al estudio del objeto (es decir la ciencia). En segundo término, y he aquí quizás la mayor dificultad, la propia definición del objeto de la ciencia no logra consenso. Así se resalta que, en pocas disciplinas científicas como en el derecho, la polémica respecto de su objeto propio ha sido motivo de tanta opinión divergente. Ni los físicos, ni los químicos, ni los historiadores, tendrían tanta dificultad para definir el objeto de su estudio como tienen los juristas. 14 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia Contribuyen a tal incertidumbre las siguientes circunstancias: El carácter ambiguo del término “derecho”. En efecto, la misma palabra tiene varios significados relacionados estrechamente entre sí. Así, puede ser entendida como “derecho objetivo”, es decir, como sistema o conjunto de normas; como “derecho subjetivo”, esto es, como facultad, atribución, permiso, etc; y finalmente como el estudio o investigación (ciencia) del derecho a que hacemos referencia. También, que la expresión “derecho” es vaga. No es posible enunciar propiedades que deban estar presentes en todos los casos en que la palabra se usa. Algunos señalan el carácter coactivo, otros que debe tratarse de directivas promulgadas por una autoridad, y están quienes eligen como propiedad la de consistir en reglas generales. Y finalmente, que la expresión “derecho” tiene una carga emotiva. En efecto, “derecho” es una palabra con significado emotivo favorable, pues se dice que nombrar con esta palabra un orden social implica condecorarlo con un rótulo honorífico y reunir alrededor de él las actitudes de adhesión de la gente4. Cuando una palabra tiene carga emotiva, ésta perjudica su significado cognoscitivo. Volviendo a la dificultad en cuanto a la propia definición de lo que se entiende por “derecho”, tampoco existe consenso sobre cuál es el contenido concreto del derecho, cuál es el “ser” del derecho. Acudiendo a las respuestas que los juristas han dado en el devenir histórico, podemos encontrar tantas como autores, porque cada uno tiene su concepción del derecho. En un intento de sistematización, podríamos agruparlas en diferentes corrientes de la filosofía jurídica, según la concepción del derecho que defienden. Básicamente, sin perjuicio de reconocer que puede implicar un simplismo quizás inadecuado, ellas serían tres: el iusnaturalismo, el iusformalismo (o positivismo) y el iusrealismo5. Sin ignorar la existencia de toda una gama de concepciones intermedias, como son la analítica, la deóntica, la egológica, la estructuralista, la funcionalista, la histórica, la iusmarxista y la semántica, entre otras. Cada una de estas metodologías cuenta con una concepción propia del derecho al resaltar un elemento o característica de él. Así, la corriente iusnaturalista, tanto en su vertiente laica como racional, reduce al derecho a un contenido intrínsecamente justo o natural, ya que para ella el derecho es un valor justo o natural. El iusformalismo (o positivismo jurídico) por su parte, en su insistencia por la separación estricta del derecho de la ética, moral y religión, y en la independencia de toda consideración valorativa, limita al derecho a un análisis de las interrelaciones lógicas de las normas jurídicas. El derecho, se reduce a las normas jurídicas, sin importar su contenido justo o no. Por último, el iusrealismo, considera el derecho como un hecho eficaz o real, y la Ciencia del Derecho por lo tanto, es una ciencia empírica, que se debe ocupar del ser de la conducta humana, entendida como un conjunto de fenómenos o hechos eficaces o reales. El objeto de estudio no son las normas ni los valores, sino los hechos. Se acepta el carácter normativo de la ciencia, no por estar compuesta de normas vigentes, sino porque los hechos sociales se refieren forzosamente a esas normas. Con un propósito digamos conciliador, y tal vez pretencioso, al apuntar a un “ideal” del derecho que sea al mismo tiempo, justo o natural, vigente o formal y eficaz o real, surge la teoría tridimensional del derecho, para la cual el derecho conserva las tres dimensiones (valor, norma y hecho) pero estrechamente unidas entre sí, en relaciones de esencial implicación, no existiendo uno que sea más importante que los otros, pues no sólo se exigen recípro- INVENIO 14 (26) 2011: 13-38 15 Silvana Mabel García camente sino que actúan como uno solo. A las dificultades ya reseñadas, cabe agregar una última: la propia descripción de lo que forma el contenido de la Ciencia del Derecho. Así, la expresión “Ciencia del Derecho” o “Ciencia Jurídica” o “Jurisprudencia” (utilizadas como sinónimos) se emplea en tres sentidos6: - En un sentido amplísimo, abarcando todas las disciplinas jurídicas, incluso la Filosofía del Derecho y se habla así de “las” Ciencias del Derecho. En este sentido, las Ciencias Jurídicas abarcarían, además de la propia Filosofía del Derecho, a la Teoría general del Derecho (para quienes la consideran disciplina independiente de la Filosofía del Derecho), la Historia del Derecho, la Sociología del Derecho, la Psicología del Derecho y la Ciencia del Derecho Comparado. - En un sentido semirrestringido, comprendiendo todas las ciencias jurídicas, con exclusión de la Filosofía del Derecho. - En sentido estricto, como sinónimo de Dogmática Jurídica, entendida como la ciencia que tiene por objeto la exposición ordenada y coherente de los preceptos jurídicos que se hallan en vigor en una época y un lugar determinados, y el estudio de los problemas relativos a su interpretación y aplicación. 3. Los aportes en la evolución de la Ciencia del Derecho7 La Ciencia del Derecho se ha ido construyendo y enriqueciendo en el devenir histórico con el aporte de muchos y muy encumbrados filósofos del derecho. Haremos referencia a algunos de los más importantes, sin pretensiones de exhaustividad ni completitud, con el objetivo de exponer al lector algunas de las diferentes visiones que de la Ciencia del Derecho, su finalidad y contenido se han propuesto. 3.1 La construcción de la Ciencia del Derecho durante el siglo XIX. 3.1.1 La Escuela Histórica del Derecho La moderna Ciencia del Derecho comienza con Federico Carlos de Savigny y su pensamiento llega hasta nuestros días. Además de su importante contribución a la teoría de las fuentes y de la interpretación, cuando en las sentencias de los tribunales y en los escritos doctrinarios, se hace hoy referencia a los “institutos jurídicos”, se está de algún modo evocando el aporte de Savigny a la Ciencia del Derecho. Los “institutos jurídicos”, a los que Savigny conceptúa como aquellos modos de comportamiento o relaciones de vida concretos y a la vez típicos (como el matrimonio, la patria potestad, la compraventa) que son observados en general por los ciudadanos como jurídicamente vinculantes, son, en el pensamiento de Savigny, el punto de partida y fundamento de la evolución del Derecho. En efecto, el “instituto jurídico” es un todo lleno de sentido, cambiante con el tiempo, de relaciones humanas típicamente entendidas, que como tal, no es posible comprobar completamente mediante la adición de las reglas jurídicas particulares que se refieren a él. Ello así, porque estos “institutos jurídicos” no resultan del conjunto de reglas jurídicas, sino que más bien las reglas jurídicas se infieren de la contemplación total de los institutos jurídicos por una abstracción. Por tanto, dado que las reglas contenidas en la ley, independientemente 16 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia de toda configuración conceptual, tienen su fundamento más hondo en la contemplación de los “institutos jurídicos”, no pueden, según Savigny, ser entendidas únicamente a partir de ellas mismas, sino partiendo de la contemplación del instituto jurídico, pues entre tal instituto y la forma abstracta de la regla particular existe una “desproporción” cuya superación está permanentemente encomendada a la Ciencia del Derecho. Es imperioso aludir además, a la consideración por Savigny del método sistemático. Desde un principio es característico en él exigir una combinación del método “histórico” y el “sistemático” como nota caracterizante de la ciencia jurídica. El primero, considera la génesis de cada ley precisamente en una situación histórica determinada. El segundo, intenta comprender como un todo coherente la totalidad de las normas jurídicas y de los institutos jurídicos que le sirven de base. Afirma Savigny la existencia de una conexión orgánica de los institutos jurídicos que están vivos en la conciencia general. “Todas las instituciones jurídicas están ligadas en un sistema y sólo pueden ser comprendidas por completo dentro del magno contexto de este sistema.”8 La idea de sistema significa el desarrollo de una unidad en una variedad, que, de este modo, es conocida como una conexión de sentido. Esta unidad es pensada por Savigny como un “organismo”, como una totalidad de sentido inherente a la variedad sólo mostrable en ella y por ella. Las reglas jurídicas particulares, opina Savigny, solo posteriormente serán deducidas por abstracción de los “institutos jurídicos”, por ello éstos han de estar siempre presentes al intérprete en la contemplación, si es que quiere entender rectamente la norma jurídica. Es inevitable referir a la importancia del “concepto” en la evolución de la Ciencia del Derecho. Fue Jorge Federico von Puchta quien con clara firmeza, encaminó la Ciencia del Derecho de su tiempo por la vía del sistema lógico en el sentido de una “pirámide de conceptos” y de este modo, decidió su evolución hacia la “jurisprudencia de conceptos”. De hecho, enseñó el método del pensamiento formal-conceptual, radicando allí su importancia para la metodología jurídica y el desarrollo de la Ciencia del Derecho. Enseña Puchta, que las normas jurídicas particulares que forman el derecho de un pueblo, se hallan entre sí en una conexión orgánica, y la misión de la Ciencia del Derecho, es conocer las normas jurídicas en esa conexión, condicionándose unas a otras y procediendo unas de otras, a fin de poder seguir la genealogía de las normas particulares hasta la altura de su principio y asimismo descender los principios hasta sus últimas consecuencias. Se logra así, en el entendimiento de Puchta, un conocimiento sistemático capaz de seguir hacia arriba y hacia abajo la derivación de cada concepto a través de todos los escalones intermedios que han participado en su formación. La genealogía de los conceptos indica por tanto, que el concepto supremo del que son derivados todos los demás codetermina con su contenido todos los restantes. La contribución de la “jurisprudencia de conceptos” fue la elaboración de un sistema abstracto conceptual, que estaba construido según el principio de la subordinación de conceptos siempre más especiales bajo otros de muy amplia extensión (ámbito de aplicación) pero de contenido siempre más reducido, y que debía permitir, no sólo asignar a cada concepto su lugar dentro del sistema total, sino también subsumir otros conceptos bajo ellos y finalmente tanto hechos como consecuencias jurídicas concretas. Este desarrollo encontró su reflejo en numerosas divisiones conceptuales (como las de Derecho público y privado; derechos absolutos y relativos; nulidad y mera anulabilidad de un negocio jurídico y muchos otros). INVENIO 14 (26) 2011: 13-38 17 Silvana Mabel García 3.1.2 La Ciencia del Derecho bajo la influencia del concepto positivista de ciencia Durante el transcurso del segundo tercio del siglo XIX la Ciencia del Derecho, como todas las ciencias del espíritu, tomó parte del viraje general hacia el positivismo. Como movimiento contrario tanto al Derecho natural racional deductivo, como al romanticismo y la Escuela Histórica, el positivismo se caracteriza especialmente por aspirar a desterrar de la ciencia, toda metafísica, toda ética material y toda doctrina de valores, y por restringir la ciencia estrictamente a los hechos y a su “legalidad” empíricamente observable. Sólo reconoce como ciencia de un lado, las ciencias causales basadas en la experiencia, de otro lado la lógica y la matemática como doctrina de las formas puras de los cuerpos y de los números. Según la concepción positivista, lo único que es accesible al conocimiento científico, prescindiendo de la lógica y la matemática, son los hechos perceptibles junto con la “legalidad”, corroborable experimentalmente, que en ellos se manifiesta. En este planteamiento aparece decisivo el modelo de las ciencias naturales “exactas”. En esto el positivismo es “naturalismo”. Por tal motivo, la Ciencia del Derecho ha de ser elevada a una “ciencia verdadera” fundamentándola, lo mismo que la ciencia natural, sobre hechos indubitables. Ningún pensador jurídico ha llegado a ser, junto con Savigny, tan importante para el desarrollo de la Ciencia del Derecho como Rudolf von Ihering. La obra jurídica de la vida de Ihering se caracteriza por una notable evolución, aunque algunos autores en cambio la señalan como marcada por una profunda cesura. En la etapa correspondiente a su obra “El espíritu del Derecho Romano” Ihering, imbuido todavía por el modo de pensar de las ciencias naturales “exactas” de su tiempo, aporta y culmina la “jurisprudencia formal de conceptos” aunque a diferencia de Puchta, no parte de un concepto fundamental ya dado previamente al derecho positivo y constitutivo del mismo, sino que su procedimiento de formación de los conceptos es exclusivamente inductivo: la tarea sistemática de la Ciencia del Derecho, consiste ahora, según él, en descomponer los institutos jurídicos particulares y las normas jurídicas a ellos relativas en sus elementos lógicos y en destilar limpiamente éstos, y luego reconstruir con ellos, por combinación, tanto las normas jurídicas ya conocidas como también otras nuevas. El resultado de esta descomposición y recomposición lógicas, es que la ciencia obtiene, en lugar de una cantidad infinita de normas jurídicas de las más diversas clases, un número claro de cuerpos simples, pudiendo recomponer con ellos cuando sea preciso, las normas jurídicas particulares. Pero la utilidad no se limita meramente a esta simplificación, los conceptos jurídicos obtenidos no son meras disociaciones de las normas jurídicas dadas sino que existe una ventaja aún mayor en el incremento del derecho conseguido por este medio a partir de sí mismo, de un crecimiento desde dentro. Mediante la combinación de elementos diferentes, la ciencia puede formar nuevos conceptos y normas jurídicas: los conceptos son productivos, pues engendran otros nuevos. Y compara Ihering esta tarea, de formación de los conceptos jurídicos elementales, mediante análisis y abstracción, con las letras del alfabeto: “la idea del alfabeto se basa en la descomposición y en la reducción de lo compuesto a sus elementos; el alfabeto ha surgido de la observación de que el lenguaje ha formado toda su riqueza de palabras mediante una combinación diversa de ciertos sonidos fundamentales, y de que por tanto, el descubrimiento y designación de estos sonidos fundamentales es suficiente para componer con ellos cualquier palabra...Lo que son las palabras en el lenguaje, eso son las relaciones jurídicas en el derecho. La tarea es aquí como allí el descubrimiento de estos elementos, la formación de un alfabeto”9. Sin perjuicio de muchas otras importantes, la contribución de la que sin duda es 18 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia imposible prescindir en la evolución posterior de la Ciencia del Derecho, es la que el jurista alemán desarrolló en su obra “El fin del Derecho”. La idea fundamental expuesta en esa obra, es la de que el fin es el creador de todo el derecho, que no existe ninguna norma jurídica que no deba su origen a un fin, esto es, a un motivo práctico debido al cual es creada que por lo tanto determina su entendimiento. Sin embargo, no es el legislador quien determina el fin de la norma, pues según afirma Ihering, éste actúa no tanto como persona individual cuanto como representante de un querer o aspiración vinculantes, comunes a todos los miembros de la comunidad jurídica, pero que proviene o se halla en la sociedad. Es asimismo la sociedad el sujeto final de todas las normas jurídicas: el derecho es la norma coactiva estatal al servicio de un fin social. Por ello, para comprender una norma jurídica, no ha de suceder lo que la lógica postula, sino lo que postula la vida, el tráfico, el sentimiento jurídico, porque la vida no existe a causa de los conceptos sino que los conceptos existen a causa de la vida. Sostiene Ihering: “para el uso académico puede ser muy cómodo en vez de exponer minuciosamente las relaciones o los motivos prácticos, a los que una norma jurídica debe realmente su origen, idear un punto de vista al que aquélla se subordine como consecuencia lógica, pero en esto no ha de verse el fundamento real de las normas jurídicas y de los conceptos”. Estas ideas, contienen el comienzo de un programa para una Ciencia del Derecho “pragmática”. Por lo demás, Ihering no reconoce ninguna jerarquía objetiva de los fines sociales, éstos resultan más bien según él, únicamente de las distintas necesidades vitales de las sociedades concretas históricamente existentes. A partir de Ihering entonces, (y es éste su indiscutible aporte a la evolución de la Ciencia del Derecho) no podrá ya prescindirse de la idea de que en toda norma jurídica tiene que ser considerada también su función social: toda norma quiere configurar, en la parte que le corresponde, la existencia social, y por este motivo está referida, según su sentido, a un fin social. Con el objetivo de reivindicar para la Ciencia del Derecho, de modo similar a la lógica y la matemática, un objeto puramente ideal y restringirla a aquello que al respecto es necesario según las leyes del pensamiento, emprendió Hans Kelsen su “Teoría pura del Derecho”. Pero Kelsen siguió siendo positivista en cuanto expulsó de la Ciencia del Derecho toda consideración valorativa y con ello, la cuestión acerca de la valoración pertinente en cada caso, por estimar que no es contestable científicamente. La “Teoría Pura del Derecho”, representa el más grandioso intento de fundamentación de la Ciencia del Derecho como ciencia que ha visto nuestro siglo. Kelsen afirma que la Ciencia del Derecho no tiene que ver, no primariamente, con la conducta efectiva de los hombres o con los fenómenos síquicos como tales, sino con normas jurídicas. Por ello no puede ser una ciencia natural que describe hechos e investiga su enlace causal. Pero entonces, si es que es realmente una ciencia, sólo puede ser, según el concepto positivista de ciencia, una doctrina de las “formas puras” del Derecho. El objetivo de Kelsen es construir una ciencia descriptiva del derecho que tenga como objeto el aspecto normativo del derecho. Es, por ello, una ciencia descriptiva que tiene como objeto el lenguaje normativo jurídico. En ese sentido, se puede decir que es una ciencia que no pretende imponer normas, no pretende prescribir sino que lo único que pretende es describir un objeto normativo. El punto de partida de Kelsen, desde el cual pretende fundamentar la independencia metódica de la Ciencia del Derecho, es la distinción entre juicios del ser y juicios del deber ser. INVENIO 14 (26) 2011: 13-38 19 Silvana Mabel García El Derecho es un orden normativo que pertenece, en cuanto tal, a la categoría ontológica del deber ser. No es lo mismo, sostiene, afirmar que los contratos se cumplen (o no se cumplen) que sostener que los contratos deben cumplirse en virtud del Derecho. La primera afirmación contiene un juicio de hecho, la segunda contiene un enunciado sobre algo que debe suceder. Para Kelsen, la Ciencia del Derecho no tiene que ver con la conducta fáctica de los hombres, sino solamente con lo jurídicamente preceptuado. Por ello, no es una ciencia de hechos, como la sociología, sino una ciencia de normas; su objeto no es lo que es o lo que sucede, sino un complejo de normas. Su carácter científico sólo está garantizado si se limita estrictamente a su misión y si mantiene “puro” su método de toda mezcla de elementos ajenos a su esencia, es decir, de todo préstamo de la sociología, de la sicología, pero también de toda influencia de “dogmas” ya sean de naturaleza ética o religiosa. La pureza metodológica significa que la Ciencia del Derecho tiene que someterse ascéticamente a una depuración de todos aquellos elementos, históricos, sociológicos, políticos, iusnaturalistas, metafísicos que pertenecen a otros órdenes del conocimiento. Como conocimiento “puro” no tiene que perseguir fines prácticos inmediatos, sino más bien eliminar de su consideración todo aquello que no guarde relación con la peculiaridad de su objeto como complejo de normas, todos los contenidos procedentes de la esfera del ser o del ámbito de la ética. Kelsen quiere liberar a la Ciencia del Derecho de todos los elementos ajenos a ella. La “Teoría pura del Derecho” sólo tiene que ver con el derecho positivo. Como lo entiende Kelsen, la Ciencia del Derecho tiene que ver con normas, es decir, con un deber ser, pero no se ocupa de los contenidos, sino de la estructura lógica de las normas jurídicas, examina el sentido, la posibilidad y los límites de un enunciado jurídico en general y la clase y modo de su realización. La unidad, la coherencia formal de todas las normas de un derecho positivo, se basa en que todas ellas pueden ser referidas a una norma única, como último fundamento de su validez, a la “norma fundamental”. Esta norma no implica otra cosa que el establecimiento de un supuesto de hecho productor de normas, la legitimación de una autoridad que establece normas o lo que es lo mismo, una regla que determina cómo deben ser producidas las normas generales individuales del orden basado en esa norma fundamental. Dicha norma no es establecida, sino que es necesariamente presupuesta por la Ciencia del Derecho para poder interpretar como un orden jurídico el material de normas que le es dado. También interesa referir a la visión de Kelsen sobre la labor de interpretación del Derecho por parte de la Ciencia Jurídica, que según afirma, no es igual a la tarea de interpretación por el órgano aplicante: en la aplicación del Derecho por un órgano jurídico, la interpretación del derecho aplicable siempre va unida a un acto de voluntad, por el que el órgano aplicable elige una entre las varias posibilidades puestas de manifiesto por la interpretación de la norma. Otra cosa sucede con la interpretación del derecho por la Ciencia Jurídica. Esta no es producción del derecho, a diferencia de la interpretación por los órganos jurídicos (si bien tratándose de la sentencia judicial, sólo para el caso concreto), sino “pura constatación cognoscitiva del sentido de las normas jurídicas”. Como tal, sus posibilidades son limitadas; en especial es, según Kelsen, inepta para colmar las lagunas supuestas en el derecho. La Ciencia Jurídica concreta tiene que dejar a la autoridad que aplica, el derecho de elección (sólo determinable por consideraciones políticas) entre las interpretaciones igualmente posibles desde el punto de vista jurídico-científico. 20 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia 3.1.3 La escuela de la libre investigación científica En las postrimerías del siglo XIX y apenas comenzando el siglo XX, contra el abuso de la lógica formal en el campo de la ciencia jurídica se alzó Francisco Gény, en un intento de acercar el derecho a la vida, a la realidad. En su obra “Método de interpretación y fuentes del Derecho privado positivo” intenta Gény sacar la Ciencia Jurídica de los estrechos límites del texto expreso y frío de la ley impugnando el postulado fundamental de que la ley escrita debe bastar para todo, principio al que califica como de “fetichismo de la ley escrita y codificada”. En la búsqueda de la reconstitución del método y la elaboración de una teoría de las fuentes, realiza un prolijo y completo estudio de cada una de ellas, a saber: la ley escrita y su interpretación; la costumbre; la autoridad o tradición cuyo valor investiga, y por último culmina sus estudios con el aporte original de su teoría que llama de “libre investigación científica”. Señala Gény que puede ocurrir que se presenten casos no previstos en la ley y en cuyas circunstancias será necesario disponer de otro instrumento que revele al jurista la solución adecuada al caso planteado; es allí cuando emerge la preponderante función de la libre investigación científica para alcanzar los elementos objetivos del derecho. Gény explica su método del siguiente modo: “investigación libre” toda vez que existe sustracción a la acción propia de una autoridad positiva; “investigación científica”, al propio tiempo, porque no puede encontrar bases sólidas más que en los elementos objetivos que sólo la ciencia puede revelar. El método jurídico debe tener por preocupación dominante, descubrir él mismo, en defecto de la ayuda de las fuentes formales, los elementos objetivos que determinarán todas las soluciones exigidas por el derecho positivo. ¿Dónde habrán de encontrarse los elementos objetivos del derecho?, “en la naturaleza de las cosas”, expresión que Gény se encarga de dilucidar: “las relaciones de la vida social, llevan en sí las condiciones de su equilibrio y descubren ellas mismas las normas que deben regirlas. Nada al parecer, tan sencillo según esto, como considerar de cerca todas las relaciones humanas, para discernir entre las que merezcan reconocimiento jurídico y encontrar su ley en ausencia de toda fuente formal”10. Queda así expuesto en lo fundamental, el sistema de Gény, que ha tenido la virtud de señalar el amplio horizonte abierto a la Ciencia Jurídica, libertándola de la concepción tradicional que la creía encerrada totalmente en el código, de tal manera que hasta incluso se pretendió cerrar al jurista el camino de la interpretación. 3.2 La Ciencia del Derecho en la primera mitad del siglo XX Al comienzo del siglo XX, Rudolf Stammler introduce en Alemania un movimiento filosófico que se caracteriza por el apartamiento del positivismo. En general, unió a ello la afirmación de la historicidad del Derecho, aspirando así a una síntesis de dos grandes corrientes espirituales: el “Derecho Natural” y el “historicismo”. En su “Teoría de la Ciencia del Derecho”, Stammler se propone hacer concebible la Ciencia del Derecho y alejarla totalmente del reproche de carecer de valor científico. Para ello, afirma, son sólo apropiados “los conceptos fundamentales del Derecho”, y el esclarecimiento de estos conceptos fundamentales, de un modo seguro y completo, es por tanto una tarea decisiva para todo aquel que se preocupe por el Derecho y por la Ciencia del Derecho. Explica Stammler que las ideas jurídicas aparecen en la conciencia siempre ordenadas INVENIO 14 (26) 2011: 13-38 21 Silvana Mabel García ya de un modo determinado, es decir, formadas. Existen pues, “formas puras” del pensar jurídico que condicionan lógicamente todo conocimiento jurídico particular, pero ellas mismas no están condicionadas por ninguna materia particular y hallan su unidad en el concepto de Derecho en sí. El concepto de Derecho es una manera y modo puros y condicionantes para ordenar la conciencia volitiva, de los que depende toda posibilidad de calificar de jurídica una cuestión particular. En la concepción de Stammler, el Derecho es un modo del querer, pues ordena los fenómenos según la forma del pensar “fin y medios”. A diferencia de las ciencias de la naturaleza o causales (que ordenan los fenómenos según la forma del pensar “causa y efecto”) la Ciencia del Derecho es una ciencia de fines. Por ello sus conceptos los forma de manera plenamente autónoma, independientemente de las reglas del conocimiento científico-natural. Al lado de la lógica formal y de la lógica que rige para el conocimiento científico-natural, se ha de exigir una lógica de la ciencia de fines, de la cual resulta la independencia metódica de la Ciencia del Derecho. Que se trate de una ciencia de fines no significa que Stammler pretenda, como Ihering, explicar el origen causal de las normas jurídicas (a partir de fines sociales) pues esto sería considerar el Derecho como un fenómeno natural. Lo que importa es la peculiaridad lógica de las consideraciones jurídicas como tales. Esta peculiaridad consiste en un enlace específico de fines y de medios. Siempre que se pregunta por la génesis del derecho o de las normas jurídicas particulares, se presupone ya lógicamente el concepto de derecho como un determinado modo de establecer fines y medios. El concepto de derecho es el de un determinado modo de establecer fines. Por otra parte, los conceptos jurídicos fundamentales puros son, según Stammler, irradiaciones invariables del absolutamente firme concepto de derecho y se obtienen deductivamente a partir de él (lo presuponen y lo confirman), y nunca pueden ser derivados de las particularidades de un querer jurídico condicionado; en cambio los conceptos jurídicos condicionados sólo se obtienen por abstracción del limitado contenido de un derecho históricamente dado. Vemos así, dos ideas de Stammler que han llegado a ser de trascendental importancia para la metodología de la Ciencia Jurídica y que podemos resumir del siguiente modo: la primera, es la de la independencia metódica de la Ciencia del Derecho frente a las ciencias de la naturaleza, que se basa en que la Ciencia del Derecho no pregunta por las “causas” sino por los “fines” y por el sentido de una norma jurídica o de una institución. La segunda idea, más importante aún, es la de que pertenece a la esencia del derecho el orientar y ordenar según una medida superior, la de la idea del derecho, la profusión de fines posibles en una situación dada, siempre limitados y con frecuencia contradictorios. Esta idea, posibilita así, la superación del positivismo y la consagración del método teleológico en la Ciencia del Derecho. Correspondió a Rickert, en su intento de independizar aún más las ciencias del espíritu de las ciencias de la naturaleza, y con ello, apartarse definitivamente del concepto positivista de ciencia, la introducción del concepto de “valor” en la metodología de las primeras, aunque sin dar aún una respuesta a la cuestión de qué es un valor. A la división lógica de las ciencias en generalizadoras e individualizadoras, se añade una división objetiva, según consideren su objeto libre de valor y de sentido (ciencias naturales) o referido a valores y por ello, con sentido (ciencias histórico culturales, como precisó Rickert). Los valores, el sentido y el significado, no podemos percibirlos, sino sólo comprenderlos, al interpretar los objetos percibidos. Según ésto, “naturaleza” es el ser libre de significado, sólo perceptible, no comprensible; en cambio “cultura”, es el ser pleno de 22 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia significado, comprensible. Fue Emil Lask el primero que aplicó estas ideas a la metodología de la Ciencia del Derecho, al comienzo del siglo XX. Según entiende, la Ciencia del Derecho es una rama de las ciencias culturales empíricas, por tanto se ocupa de sucesos o relaciones que se destacan entre la masa de lo que acontece por su relevancia en relación con determinados valores culturales. El contenido adecuado a la idea de las normas, resulta según Lask, de su referencia a valores y fines socialmente reconocidos. Lask habla por ello, de un método de la jurisprudencia referido a valores y a fines. Subraya que todo lo que incide en el ámbito del derecho pierde su carácter naturalista libre de referencia a valores. La formación de conceptos jurídicos está siempre “teleológicamente teñida”. Gustav Radbruch continúa la obra de Lask, agregando ahora el contenido y la conexión de sentido de los valores mismos relevantes para el derecho, llevando así a cabo, el tránsito de una filosofía de los valores únicamente formal a otra material. Para Radbruch, cuyas explicaciones metodológicas fueron tenidas muy en cuenta por la doctrina jurídico penal de su tiempo, el Derecho es, en cuanto fenómeno cultural, aquel dato que tiene el sentido de realizar la “idea del Derecho”, que es el valor central al que en última instancia está referido todo Derecho como algo con sentido. Y como la idea del Derecho no es otra cosa que la de justicia, Radbruch también dice que el Derecho es la realidad que tiene el sentido de servir a la justicia. Esto no quiere decir que todo Derecho positivo tenga también que ser necesariamente derecho justo, pero en cuanto Derecho, se halla, según su sentido, bajo la exigencia de la justicia: está orientado a esta idea. La fenomenología y la filosofía existencial, han tenido su aplicación más consecuente al campo del Derecho en la llamada “teoría egológica del Derecho” obra de Carlos Cossio. El Derecho es para Cossio un objeto egológico, o sea es sólo la conducta, la libertad metafísica fenomenalizada. Toda la teoría jurídica tradicional ha considerado el Derecho como norma. Cossio rompe con el normativismo, incluso con el kelseniano, y afirma que el Derecho es conducta. Afirmar otra cosa, es para Cossio, racionalismo, pero el racionalismo, dice, es incompatible con el supuesto fundamental de la Ciencia Jurídica moderna: el ser una ciencia de experiencia. Pues una ciencia de experiencia implica partir de un dato real empíricamente intuible, y el único dato jurídico susceptible de ser captado sensiblemente en el derecho es la conducta. La conducta en su interferencia intersubjetiva con otras conductas es lo que hay de real en el campo del derecho y por eso es toda la realidad del derecho. La norma, para Cossio, es sólo el instrumento conceptual por medio del cual se conoce la realidad del derecho que es la conducta. La norma no es objeto sino concepto, y como tal sólo puede ser abordada por la Lógica, como teoría de los conceptos, pero no por la Ciencia Jurídica cuyo objeto es el Derecho. El objeto de la Ciencia Jurídica pues, sólo puede ser el derecho en su realidad, o sea la conducta, y no las normas que únicamente son el instrumento para su conocimiento. Podemos afirmar así, que para Cossio no existe una filosofía del derecho distinta de la Ciencia Jurídica, o mejor, la filosofía del derecho sólo puede ser una Teoría de la Ciencia Jurídica. Pues del Derecho sólo hay, o un conocimiento vulgar, o un conocimiento científico, que es el de la Ciencia Dogmática del derecho. Pero en torno al derecho que es objeto de la Ciencia Jurídica pueden plantearse cuatro interrogantes: 1- en qué consiste su ser, y la respuesta es conducta; 2- cómo se piensa jurídicamente, problema de la lógica jurídica formal: se piensa por medio de conceptos, que son las normas. 3- cuándo es real y efectivo el INVENIO 14 (26) 2011: 13-38 23 Silvana Mabel García pensamiento jurídico, cuándo se conoce jurídicamente algo; problema de la lógica jurídica trascendental, problema de la validez y vigencia del derecho; 4- problema del sentido puro del derecho, axiología jurídica, teoría de los valores jurídicos: pues la conducta por ser libertad, posee un valor, es una valoración, y el derecho es una valoración, consiste en valores; pero así como toda ciencia presupone una ontología, una teoría del objeto, así también toda valoración empírica presupone una doctrina sobre el sentido puro del valor11. El valor positivo de la teoría egológica consiste, no sólo en la revalorización de la filosofía del derecho llevada a cabo en nuestro medio, sino también en que es, ante todo, una meditación auténticamente filosófica sobre el problema de la Ciencia del Derecho, de la que no podrá prescindirse, aunque sea para polemizar con ella, al abordar la cuestión sobre la cientificidad de la Ciencia del Derecho. 3.3 Algunas visiones de la Ciencia del Derecho en la segunda mitad del siglo XX. Al iniciarse la década de los cincuenta, Alf Ross y Norberto Bobbio se propusieron la construcción de una Ciencia Jurídica que tuviera todos los atributos necesarios para hacerla acreedora del título de “verdadera ciencia”, y en ambos casos, sobre una base empírica12. 3.3.1 La Ciencia del Derecho según Alf Ross Alf Ross, como representante del realismo jurídico, interpreta la vigencia del derecho en función de la eficacia social de éste. Según explica, la Ciencia Jurídica (a la que atribuye la condición de ciencia empírica) consta de aserciones acerca de las normas jurídicas (del tipo: “F es una ley vigente”) y que consiguientemente (al igual que se hace con las aserciones de las ciencias empíricas) deben ser entendidos y considerados con arreglo al principio de verificación, en virtud del cual, una proposición sólo tiene sentido cuando puede ser verificada (ello es conteste con la aspiración de Ross de poder atribuir al derecho la condición de ciencia social empírica). Y según entiende Ross, el procedimiento de verificación de las proposiciones de la Ciencia Jurídica estará constituido por el comportamiento que a su respecto asuman los tribunales que deciden las controversias jurídicas. Es decir: la validez de una proposición de la Ciencia Jurídica (y por tanto su auténtico carácter científico) está en función de su aplicabilidad en la práctica de los tribunales. Así entonces, cuando un tribunal aplica una norma jurídica respecto de la cual la Ciencia del Derecho había postulado su vigencia o la condición de válida, el hecho de su aplicación implica la constatación de la certeza de las afirmaciones que sobre su validez o vigencia había emitido la Ciencia Jurídica. Sin embargo, en el pensamiento de Ross, las decisiones judiciales no tienen la función de atribuir vigencia a las normas, sino de verificar proposiciones de la Ciencia Jurídica que afirman tal vigencia. El comportamiento de los tribunales entonces, se relaciona con el problema de la verificación de la aserción de la Ciencia del Derecho y no con el problema de la validez o vigencia de la norma jurídica. Por lo que Ross admite la posibilidad de considerar derecho vigente al aún no aplicado, porque la aplicación de la norma no es un requisito de su vigencia sino sólo un criterio de verificación positiva de la proposición doctrinal (aserción) que nos ha indicado que esa norma estaba vigente o era válida. Pero además, para Ross, las aserciones acerca de la vigencia de la norma jurídica 24 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia (contenido de la Ciencia del Derecho) pueden ser consideradas verdaderas si hay motivos suficientes para pensar que esa norma será aplicada en las decisiones futuras, aún cuando todavía no lo hayan sido (por no haber recaído resolución alguna que contemple la regla a la que se refieren) o incluso cuando no podrán ya serlo (porque la disposición legislativa sólo estuvo un corto tiempo en vigor). Bastará con que contemos con otras creencias ya verificadas que nos ilustren acerca de la mentalidad de los jueces y nos hagan considerar razonable que la afirmación acerca de la validez o vigencia era verdadera. Señala también Ross, el carácter probabilista y relativo de las aserciones de la Ciencia Jurídica: aun cuando podamos citar una o más resoluciones judiciales que verificasen la exactitud de la proposición “A” de la Ciencia Jurídica, ésta continuaría siendo en principio una incierta predicción respecto de decisiones futuras, pues la aserción verificada, para mantener su validez, se encontrará siempre precisada de nuevas verificaciones: una vez probada y confirmada para el pasado, después de su verificación, vuelve a problematizarse, presentándose como una nueva aserción que a su vez debiera ser verificada. Es decir: la verdad de una proposición jurídica determinada (por haberse verificado judicialmente) no supone necesariamente que nos encontremos en situación de predecir con certeza razonable el resultado de una acción concreta futura aun cuando conozcamos los hechos relevantes. De esta forma Ross entiende que las proposiciones de la Ciencia del Derecho no pueden pretender nunca una absoluta certeza, sino que tan solo pueden sostenerse con un mayor o menor grado de probabilidad, que puede ir desde la virtual certeza a la probabilidad escasa. La probabilidad será alta y la aserción poseerá un correspondiente alto grado de validez, si la predicción se basa en una doctrina muy asentada y se sustenta en una serie continua de precedentes jurisprudenciales indiscutidos. O por el contrario, en el caso de que la predicción se base en un precedente singular y dudoso, o en los principios o la razón, la probabilidad será baja y a la aserción le corresponderá un grado de validez igualmente bajo. Sin embargo, según Ross, la relativización de los asertos de la Ciencia Jurídica, no inhabilitan a ésta para que siga siendo auténtica ciencia, pues por el contrario, la relatividad del conocimiento científico es algo que reclama como propia toda la epistemología contemporánea, nacida de la crisis de las ciencias tradicionales que se consideraban de valor absoluto. Sintetizando: Alf Ross concibe la Ciencia del Derecho como un conjunto de proposiciones verificables empíricamente que, para ser tomadas en cuenta, requieren verse avaladas por las decisiones de jueces y magistrados, constituyendo así el comportamiento de los tribunales, la fuente de prueba por excelencia de que son ciertas o falsas las aserciones de la ciencia del Derecho que indican que una norma está vigente o es válida. 3.3.2 La Ciencia del Derecho según Norberto Bobbio Norberto Bobbio se ha ocupado en muchas ocasiones y en momentos diferentes de la Ciencia Jurídica, modificando incluso su propio pensamiento al respecto, al compás de los cambios que se han ido produciendo en la problemática correspondiente. En este punto, en consonancia con al autor que guía nuestro análisis, se toma como referencia los desarrollos de Bobbio en “Scienza del diritto e análisi del linguaggio” publicada por vez primera en 1950 y “Teoría della scienza giuridica” del mismo año. Más recientemente, quizás como una evolución de su postura expuesta en las obras citadas, Bobbio acepta la posibilidad de concebir, junto a una auténtica Ciencia del Derecho, una jurisprudencia que no es ciencia, pero que es INVENIO 14 (26) 2011: 13-38 25 Silvana Mabel García la que practican generalmente los juristas. Entiende así que es posible afirmar la existencia de una duplicidad de saberes, uno: el científico, que responde a los esquemas de cientificidad que acepta la comunidad científica, y otro: la realidad del quehacer del jurista13. En las obras a que hacíamos referencia al inicio, intenta Bobbio atribuir un carácter empírico particular y diferente a la Ciencia del Derecho. Sostiene así que la ciencia jurídica no es una ciencia formal (como la lógica y la matemática) pero tampoco es propiamente una ciencia empírica (como la física, la química, la sociología y la economía) pero forma parte, pese a ello, de la gran familia de las ciencias empíricas y al mismo tiempo participa de ciertas características de las ciencias formales. El motivo por el cual Bobbio propone la inclusión de la denominada Ciencia del Derecho en el conjunto de las ciencias empíricas, es su creencia de que cuando se estudian las proposiciones normativas y por tanto, entidades lingüísticas, la actividad presupone la referencia a los comportamientos reales (entidades extralingüísticas) de los que la proposición ha sido extraída. De ahí que en la Ciencia Jurídica, no se trate tanto de conocer hechos reales, como de interpretar el sentido de determinadas afirmaciones (prescripciones) acerca de la realidad. Sin embargo, como el legislador para poder establecer comportamientos posibles (prescribiéndolos), recaba la noción de estos comportamientos posibles de la realidad social, el científico del derecho no puede comprender el significado de una prescripción sin remitirse, de algún modo, a la realidad social de la que la misma prescripción ha extraído tanto su razón de ser como las nociones de que está compuesta. El intérprete, si quiere comprender el significado de una norma, observa (de la misma manera que podría hacerlo un historiador o un sociólogo) el comportamiento real, y de este conocimiento extrae los elementos indispensables para desarrollar su función interpretativa. De este modo, normatividad y empiricidad no son términos incompatibles. Por el contrario, las proposiciones jurídicas son a un mismo tiempo normativas derivadas de la experiencia. Entonces, si ha de entenderse que toda investigación que reconozca a la experiencia como fuente última de conocimiento es merecedora de la condición de ciencia empírica, resulta razonable asignar a la Ciencia del Derecho tal calificación, ya que su objeto (las reglas jurídicas de comportamiento) se hallan dentro de la experiencia. Sustancialmente, lo que Bobbio intenta afirmar, es que la Ciencia del Derecho (la interpretación-sistematización de los preceptos del legislador) están inmersos en la sociedad y en la historia. Agrega también Bobbio que una investigación se constituye en científica, cuando superada y abandonada la ambigüedad y la indeterminación del lenguaje común, se presenta como un sistema coherente y cerrado de proposiciones definidas, por lo que todo análisis que pretenda el título de ciencia, debe contar también con una parte eminentemente crítica, que consiste en la construcción de un lenguaje riguroso. Por tanto, siendo que la Ciencia del Derecho tiene como objeto el lenguaje del legislador, será entonces el análisis del lenguaje el que construye y reconstruye de modo riguroso ese discurso; y corresponderá entonces al intérprete la transformación de ese lenguaje del legislador en un lenguaje riguroso, purificándolo, esto es, determinando el sentido de los términos que aparecen en las prescripciones jurídicas. Ello así, pues el lenguaje del legislador no es necesariamente riguroso, ya que ni han sido establecidas perfectamente las reglas de su formación, ni las expresiones lingüísticas son precisas en cuanto a su referencia objetiva. 26 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia Tampoco aparece necesariamente sistematizado, siendo necesaria la tarea de su ordenación o reconducción al sistema. Afirma Bobbio: “la Ciencia Jurídica debe transformar el discurso legislativo en un discurso riguroso...y únicamente cuando logra construirse un lenguaje riguroso y sólo en los límites en que tal lenguaje se construye, puede decirse que se convierte en investigación científica, en una palabra, considerarse Ciencia”14. 3.3.3 La visión de la Ciencia del Derecho en Carlos Alchourrón y Eugenio Bulygin Carlos Alchourrón y Eugenio Bulygin proponen un modelo de Ciencia Jurídica considerablemente más sofisticado que el que presenta Alf Ross. Estos autores señalan dos tipos de tareas u operaciones que la Ciencia Jurídica desarrolla. En primer lugar, la tarea empírica de determinar qué enunciados constituyen la base de un orden jurídico; en segundo término, las operaciones lógicas de sistematización del derecho. Alchourrón y Bulygin muestran que la sistematización del derecho consta de dos pasos. En el primero de ellos se derivan las consecuencias lógicas de los enunciados que constituyen la base del sistema, empleando ciertas reglas de inferencia; esto permite mostrar los defectos lógicos (lagunas, contradicciones y redundancias) que el sistema pueda tener. En una segunda etapa de la sistematización, se trata de reemplazar la base original del sistema por una más económica pero equivalente a ella, o sea por un conjunto más reducido de principios que sean lo más generales que sea posible, siempre que tengan las mismas consecuencias lógicas que las normas que reemplazan. En cuanto a la ubicación de la Ciencia del Derecho en una clasificación general de las ciencias, afirman que no puede clasificársela sin más como una ciencia empírica y mucho menos aún como una ciencia formal. “Tiene, sin duda, sus rasgos peculiares que justificarían tal vez su inclusión dentro de las ciencias normativas como categoría autónoma, distinta tanto de la ciencia formal, como de la empírica. Pero esto no excluye la posibilidad de aprovechar para la Ciencia del Derecho parte del conocimiento logrado y algunos de los métodos usados en la metodología de otras disciplinas más desarrolladas”15. 4. La discusión de la condición científica de la Ciencia del Derecho 4.1 El escepticismo de Julio von Kirchmann Las discusiones sobre la cientificidad de la Ciencia del Derecho, se remontan según algunos autores, ya hasta el siglo XVI. En el Renacimiento, los humanistas sintieron una especial aversión hacia la Ciencia del Derecho. Pero no hay duda que fue el análisis de Julio H. von Kirchmann, procurador del rey en el Estado de Prusia, en su famosa conferencia pronunciada en 1847, el que alcanzó mayor resonancia. A fin de enmarcar debidamente su posición, a cuyos argumentos principales nos referiremos, es necesario tener presente que la crítica de Kirchmann se dirige principalmente a la Ciencia del Derecho como dogmática jurídica, y que además sus cuestionamientos son hechos desde el ángulo visual de la ciencia de su época, caracterizada por el “positivismo” (esto es, la atribución de carácter científico sólo a las llamadas “ciencias causales” o de la INVENIO 14 (26) 2011: 13-38 27 Silvana Mabel García naturaleza), por lo que su análisis sigue el método propuesto por estas ciencias. Sostiene Kirchmann el carácter acientífico de la jurisprudencia como ciencia16. La causa, afirma el jurista, radica en su mismo objeto, en “fuerzas impeditivas secretas inherentes al objeto”, que obstaculizan en esta área los esfuerzos del espíritu humano. Y así, comparando el objeto de la Ciencia del Derecho con los objetos de otras materias, es posible verificar las diferencias y peculiaridades del objeto del derecho, que no se hallan en los objetos de otras ciencias. En primer lugar, la esencial mutabilidad del objeto, que se “encubre” -según Kirchmann- en la afirmación generalizada de la existencia de un “desenvolvimiento progresivo de las diferentes instituciones del derecho”. Pertenece a la misma naturaleza de toda ciencia que su verdad puede madurar sólo lentamente. Sus leyes no son sino el resultado de esfuerzos seculares comunes de sus cultivadores. En cambio, enfatiza Kirchmann, cuando la Ciencia Jurídica encuentra, después de esfuerzos de muchos años el auténtico concepto, la verdadera ley de una de sus instituciones, el objeto ya ha cambiado. Consecuencia de ello es que la Ciencia Jurídica en general tiende a oponerse a todo progreso en el derecho, ya que fuerza la subsunción de la realidad en categorías ya conocidas pero quizás fenecidas, olvidando el jurista que no toda institución jurídica que se ha producido después de otra, procede forzosamente de ella. En segundo término, el objeto del derecho (como ciencia) no sólo consiste en el saber sino también en el sentir, y de este modo, la sede de su objeto no se halla sólo en la cabeza sino también en el pecho de los hombres. Los objetos de otras ciencias son libres de semejante aditamento, no existe en los objetos de otras ciencias, un “prejuicio sentimental”. Pone Kirchmann como ejemplo, la discusión de si el matrimonio entre judíos y cristianos debe admitirse, qué causas de divorcio deben estatuirse, si se admite o no el mayorazgo. En estos problemas, como en muchos otros, antes de que principie la investigación científica, ha contestado ya el sentimiento. Y el sentimiento, afirma Kirchmann, nunca y en ninguna parte es un criterio de la verdad. En el ámbito de la Ciencia del Derecho “en vano espera la verdad a un investigador limpio de prejuicios”17. Otra particularidad del objeto de la Ciencia del Derecho, sigue desarrollando el procurador, es la figura de la ley positiva, que se entromete entre el derecho y la Ciencia, produciendo consecuencias nocivas para ambos. Provistas de poder y de sanciones, las leyes positivas se imponen a su objeto, no importa si fuese verdadero o falso, debiendo la Ciencia capitular ante ellas. Y cuando la ley positiva más se acerca a la verdad, esto es, cuanto más ciencia pura redactada con máxima precisión contiene, carece entonces la Ciencia del Derecho de una misión respecto a ella, pues lo que la Ciencia podría ofrecer, ya está contenido en la ley positiva. Así pues, la Ciencia sólo puede ocuparse de “lo falso de la ley”: sus lagunas, ambigüedades, contradicciones. Su objeto es así el descuido, la ignorancia, la pasión del legislador, los errores y los defectos de todas clases. “Por culpa de la ley positiva, los juristas se han convertido en gusanos que sólo viven de madera podrida. Abandonando la madera sana, anidan y tejen en la carcomida. La Ciencia, al hacer del azar su objeto, se convierte ella misma en azar: tres palabras rectificadoras del legislador y bibliotecas enteras se convierten en papeles inútiles”18. Refiere luego Kirchmann a otro obstáculo que dificulta la tarea “científica” del derecho: no pudiendo el derecho existir sin las características del saber y del sentir, cuando la ciencia intenta despojarse (para adquirir justamente carácter científico) de estas característi- 28 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia cas, se desvía hacia la sofisticación y las elucubraciones estériles. El resultado de la Ciencia Jurídica es así, un derecho ignorado por el pueblo, que no reside ya en su corazón. Y es por ello que el sentir sencillo e inconsciente del pueblo quiere librarse de la Ciencia erudita por medio de los jurados. “La Nación repudia a los juristas científicos. La sospecha, el sentimiento oscuro de la contradicción entre Derecho y Ciencia existen”19. Reflexiona también el jurista prusiano sobre los “servicios” de la Ciencia del Derecho: impresos para contratos y juicios, un cúmulo de admoniciones y enseñanzas, el sistema del proceso común repleto de detalles de erudición, formas y cláusulas que pretenden frenar la precipitación y proteger contra la chicana. Nunca auxilio, dirección científica donde realmente se necesita. Así, agrega, cuando un problema jurídico conmueve a la Nación, se interroga a la Ciencia para que disipe la duda y la dirija por el camino de la evolución, pero la Ciencia es impotente para esta tarea pues nunca comprende el presente. Concluye Kirchman su detractora alocución: “Los juristas son impotentes para poner los cimientos y para erigir la estructura misma de un edificio sólido. Sólo después de terminada la construcción, aparecen los juristas a millares como los cuervos y anidan en todos los rincones, miden los límites y dimensiones hasta el último centímetro y desdibujan y desfiguran el edificio noble, de tal suerte que príncipe y pueblo apenas vuelvan a conocer su propia obra.” 4.2 La concepción de la jurisprudencia como Técnica Una visión más reciente, también negatoria del status científico de nuestra Ciencia, es la que nos proporciona Manuel Atienza, en su opúsculo: “Sobre la jurisprudencia como técnica social. Respuesta a R. Vernengo”20. Del mismo modo que Kirchmann, refiriéndose a la labor dogmática de la Ciencia del Derecho, sostiene Atienza la tesis del carácter esencialmente técnico de la jurisprudencia. Entiende así, que ella es una técnica socialmente útil que se caracteriza además, por ser un saber normativo y valorativo -o si se quiere político, por ser una actividad impregnada de politicidad-. A fin de caracterizar a la jurisprudencia como técnica, Atienza parte de las características que según Mario Bunge21, diferencian a la ciencia de la tecnología, y aplica dichas notas distintivas a la dogmática. Refiriendo las más salientes, ellas serían: a- Las comunidades tecnológicas no son tan abiertas como las científicas. Resulta innegable, afirma Atienza, que las comunidades de cultivadores de la dogmática son menos abiertas que las de los científicos. Las soluciones ofrecidas por la dogmática sólo lo son en relación con un determinado derecho positivo, naturalmente susceptible de ser cambiado, y ello obstaculiza la difusión de los “avances”. b- A diferencia del conocimiento científico, el tecnológico es una mercancía. El producto de la dogmática puede ser considerado frecuentemente como una mercancía, ya que las soluciones elaboradas por los dogmáticos están en la base de actividades de asesoramiento que tienen un valor en el mercado, es decir, son traducibles en términos económicos. c- El tecnólogo es básicamente un pragmático. Le interesa la verdad objetiva, no como fin, sino como medio para un fin útil o utilizable. Nadie puede poner en duda, sostiene Atienza, que quienes se han dedicado al cultivo de la jurisprudencia, han defendido básicamente una concepción pragmática del saber, INVENIO 14 (26) 2011: 13-38 29 Silvana Mabel García que les ha llevado a sentir repulsión hacia toda especulación que no llevara en forma más o menos inmediata a resultados prácticos. Los problemas que pueden considerarse como característicos de la dogmática, son de tipo esencialmente práctico. Aun en el fondo de las más abstractas teorías, suelen latir problemas prácticos cuya solución es precisamente lo que justifica dicha teorización. d- Los objetivos de la ciencia incluyen el descubrimiento o uso de leyes, la sistematización en teorías de hipótesis y el refinamiento de métodos. La tecnología, entre sus objetivos, tiene el de inventar nuevos “artefactos”, nuevas maneras de usar o adaptar los viejos y planes para realizarlos, mantenerlos y manejarlos. La finalidad de la dogmática es la de controlar los procesos de interpretación, aplicación, desarrollo y cambio del derecho, para lo cual el dogmático naturalmente adopta o reformula conceptos, métodos y teorías y realiza una labor de sistematización y descripción ordenada de un cierto sector del ordenamiento jurídico; pero tales funciones, en el entendimiento de Atienza, son subordinadas, o dicho de otra manera, constituyen el punto de partida, pero no su punto de llegada, su objetivo final. e- La tecnología tiene un componente del que carecen las ciencias: un conjunto de juicios de valor acerca de cosas o procesos, que se formulan a la luz de las metas u objetivos. No parece discutible, sostiene Atienza, que en la actividad del dogmático del derecho juegan determinados juicios de valor, especialmente en la evaluación de las soluciones dogmáticas. Así, una cierta propuesta de solución se considerará adecuada y obtendrá consenso en la comunidad jurídica, si promueve o al menos no pone en riesgo la seguridad jurídica, si respeta y garantiza los derechos fundamentales, etc. f- La tecnología moderna se funda en una o más ciencias. Los miembros que componen el campo de la tecnología, cambian, aunque sea lentamente, como resultado de investigaciones y desarrollos. La dogmática jurídica mantiene pocas y poco profundas relaciones con la ciencia, y en la opinión de Atienza, no se basa en ciencia alguna, sino más bien en una combinación de experiencia, sentido común, conocimiento ordinario, etc. Y es por ello -sostiene el autor- que se ha mantenido al margen de los procesos de cambio que tienen lugar en la ciencia y en la tecnología. Concluye Atienza que, dado que la actividad dogmática obedece más al modelo de proceder técnico que al científico, entonces los filósofos y teóricos del Derecho que reflexionan sobre el saber jurídico tradicional deberían trasladar su centro de interés desde el campo de la filosofía de la ciencia al de la filosofía de la técnica, y así la comprensión de que lo que se cultiva es un tipo de saber técnico, podría evitarles abordar investigaciones pseudocientíficas de más que dudoso resultado. Una concepción similar, sostiene Enrico Pattaro, en cuanto a que la actividad de los juristas no llega a constituir actividad científica, por lo que no puede considerarse como ciencia y sólo puede clasificarse como técnica, (“técnica de interpretación”)22. 5. Algunos aportes personales Como dijimos en la introducción del trabajo, propondremos (a modo de un “ensayo provisorio”) nuestra visión de esta problemática y algunas meditaciones personales. 1- Siempre pensamos, y así lo transmitimos en nuestra labor docente, que el conocimiento en su faz científica puede compararse a un edificio en obras, en el que todos quienes 30 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia aspiramos a “elevarlo” en altura, tan sólo colocamos un ladrillo, el que unido a los otros que aportan todos los demás que comparten la misma vocación, van concretando y haciendo más alta la construcción, que sin embargo parece siempre inacabable. Esto quiere evidenciar nuestra convicción acerca de que la ciencia es dinámica, se construye momento a momento, y que es una “empresa de conjunto”, ya que todos los “obreros” de este quehacer, contribuyen con lo suyo, sin que ninguno de ellos sea el “único operario”. Entendemos que esta visión nos ayuda a desmitificar que la labor científica, por lo menos en el ámbito del derecho, pueda significar un conocimiento “entero” al modo de un producto terminado y completo y por solo un sujeto, lo cual muchas veces sirve de excusa para no emprender la tarea (suele decirse así: “qué puedo descubrir o decir yo que antes otro no haya hecho”). También que, como en toda obra de construcción, a veces hay que “destruir” parte de lo hecho, no porque lo construido no sea del todo útil, sino porque aparecen nuevos y mejores materiales (fuentes del derecho), mejores procedimientos (métodos), que al utilizarse hacen la obra más sólida. De este modo, y trasladando algunos conceptos de Tomas Kuhn a nuestra ciencia, nos parece que los cambios en su desarrollo operan más por obra de “vicisitudes acumulativas” que por “mutaciones revolucionarias” y que los “paradigmas” (como sistema de conceptos, valoraciones, métodos) son más estables que en otras ciencias. Se habla también de un carácter pantónomo de la Ciencia del Derecho, en el sentido de ser una Ciencia en la que el tiempo no suele modificar las bases oportunamente edificadas, a diferencia de otras en las que el tiempo va superando los conocimientos originariamente adquiridos (física, química). Se nos ocurre que quizás en nuestro tiempo, estemos asistiendo al surgimiento de ciertas “anomalías” (en el sentido de perplejidades, “rompecabezas”) en el área disciplinar que vincula el derecho con la genética y los problemas que el avance de la clonación podrían ocasionar en el mantenimiento de los paradigmas vigentes. En definitiva, la Ciencia del Derecho es quehacer permanente para los juristas, que nunca puede ser enteramente llevado a cabo, pero que día a día debe intentarse realizar. 2- En cuanto a las discusiones y diversas opiniones en punto al “ser del derecho” (problemática respecto de la cual –debemos reconocerlo- aún no hemos podido formar opinión definitiva, aunque sentimos cierta inclinación a entender el Derecho – y el objeto de su ciencia- de modo que normatividad y empiricidad resulten compatibles) no creemos que ellas oscurezcan al objeto de nuestra ciencia, sino todo lo contrario, enriquecen su esencia, porque en la existencia de diversos matices en su abordaje, surgen los nuevos conocimientos y los aportes concretos al desarrollo de la ciencia y su metodología. Prueba de ello son las valiosas contribuciones que hemos referenciado en este trabajo. Pero no obstante los diferentes puntos de vista, pensamos junto con K. Larenz que la Ciencia del Derecho, siempre tiene que vérselas con el derecho, esto es, con las normas e institutos de un derecho positivo, por lo que nunca resultará posible un análisis desvinculado de las normas. 3- Abordando concretamente la cientificidad del Derecho, nos parece que es posible atribuirle tal “título” a nuestro saber, ello fundado en la convicción que es posible comprobar la existencia, tanto de un sistema de conocimientos, ciertos y probables, respecto de un determinado sector de objetos de la realidad universal (en nuestro caso el Derecho) a los que es posible acceder a través de una adecuada fundamentación metodológica (“ciencia-producto” en la terminología de Nino) como asimismo de una labor, con metodología propia, que aspira a la obtención y construcción de conocimientos racionalmente comprobables y sistemáticos INVENIO 14 (26) 2011: 13-38 31 Silvana Mabel García acerca del derecho (“ciencia-proceso”), sin dejar de reconocer que muchos de los conocimientos que aporta nuestra ciencia tienen validez temporalmente condicionada, justamente porque su objeto (el Derecho) es cambiante. Entendemos asimismo, que en nuestra Ciencia, las respuestas a las preguntas no pueden inequívocamente calificarse de “verdaderas” o “falsas” sino sólo de “defendibles” y que la relatividad del saber jurídico (al decir de A.Ross) cobra vigencia en la conocida afirmación de que “los juristas no amamos nada tanto como poner en duda las opiniones ajenas”23. Pero tal como sostuviera Karl Popper, lo que hace a la racionalidad de la ciencia es el carácter crítico y progresivo de la misma teoría, el hecho de que podamos presentar en defensa de su pretensión de defender nuestros problemas, mejores argumentos que sus opositores y que en definitiva el conocimiento científico progresa mediante conjeturas. Así, la unidad del método científico consiste en el ensayo de posibles soluciones a los problemas mediante la propuesta de conjeturas -teorías- y la refutación constante a dichas conjeturas -críticas-. La ciencia se caracteriza por la búsqueda de la verdad pero también por la demostración del error: el conocimiento científico, debe ser pues, “falsable”. Lo que ocurre es que existe la tendencia a pensar el conocimiento científico en torno al ideal de “exactitud” olvidándose que en la ciencia toda explicación se propone a título de ensayo y provisionalmente, y que lo que hace al hombre de ciencia no es la posesión de conocimiento en el sentido de verdades irrefutables, sino la búsqueda obstinada y audaz de la verdad. Aun lo provisorio es válido, pues lo probable de hoy, puede ser lo cierto de mañana. Reclamamos asimismo para nuestra Ciencia, y aunque sabemos que ello no es compartido por todos, una labor, no meramente reproductiva y descriptiva del material con que trabaja, sino también de reconstrucción del derecho. En tal orden de ideas, nos resultan explicativas las siguientes observaciones de Roscoe Pound: “Suele afirmarse que la jurisprudencia es la Ciencia del Derecho. Pero es necesario que consista en algo más que en la organización y sistematización de un cuerpo de reglas de derecho. Los órganos legislativos, aunque en cierto aspecto sean los más calificados, sólo de manera intermitente pueden prestar atención a un trabajo constructivo de creación del derecho para los fines del orden jurídico. Los jueces trabajan en condiciones que cada día les hace más difícil que sean los oráculos vivientes del derecho, excepto en cuanto dan autoridad a lo que ha sido formulado por escritores y profesores. Una interpretación que estimule la actividad jurídica...que impulse a nuestros escritores y maestros a orientar a tribunales y órganos legislativos, en lugar de seguirlos con una labor de simple ordenación, sistematización y de análisis conciliador, habrá cumplido debidamente su misión”24. 4- Estimulados por las reflexiones últimas de Bobbio (en cuanto a la posibilidad de afirmar una duplicidad de saberes, uno: el científico, y otro: la realidad del quehacer del jurista) y asimismo la tesis de M. Atienza, en cuanto a que la jurisprudencia no es ciencia sino técnica, nos proponemos en las siguientes líneas, analizar las diferentes prácticas relacionadas con el quehacer de los hombres y mujeres de derecho, a la luz de las características y cometido que hemos propuesto para la Ciencia del Derecho. Enfocaremos así nuestra Ciencia desde las actividades que desarrollan y los productos que elaboran sus protagonistas. Desde tal perspectiva, pensamos que no puede calificarse de científica toda tarea que desarrollan quienes operan en el campo de lo jurídico, y entendemos que pueden hacerse algunas disquisiciones al respecto. No habrá mayor duda en calificar la labor del investigador (y en ella incluimos al “doctorando” en la elaboración de su tesis) y del doctrinario, como científica. Al identificar y también plantearse problemas con relación al objeto de su ciencia y buscar, descubrir y propo- 32 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia ner soluciones, de modo reflexivo, sistemático y crítico, al ahondar en las raíces más profundas de los institutos jurídicos, el jurista (investigador, doctrinario) construye la Ciencia del Derecho. En este mismo orden de ideas, la función de sistematización del orden jurídico (más propia del doctrinario) al reemplazar conjuntos de normas por principios más generales y equivalentes a ellas, logrando una mayor economía del sistema, lleva a cabo un trabajo previo imprescindible para la firmeza y seguridad de la tarea judicial, para una legislación objetivamente eficiente y para una función de la administración que preserve y equilibre los diversos intereses. Pero aun en este específico quehacer, comparto cierta crítica de J. Kirchmann en cuanto a que existe una tendencia del jurista a asimilar todo conocimiento nuevo con alguno anterior, como si nada pueda haber de nuevo en derecho que no responda armónicamente a una institución anterior ya conocida que le sirva de simétrico paralelo. Esta actitud en nuestro entender, consecuencia de una inclinación natural del hombre a caminar sobre seguro, perjudica el avance de la ciencia porque no deja pensar libremente e idear y crear nuevas categorías. Así, en la ciencia como en otros ámbitos, el progreso debe luchar contra la inercia. A modo de ejemplo, y por relacionarse con nuestra área de desempeño profesional, traemos la discusión hoy todavía vigente en el ámbito del derecho concursal acerca de si el nuevo acuerdo preventivo extrajudicial es un subtipo concursal o tiene naturaleza contractual25, esto es, categorías existentes para un instituto que reclama interpretaciones novedosas en su aplicación por ser novedosa su regulación. De este modo, los conceptos tradicionales, los ropajes clásicos, se usan para vestir a las nuevas instituciones. La tarea legislativa, en su cometido de creación de derecho, tendría en nuestro parecer, un carácter técnico. Entendiendo por técnica, el saber para el hacer, un tipo de saber que se produce con el objeto directo del hacer, o en la expresión de M. Bunge, de la invención de nuevos artefactos, en su sentido más amplio de objeto artificial, esto es, toda cosa, estado o proceso controlado o hecho deliberadamente con ayuda de algún conocimiento aprendido y utilizable por otros26. Es preciso aclarar, que de cualquier modo, somos contestes con la opinión según la cual, catalogar una actividad como técnica en vez de ciencia, no implica colocar tal saber en una situación de inferioridad con relación a la ciencia, pues ambas llevan al objetivo final de la realización del derecho27. Y aunque imbuida de características de técnica, ello no significa que prescinda de la ciencia. Todo lo contrario, la ciencia y la técnica constituyen un ciclo de sistemas interactuantes que se alimentan el uno al otro. Al decir de M. Bunge, el científico torna inteligible lo que hace el técnico y éste provee a la ciencia de instrumentos y de comprobaciones. De este modo, si bien la creación de una norma, significa en sí, el despliegue de una labor técnica, opera sobre un fondo de conocimiento científico y con ayuda del método científico. Existe así, un diálogo constante entre ciencia y técnica, y es deber del legislador, aprovechar todo el bagaje de conocimiento que los hombres de ciencia han obtenido en su propia labor. Donde se hace más íntimo el diálogo entre ciencia y técnica, es sin duda en la elaboración de los proyectos de codificación. Es inevitable reconocer sin embargo, que nuestras leyes, en términos generales, adolecen de defectos, imprecisiones y omisiones que hacen aún más ardua la tarea de la Ciencia del Derecho y que ponen en evidencia el insuficiente desempeño por el legislador de una adecuada técnica legislativa. Además, el llamado fenómeno de “inflación legislativa” agudiza este defecto. Pero pareciera existir una preocupación en el ámbito legislativo por revertir esta INVENIO 14 (26) 2011: 13-38 33 Silvana Mabel García tendencia. En este orden de ideas, señalamos que poco tiempo atrás, mediante la ley 24.967, nuestro legislador puso en marcha una importante iniciativa, que se vincula estrechamente con aspectos científicos y epistemológicos, conocida como “Digesto Jurídico Argentino” mediante la cual se ha emprendido –por intermedio del Poder Ejecutivo y con el seguimiento del Congreso- una tarea de ordenamiento de nuestra legislación a fin de permitir la sanción de la ley de consolidación legislativa. El primer resultado de esa labor, ha sido el “Manual de Técnica Legislativa”28 que, según sus autores, permitirá en su utilización perfeccionar el sistema de normas, haciéndolo más claro para todos. La tarea emprendida, consistió en el estudio de todo el derecho que surge de lo publicado en los registros nacionales de leyes y del Boletín Oficial desde 1853 hasta nuestros días, con el fin de individualizar para luego eliminar del cuerpo de leyes, las normas de carácter particular, las que tuvieren objeto cumplido o plazo vencido y las que hubiesen sido expresamente derogadas por otra norma. De allí se pasó a abordar el análisis epistemológico y de vigencia normativa, para detectar las derogaciones implícitas de las normas a fin de proyectar su derogación expresa. El equipo encargado de tal monumental tarea (conformado por profesores de la UBA, investigadores y especialistas) examinó 26.000 leyes nacionales de las cuales se entiende que sólo permanecen vigentes alrededor de 4.000. Con la aprobación del Digesto Jurídico Argentino, quedarán derogadas todas las normas que no se hubieran incorporado a dicho Digesto hasta la fecha de consolidación como legislación nacional general vigente y su reglamentación. Interesa referir a algunas cuestiones que forman el contenido de la ley mencionada. La primera de ellas, la clasificación de las ramas de la Ciencia del Derecho que la misma realiza en veintiséis categorías, coincidentes con el número de letras del abecedario (art. 7). De la observación de tal categorización parece surgir que en la división de las ramas del Derecho se ha adoptado un criterio “mixto”, esto es, atendiendo no sólo a la autonomía propiamente científica de una rama, sino también a la posible existencia de una autonomía didáctica y legislativa. Llama la atención la decisión del legislador de individualizar las diferentes ramas mediante las letras del abecedario. Pensamos que tal criterio (al haberse agotado ya la totalidad de las mismas) implica “cerrar” la posibilidad del reconocimiento de nuevas ramas que adquieran autonomía, con lo que de algún modo se estaría desconociendo el fenómeno que ocurre en todas las áreas del saber, de aumento del número de las ciencias particulares autónomas. No hemos podido acceder al debate parlamentario de la norma, a fin de conocer el fundamento de la clasificación y del modo de individualización de las clases así realizada. Es de señalar también que, conforme a las modernas tendencias que señalan la equivocidad de la distinción, no se formula diferenciación alguna entre derecho público y privado. A fin de asegurar el respeto de la clasificación por parte de toda norma futura que se sancione, y con ello mantener la adecuada sistematización del derecho positivo que mediante el Digesto se logrará, se ha previsto que en la misma ley o decreto que se emita, el respectivo poder creador de la norma se expida sobre el encuadramiento correspondiente (art.17). La segunda cuestión que nos parece interesante señalar, es que la referida ley 24.967 incorpora como nueva pauta para la labor de integración del derecho, lo que conceptúa como “derecho histórico” integrado por las leyes nacionales derogadas o en desuso y su reglamentación (que conformarán el Anexo del Digesto Jurídico Argentino) y al que se asigna valor jurídico equivalente a los principios generales del derecho en los términos del art. 16 del C. C (art. 4). Será justamente la Ciencia del Derecho la encargada de aprehender la naturaleza, 34 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia jerarquía y alcance de esta nueva pauta integradora. En cuanto a la labor de los jueces, en punto a la función principal de aplicación del derecho que asume, también creemos que más que científica se aproxima al carácter de técnica. Al consistir fundamentalmente en una tarea de inclusión del caso concreto en el supuesto normativo y la asignación de las consecuencias previstas por la norma, tiene como meta principal la obtención de un resultado práctico (la resolución de un conflicto mediante la sentencia: “artefacto” conceptual, en la terminología de Bunge) más que la de un conocimiento, aunque se valga lógicamente de ellos, ya que toda labor de aplicación del derecho presupone la de interpretación. Tal vez, en la producción de los fallos plenos y/o plenarios pueda atribuirse cierto grado de cientificidad a la tarea desplegada por los jueces. Lo postulamos así, pues nos parece que a través de su elaboración es advertible, si bien no en todos los casos, una función análoga a la desplegada por los doctrinarios al desentrañar y reelaborar el significado y alcance de las normas e institutos jurídicos, que incluso ha servido muchas veces como antecedente para dictar una ley en sentido concordante a la doctrina emanada del decisorio. Aunque también podríamos señalar una particularidad un tanto negativa de esa tarea en cuanto al anquilosamiento del derecho, que en virtud de la regla de la supervivencia de los decisorios en tanto no sean modificados29 un pleno o plenario puede significar, menospreciando así los aportes y progresos logrados en el ámbito de la Ciencia del Derecho. La función docente y también la académica en general, adquiere connotaciones científicas cuando más allá de la función principal, edificante y vital, de transmisión del saber jurídico (transmisión del contenido de la Ciencia del Derecho), genera nuevos conocimientos, formula hipótesis, conceptos, teorías, que permitan describir, explicar o comprender más profundamente los fenómenos jurídicos. En tales casos, el aporte al crecimiento de la Ciencia del Derecho parece indudable. A modo de ejemplo (no único por supuesto) en nuestra propia Facultad de Derecho de Rosario, es posible distinguir ciertas cátedras en las que se reconoce la presencia de docentes que han contribuido a la formulación de teorías referidas al proceso, que han trascendido incluso las fronteras de nuestro país (podría discutirse también si tales teorías, se ubican en el campo de la Ciencia del Derecho o llegan a alcanzar el status de teorías generales del derecho). Por último, resta analizar la tarea propia del abogado en el ejercicio de la profesión. Pensamos así que, tal como observamos el desempeño de la profesión en la actualidad, ella se aproxima más al modelo del proceder técnico que al científico (“cómo” hacer tal cosa, en vez de, por ej: “por qué” hacer tal cosa) y que la función del abogado en nuestros días, no es hacer ciencia, sino utilizar el conocimiento científico disponible para proporcionar soluciones más adecuadas, por ejemplo, en la elaboración de un dictamen profesional, en la redacción de un contrato, en la constitución de una sociedad, en la preparación de un concurso, actividades todas ellas encaminadas hacia la realización de una finalidad práctica. Tal vez por ello, “por el ansia de la Ciencia”, el profesional abogado suele desempeñarse también en el ámbito docente, o como investigador o doctorando, o como doctrinario, buscando de ese modo relacionarse con el desarrollo de tareas científicas. Una especial reflexión para la actividad del abogado en el proceso. Creemos que allí se pone en funcionamiento un arte especial: “el arte de argumentar”. Como dijera nuestro profesor Miguel A. Ciuro Caldani en clases de doctorado en la materia “Teoría General del Derecho”, el ejercicio de la abogacía, en la estrategia del proceso, es una combinación de arte, astucia y ciencia. Así el abogado, en representación de su parte en el proceso, intenta, a través de sus escritos y actuaciones, persuadir y convencer al juez de la legitimi- INVENIO 14 (26) 2011: 13-38 35 Silvana Mabel García dad de la tesis defendida, de “su” verdad, y de que la verdad del contrario no es tal, rebatiendo sus argumentos. Pero cuál es la auténtica verdad, es un enigma que el proceso no resuelve. 6. Reflexiones finales Los cuestionamientos en torno al carácter científico de la Ciencia del Derecho han llevado a algunos autores a preguntar si tiene algún sentido seguir discutiendo acerca del status epistemológico de la jurisprudencia. Semejante debate, se afirma, no parece cumplir más que una función ideológica: la de descalificar o justificar, según los casos, el saber jurídico tradicional, pero sin que nuestro conocimiento sobre el mismo se vea aumentado por ello. En tal orden de ideas se sugiere que al fin y al cabo, incluir o no un fenómeno en una cierta clase depende de la necesidad de satisfacer determinados propósitos, y que no parece que haya otro más importante en juego, en el intento de dar condición científica a la tarea de los juristas, que atraer para ella el halo de prestigio y aprobación que rodea a toda actividad que puede designarse con la palabra “ciencia”, que al igual que “derecho” tiene una carga emotiva favorable. Su aplicación a una actividad es una especie de condecoración que atrae hacia ella el respeto y el aprecio de la gente. Y se observa así que no basta que un cierto modelo responda a los cánones científicos para que su materialización constituya una actividad socialmente relevante; pues además, no toda actividad socialmente relevante tiene por qué satisfacer exigencias de cientificidad. Es evidente que la cuestión dista aún de ser “pacificada”. De cualquier modo, entendemos que hace al crecimiento y desarrollo de toda actividad, desde la más simple labor artesanal hasta la más elevada labor científica, “objetivarse”, esto es, transformarse a sí misma en objeto de reflexión y crítica. Sólo cuando se es capaz de “cuestionar” el modo en que se trabaja, vive, y piensa, es posible evolucionar hacia estadios más plenos, más ricos (en valores y experiencia) del desarrollo personal, y de ese modo, contribuir a la evolución social. Coincidimos con Hector Fix Zamudio cuando en defensa de la Ciencia del Derecho sostiene: “...no obstante las apariencias, es una de las más elevadas, de las más necesarias y de las más nobles del conocimiento humano, pues sin la existencia de su objeto, es decir, el ordenamiento jurídico, no sería posible ninguna otra actividad individual o colectiva, incluyendo las de investigación de la naturaleza o de los objetos matemáticos”30. Recibido: 05/11/12. Aceptado: 9/12/10 notas 1 Russell, Bertrand. Bertrand Russell dice la sua. Milano, 1968, trad. De A Pellegrini,, pp. 9-10, citado por Pattaro, Enrico, en Filosofìa del Derecho. Derecho. Ciencia jurídica. Madrid, Reuss, 1980. Traducción de José Iturmendi Morales, p. 48 y sgtes. 2 Alvarez Gardiol, Ariel, “Introducción a una teoría general del derecho. El método jurídico”, Bs. As, 1975, Astrea, p. 3. 3 Guibourg, Ricardo. “El sexo de los ángeles. El constructivismo en las ciencias sociales”, en Abeledo Perrot, “Lecciones y Ensayos”, Nº. 67/68, Bs. As, pág. 97; citado por Dabove, Ma. Isolina en “El derecho como complejidad de saberes diversos” en “Ideas y Derecho”, Rubinzal Culzoni, Año III, Nro. 3, 2003. 36 INVENIO 14 (26) 2011: 13-38 El derecho como ciencia 4 Nino, Carlos. Introducción al análisis del Derecho. Bs. As, Astrea, 2005, 13ra. reimpresión p. 16. 5 Cátedras A y E de I.a D y C de F del Panorama jusfilosófico, “La concepción del derecho en las corrientes de la filosofìa jurídica”, Boletín Mexicano de Derecho Comparado, nueva serie, año XXX, Nº 90, set/dic 1997, en cuadernillo de la Carrera de postgrado Doctorado en Derecho, correspondiente a la materia Teoría General del Derecho y metodología de investigación en las ciencias jurídicas UNR, Facultad de Derecho, 2005. 6 Torre, Abelardo. Introducción al derecho. Bs. As., Lexis Nexis-Abeledo Perrot,2003, p.55. 7 Seguimos, para el desarrollo de este punto, a Karl Larenz, en su Metodología de la Ciencia del Derecho. Madrid, Ariel, 1980, traducción de Marcelino Rodríguez Molinero, 2da.edición, p.32 y ss. 8 Savigny, Federico Carlos de, “Los fundamentos de la ciencia jurídica” (de “Sistema del Derecho Romano. 9 Ihering, Rudolf von. El espíritu del Derecho Romano, citado por Larenz Karl, op.cit. p. 47. 10 Gény, Francisco. Método de interpretación y fuentes en derecho privado positivo, citado por Borga, Ernesto E. Ciencia Jurídica o Jurisprudencia Técnica. Bs. As, Sociedad Bibliográfica Argentina, 1943, p.350. 11 Legaz Lacambra, Luis. Filosofía del Derecho. Barcelona, Bosch, 1953, p.133. 12 En el desarrollo de los puntos siguientes, seguimos a Pattaro, Enrico, op.cit. p. 257 y ss. 13 Alvarez Gardiol. Lecciones... op.cit., p. 148. 14 Bobbio, Norberto, en Scienza del diritto e analisi del linguaggio, citado por Pattaro, E. op.cit. p. 342. 15 Alchourrón C. y Bulygin, E. Introducción a la metodología de las ciencias jurídicas y sociales. Bs.As, Astrea, 2002, p.21. 16 Desarrollamos la posición de Kirchmann sobre la base de su célebre discurso: “El carácter acientífico de la llamada ciencia del derecho” incluido en La ciencia del Derecho. Op.cit. p. 246 y ss. 17 Ibidem, p.263. 18 Ibidem, p. 267. 19 Ibidem, p.280. 20 Publicado en “Doxa. Publicaciones periódicas Nro. 3. 1986” disponible en internet en: http:// descargas.cervantesvirtual.com/servlet/SirveObras/doxa/02406177433793617422202/cuaderno3/ numero3_19.pdf al 11 de octubre del 2005. 21 Sobre tales características se explaya Mario Bunge en Seudociencia e ideología. Madrid, Alianza, 1985. 22 Pattaro, Enrico, op.cit., p. 381. 23 Thibaut, Anton F. J. “Sobre la necesidad de un derecho civil para Alemania” citado por Alegría, Héctor en Algunas cuestiones de derecho concursal, Bs. As., Abaco de Rodolfo Depalma, 1975, p. 30. 24 Pound, Roscoe, “Las grandes tendencias del pensamiento jurídico”, citado por NINO, Carlos, op. cit., p. 341. 25 Podríamos citar innumerables artículos de doctrina relacionados con esta problemática, vayan como ejemplos: Dasso, Ariel A. “El APE, su naturaleza compleja...” en Derecho Concursal Argentino e Iberoamericano, Tomo 1, p. 291, Bs. As., Ad-Hoc,,2003; Alegria, Héctor “Facultades del juez e interpretación de las normas sobre acuerdo preventivo extrajudicial. (Ubicación sistemática y algunos efectos) “ Suplemento Especial Revista LL, “Acuerdo Preventivo extrajudicial”, noviembre 2004,. p.49; Heredia, Pablo “Delimitación del ámbito subjetivo del acuerdo preventivo extrajudicial a través de la indagación de su naturaleza” en Derecho concursal Argentino e Iberoamericano. Tomo 1, p. 177 y s. Bs. As. Ad-Hoc, 2003, etc. 26 Bunge, Mario. Seudociencia e ideología. Madrid, Alianza Universidad, 1985, pp.33-34. 27 Alvarez Gardiol, “Lecciones...”. op cit, p. 140. 28 Según da cuenta la revista Nº 85 (julio-agosto 2005) del Colegio Público de Abogados de la Capital Federal, p. 52, en el artículo titulado: “Digesto, un aporte a la seguridad jurídica”, que como aporte hemos incorporado en el anexo de este trabajo, dicho manual ha sido publicado en soporte papel por el Colegio Público de Abogados de la Capital en febrero de 2001, contando además con su INVENIO 14 (26) 2011: 13-38 37 Silvana Mabel García aparición en soporte informático. El Manual, fue redactado bajo la dirección del profesor Antonio Anselmo Martino, de la Universidad de Pisa, Italia. 29 En nuestro ámbito, dicha vigencia obligatoria en tanto no ocurra su expresa modificación ha sido establecida mediante el siguiente fallo pleno: Acuerdo Nro. 16, CCC de Rosario en Pleno, 13-2-98: “la interpretación que en lo sucesivo ha de darse al art. 28 de la ley 10.160 es: después de transcurridos cinco años de su dictado, el fallo pleno que no fuese expresamente modificado continúa siendo obligatorio” 30 Fix-Zamudio, Hétor. Metodología, docencia e investigación jurídicas. México, Povina, 1984, p. 16, citado por FLORES, Imer en “El porvenir de la ciencia jurídica. Reflexión sobre la ciencia y el derecho” en “La ciencia del derecho durante el siglo XX” autores varios, disponible en internet en “www.bibliojuridica.org/libros/libro.htm?l=114, al 11 de octubre del 2005. Bibliografía consultada Alegría, Héctor. Algunas cuestiones de derecho concursal. Bs. As., Depalma, 1975. Capítulo “El derecho como ciencia”. Alchourron,C. y Bulygin, E.. Introducción a la metodología de las ciencias jurídicas y sociales. Bs. As, Astrea, 2002. Alvarez Gardiol, Ariel. Lecciones de Epistemología. Algunas cuestiones espistemológicas de las Ciencias Jurídicas. Sta. Fe, UNL, 1986. Álvarez Gardiol, Ariel. Introducción a una teoría general del derecho. El método jurídico. Bs. As., Astrea, 1975. Atienza, Manuel, “Sobre la jurisprudencia como técnica social. Respuesta a R. Vernengo”. “DOXA. Publicaciones periódicas”. 1986, Nº. 3. Borga, Ernesto E. Ciencia Jurídica o Jurisprudencia Técnica. Bs. As, Sociedad Bibliográfica Argentina, 1943. Bunge, Mario. La ciencia, su método y su filosofía. Bs.As, Siglo XX, 1985. Calsamiglia, Albert. En defensa de Kelsen. Barcelona 1997, en cuadernillo de la Carrera de posgrado Doctorado en Derecho, correspondiente a la materia Teoría General del Derecho y metodología de investigación en las ciencias jurídicas” UNR, Facultad de Derecho, 2005. Cátedras, A y E de I.a D. y C. de F. del Panorama jusfilosófico, “La concepción del derecho en las corrientes de la filosofía jurídica”, Boletín Mexicano de Derecho Comparado, nueva serie, año XXX, Nº. 90, set/dic 1997, en cuadernillo de la Carrera de posgrado Doctorado en Derecho, correspondiente a la materia “Teoría General del Derecho y metodología de investigación en las ciencias jurídicas” UNR, Facultad de Derecho, 2005. Ciuro Caldani, Miguel Ángel. “Lecciones de teoría general del Derecho”, cuadernillo de la Carrera de Posgrado Doctorado en Derecho, correspondiente a la materia Teoría General del Derecho y Metodología de la Investigación en las Ciencias Jurídicas, UNR, Facultad de Derecho, año 2005. Dabove, Ma. Isolina en “El derecho como complejidad de saberes diversos” en Ideas y Derecho, Rubinzal Culzoni, Año III, Nro. 3, 2003. Larenz, Kart. Metodología de la Ciencia del Derecho. Madrid, Ariel, 1980. Traducción de Marcelino Rodríguez Molinero, 2ª ed. Legaz Lacambra, Luis. Filosofía del Derecho. Barcelona, Bosch, 1953. Nino, Carlos. Introducción al análisis del Derecho. Bs. As, Astrea, 2005. 2ª Edición ampliada y revisada, 13ra. reimpresión editorial Pattaro, Enrico. Filosofía del Derecho. Derecho. Ciencia jurídica. Madrid, Reuss S. A, 1980. Traducción de José Iturmendi Morales Savigny, Kirchmann, Zitelmann, Kantorowicz. La Ciencia del Derecho. Bs. As, Losada, 1949. Traducción de Werner Goldschmidt. Torre, Abelardo. Introducción al derecho. Bs.As., Nexis-Abeledo Perrot, 2003. 14ª Edición. 38 INVENIO 14 (26) 2011: 13-38 CIRCULARIDAD, ARBITRARIEDAD Y REGRESO INFINITO DE RAZONES Tito Flores*1 RESUMEN: Este trabajo presenta algunos puntos esenciales del infinitismo. Según Peter Klein, el único epistemólogo contemporáneo que ha defendido esta teoría, el infinitismo puede ser definido por la idea de que las razones que justifican una opinión deben ser infinitas en número y no-repetidas. El objetivo de este trabajo es clarificar el infinitismo y demostrar que esa teoría es la única capaz de evitar adecuadamente el escepticismo. Palabras clave: justificación epistémica - infinitismo - escepticismo - fundacionalismo Abstract: Circularity, Arbitrariness and the Infinite Regress of Reason This essay presents some key elements of the epistemological theory called “Infinitism.” According to Peter Klein, the only contemporary epistemologist who has defended Infinitism, this theory can be defined by its claim that the reasons that purportedly justify a belief must be infinite in number and non-repeating. The porpose of this essay is to clarify what exactly Infinitism means and as well as demonstrate that Infinitism is the only theory capable of avoiding unwelcome skeptical results. Key words: epistemic justification - infinitism - skepticism - foundationalism Introducción En este artículo se presentan los elementos esenciales de una teoría epistemológica históricamente subestimada pero que en años recientes ha recibido gran atención de la comunidad filosófica internacional1. Esa teoría, conocida como “infinitismo”, ha sido por mucho tiempo considerada prima facie falsa y su refutación obvia. Desde la antigüedad se imaginaba que mentes finitas no podrían poseer un número infinito de creencias2 y que una regresión ad infinitum en el proceso de justificación de una opinión terminaría, inevitablemente, en la suspensión del juicio3. Tales objeciones, como veremos, no revelan más que un entendimiento precario y equivocado sobre el infinitismo. El infinitismo es la teoría epistemológica según la cual la justificación epistémica de una opinión exige la disponibilidad de un conjunto de razones que debe ser infinito en número y no-repetido. La idea central del infinitismo es que una opinión será epistémicamente justificada si las razones que la sostienen no son repetidas y que no puede haber un punto de parada en el proceso de justificación que, una vez desafiado, no exija razones adicionales. El infinitismo por lo tanto supone la verdad de los dos siguientes principios: Principio de Evitar la Circularidad (PEC): Para todo X, si una persona, S, tiene jus- * Tito Flores es Doctor en Filosofía por la PUC-RS. Actualmente es becario posdoctoral del CONICET, con sede de trabajo en UCEL. E-mail: [email protected]. INVENIO 14 (26) 2011: 39-45 39 Tito Flores tificación para X, entonces, para todo Y, si Y es un ancestral evidencial de X para S, entonces X no es un ancestral evidencial para Y4. Principio de Evitar la Arbitrariedad (PEA): Para todo X, si una persona, S, tiene justificación para X, entonces hay alguna razón, R, disponible para S para X; y hay una razón, R1, disponible para S para R, etc., y no hay una última razón en esa serie5. En primer lugar, es preciso tener en cuenta que “es el recurso intuitivo a esos dos principios lo que constituye la mejor razón para pensar que si una creencia es epistémicamente justificada, entonces la estructura de razones debe ser infinita y no-repetida”6; y, en segundo, que refutar el infinitismo no es más que mostrar que por lo menos uno de esos principios es falso. El PEC parece obviamente verdadero, y su defensa innecesaria, una vez que simplemente determina que la circularidad en el raciocinio está epistémicamente desautorizada. La idea es que si una razón, R, es parte de la cadena de razones para la justificación de una proposición, P, entonces P no puede ser parte de la cadena de justificación de R. Por otro lado, el PEA implica que las razones solamente son necesarias para la justificación de una opinión. El PEA implica, por lo tanto, que toda la teoría de la justificación epistémica tiene que ser, en un cierto sentido, internalista7. Más que eso, el PEA implica que la cadena de razones no puede ser cerrada con una razón para la cual ninguna otra razón esté disponible. Si el PEA es verdadero, entonces cualquier forma de fundacionalismo debe ser abandonada. Disponibilidad La primera aclaración sobre el PEA dice respecto a la noción de disponibilidad: ¿qué quiere decir exactamente la expresión “una razón ser disponible para S”?8 Según Klein, hay dos sentidos a partir de los cuales una razón puede estar “disponible” para un determinado sujeto: “disponibilidad objetiva” y “disponibilidad subjetiva”. Una razón está subjetivamente disponible para S si S es capaz de considerar esa proposición, o sea si S es capaz de formar una creencia que tiene como su contenido esa proposición. La noción de disponibilidad subjetiva sirve para destacar que S necesita, de alguna manera, disponer de las proposiciones que eventualmente van a servir de razones para sus creencias. Ahora, que una proposición X esté subjetivamente disponible par S es una condición necesaria, pero no suficiente, para que X sea una razón para S. Es igualmente necesario que X esté objetivamente disponible para S. Por medio del concepto de disponibilidad objetiva se pretende mostrar que no es cualquier proposición subjetivamente disponible para S la que puede ser una (buena) razón para S sostener sus opiniones. Existen diversos abordajes sobre lo que hace de una proposición una razón para creer y el infinitismo no está específicamente comprometido con ningún abordaje en particular. Así como en relación a la disponibilidad subjetiva, el infinitismo es compatible con las teorías que definen las características de la disponibilidad objetiva. Si, por ejemplo, se define que R es una razón para creer que P si R torna P probable en un grado determinado, el Infinitismo podría aceptar e incorporar esa descripción de disponibilidad objetiva9. Si, por lo contrario, se define que una razón R es objetivamente disponible para S si alguna persona intelectualmente virtuosa propusiese R como una razón para creer que P, el infinitismo podría igualmente aceptar e incorporar esa descripción10. Cualquiera que sea la teoría escogida, el infinitismo 40 INVENIO 14 (26) 2011: 39-45 Circularidad, arbitrariedad y regreso infinito de razones puede entrar en acuerdo con ella. No hay nada que estructuralmente impida al infinitismo aceptar la teoría sobre la disponibilidad objetiva que más adecuada parezca. Esos son los esclarecimientos iniciales sobre los dos principios que forman la teoría infinitista. En resumen, el infinitismo está comprometido con dos tesis: 1) algo, para que pueda ser una razón para S creer que P, debe estar dentro del alcance mental o cognitivo de S y 2) ni todo que está subjetivamente disponible para S será una razón para S creer que P: es necesario que la razón R esté objetivamente disponible para S, o sea, que R sea una razón apropiada para S creer que P. Justificación proposicional y justificación doxástica El infinitismo, como cualquier teoría de la justificación epistémica, debe ser capaz de demarcar la diferencia entre el caso donde el sujeto S tiene justificación para creer y el caso donde el sujeto está justificado al creer. Estar justificado al creer depende de tener justificación para creer. El caso de tener justificación para creer es llamado de justificación proposicional, donde la proposición P es justificada para el individuo. El caso del individuo de estar justificado al creer que una proposición es verdadera es llamado de justificación doxástica, donde la creencia o opinión del individuo es justificada11. El PEC y el PEA son principios que regulan las condiciones necesarias para que el sujeto pueda tener justificación para creer. Los dos principios son, por lo tanto, principios de justificación proposicional: dicen como es posible una proposición ser justificada para S. La distinción entre tener justificación y estar justificado (entre justificación proposicional y doxástica) permite el análisis de los casos en que (a) el sujeto no forma la creencia, aunque tenga razones disponibles para tenerla; (b) el sujeto no tiene conciencia de que posee justificación para creer una determinada proposición y (c) el sujeto no usa la justificación que posee para sostener su opinión. Según el infinitismo, para que exista justificación debe haber un conjunto de proposiciones que es infinito y no-repetido. Solo así puede S tener justificación para creer. La justificación epistémica emerge cuando, y solamente cuando, hay un conjunto infinito y norepetido de proposiciones subjetiva y objetivamente disponibles para S. Aquí se puede percibir una importante relación entre infinitismo y coherentismo: para esas teorías no es la existencia de un tipo especial de proposición el que genera la justificación epistémica – justificación que podría, a partir de una generación supuestamente autónoma, ser trasferida de una a otra. Por lo contrario, es la existencia de un determinado conjunto de proposiciones el que hace que la justificación epistémica surja. Así, para el infinitismo y el coherentismo, la justificación nace de un conjunto determinado de proposiciones, y no, como en el caso del fundacionalismo, de algunas proposiciones esencialmente distintas de las demás. Para el infinitismo, una proposición no es justificada en virtud de ser justificada otra proposición, de modo que la propiedad de la justificación es transferida de una a otra (y así seríamos llevados finalmente a aquellas proposiciones que detienen la fuente de la justificación epistémica, poseedoras de las células autónomas de justificación). De acuerdo con el infinitismo, no existen proposiciones de ese tipo. La fuente de la justificación es el conjunto de proposiciones, un conjunto cuyas características son definidas por el PEC y el PEA. Dicho de otra manera, es necesario que el PEC y el PEA sean verdaderos para que S pueda tener justificación para creer. No obstante, aquello que hace de una proposición una razón para creer no es simplemente la existencia de tal conjunto. O sea, lo que hace de una INVENIO 14 (26) 2011: 39-45 41 Tito Flores proposición una razón para creer no es solamente la existencia de la razón R1, que es razón para creer R, etc., pero sí las condiciones de disponibilidad. Ese detalle es importante una vez que se podría criticar el infinitismo si él sugiriese que la simple existencia de una cadena infinita de proposiciones fuese lo que tornara una proposición cualquiera en una (buena) razón para creer. Pero eso sería confundir lo que hace posible que S tenga justificación con lo que hace que una proposición sea una razón para creer. Lo que torna posible la justificación epistémica es la existencia de un conjunto infinito y no-repetido de proposiciones, y lo que hace que una proposición sea un razón para creer es la disponibilidad subjetiva y objetiva de la proposición para el individuo. El infinitismo no exige que el individuo tenga que creer en un conjunto infinito de proposiciones. La exigencia es apenas que debe haber un conjunto infinito de proposiciones que puedan estar subjetiva y objetivamente disponibles al sujeto, de modo que él pueda formar una opinión en una de esas proposiciones en las circunstancias apropiadas. Según Klein: supongamos que tenemos un conjunto muy limitado de conceptos en nuestro vocabulario: ‘x es F’, ‘rojo’, y ‘esto’. Nosotros podemos creer de un objeto: ‘esto es rojo’. Imaginemos ahora que hay un número infinito de objetos rojos. Nosotros podríamos creer de cada uno de esos objetos ‘él es rojo’. Esas serían creencias diferentes porque las condiciones de verdad de las proposiciones son distintas. ¿Existe un número infinito de objetos rojos? Yo no sé. Pero eso no es necesario para el argumento. Todo lo que es necesario es mostrar que una mente finita puede tener acceso a un número infinito de creencias. Y el argumento muestra eso12. No existe una excesiva complejidad que pueda ser atribuida a las exigencias infinitistas. La objeción de las mentes finitas, que muchos acreditaban ser la mejor contra el infinitismo13, es resultado de mala comprensión de lo que propone la teoría. La idea de que la justificación es algo que se trasmite de una proposición a otra puede traer consigo una cierta concepción de justificación, justamente la concepción que el infinitismo busca rehusar. Suponer que la justificación es algo que se trasmite de X a Y impone la necesidad de un elemento que posea justificación sin que nada del mismo tipo haya trasmitido la justificación a ese elemento. Ese es un esquema adecuado al fundacionalismo: P es justificada autónomamente y, entonces, trasmite la justificación a otras proposiciones. Lo más adecuado es aceptar que la justificación epistémica sea una relación entre proposiciones y que un determinado conjunto de proposiciones genera justificación. Según el infinitismo, el rasgo fundamental del conjunto es que sus elementos deben ser infinitos y no-repetidos. Y la razón para aceptar que el conjunto debe contener infinitas y no repetidas proposiciones es que el PEC y el PEA son verdaderos. Delante de la pregunta sobre la justificación de la última proposición de la cadena, la respuesta infinitista sería: no hay una última proposición en la cadena, siempre habrá una proposición no-repetida para sostener la proposición previa. La réplica podría ser insistir en que si no hay una proposición última, un punto final fijo, es imposible entender cómo las proposiciones se pueden justificar. La pregunta entonces sería: ¿al final, de donde viene la justificación? 14 Aquí hay dos posibilidades. Una sería decir que indagar de dónde viene la justificación es equivalente a preguntar por qué hay justificación. La respuesta infinitista podría ser simplemente que si hay justificación, esa es la forma como las proposiciones se justifican. Ese tipo de respuesta, aunque no explique de donde viene la justificación, no implica que no haya justificación. 42 INVENIO 14 (26) 2011: 39-45 Circularidad, arbitrariedad y regreso infinito de razones La otra alternativa, que nos parece la más apropiada, está basada en la idea de que solamente existe una relación de justificación entre proposiciones por haber un número infinito y no-repetido de proposiciones disponibles. La posibilidad de que una proposición pueda ser epistémicamente sostenida por otra es garantizada justamente por la existencia de un número infinito de proposiciones. Es en ese sentido que la justificación emerge del conjunto de proposiciones. Justificación doxástica El proceso de justificación está relacionado a la justificación doxástica. Si hay un modo de resolver el proceso, ese modo tiene que ver con la posibilidad de un individuo de poseer opiniones justificadas. Que haya justificación proposicional es una condición necesaria para que las opiniones del individuo sean justificadas, pero el proceso de justificación es, por definición, el proceso de justificación de las creencias del individuo. Hay dos cuestiones importantes relacionadas a la justificación doxástica: 1) como el infinitismo realiza la distinción entre S tener justificación para creer que P y S estar justificado opinando que P, y 2) cual es la respuesta infinitista para el proceso de justificación. El infinitismo, como cualquier teoría epistemológica, debe imponer restricciones para que alguien esté justificado al opinar y esa restricción está basada en la idea de que una opinión está epistémicamente justificada si la razón que la justifica ejerce un apropiado rol causal en el sostenimiento de la opinión. Así, más allá de haber justificación para creer que una proposición sea verdadera, es necesario que el individuo use esa misma razón para sostener la opinión en cuestión. Dicho de otra forma, la razón R debe ejercer una función causal en el sostenimiento de la creencia de que P, si S está justificado al creer que P. Según Klein: S tiene justificación para una proposición, P, solo si hay una razón, R1, que es subjetiva y objetivamente disponible para S; por otro lado, la creencia de S de que P está justificada solo si R1 está ejerciendo un rol causal en el sostenimiento de la creencia de S de que P. Pero, ¿qué se puede decir de la creencia en R1? ¿Ella tiene que estar justificada para la creencia de que P esté justificada? No. Debe haber una razón, R2, para R1, que es subjetiva y objetivamente disponible para S, si S tiene justificación para P, pero la creencia en R2 no tiene que estar justificada para la creencia de que P esté justificada. Es suficiente la creencia de que P sea causalmente sostenida por R1 para que la creencia de que P sea justificada15. Lo que hay de más interesante aquí es la condición para la adquisición de creencia justificada por parte de S. El esclarecimiento de las condiciones infinitistas para la adquisición de creencia justificada es importante en la medida en que, entre otras cosas, eso tendrá implicaciones directas en el análisis del proceso de justificación. La exigencia de disponibilidad implica que aquello que justifica S al creer que P – la razón R – sea una creencia de S, de modo que S está justificado al creer que P si S posee otra creencia de que R. Un desdoblamiento del infinitismo es que, para que S tenga una creencia justificada de que P, se exige que S crea también en aquello que lo justifica al creer que P. Para no incurrir en arbitrariedad, si S cree que R y R es la razón de S para creer que P, es necesario que S tenga justificación para creer que R. El punto fundamental es que S no necesita estar justificado al creer que R para que esté justificado al creer que P. Esa exigencia sería equivalente a determinar que para que S esté justificado al creer que P, S debiese tener infinitas creencias justificadas. Y eso, obviamente, es bastante diferente de decir que S debe tener infinitas razones disponibles para creer que P. Como S tiene justificación para creer que R, entonces él puede llegar INVENIO 14 (26) 2011: 39-45 43 Tito Flores a estar justificado al creer que R, una vez que las condiciones para obtener creencia justificada estén cumplidas. El caso es que S puede, pero no necesita, tener la creencia justificada de que R para tener creencia justificada de que P. Dicho de forma más simple: S debe tener justificación proposicional, y no justificación doxástica, para creer en las razones que utiliza. En un aspecto importante, la justificación de las opiniones de S sigue un camino distinto de la justificación proposicional. Es siempre en virtud de haber otra opinión que el individuo está justificado al creer que P – que el individuo tiene justificación doxástica. Eso porque lo que justifica el individuo al creer que P debe ser otra creencia del individuo. Diferentemente del caso de la justificación proposicional, a la justificación de las opiniones de S – la justificación doxástica – se agrega una dependencia de opiniones: S debe tener justificación para creer que P si S tiene creencia justificada de que P, pero S necesita por lo menos otra opinión para tener opinión justificada de que P. Sin embargo, el tipo de dependencia de creencias es preciso: S debe – entre otras cosas – tener creencia de que R, si R es lo que justifica S al creer que P, pero eso no implica que (a) la creencia de que R deba estar justificada para S, y que (b) S deba tener creencia de que R1 – justificada o no – para estar justificado al creer que P. No hay, en esa perspectiva, la necesidad de una serie infinita de creencias para que el individuo esté justificado al creer en una proposición cualquiera. La creencia justificada que P depende de una serie infinita de razones (porque si S tiene justificación para creer que P entonces hay un conjunto infinito y no-repetido de razones disponibles para S) pero no una serie infinita de creencias, justificadas o no, de S. Es por eso que la diferencia básica entre infinitismo, coherentismo y fundacionalismo se establece relativamente a las condiciones en las cuales S puede tener justificación y no a relativamente a las condiciones para la adquisición de creencia justificada – o sea, la diferencia entre esas teorías se define en términos de justificación proposicional y no de justificación doxástica. Es fundamental percibir que las proposiciones se tornan justificadas para un individuo de una manera y las creencias en esas proposiciones de otra. Hay una relación de dependencia entre tener justificación y estar justificado, una vez que la ausencia de justificación proposicional implica ausencia de justificación doxástica. La existencia de la justificación epistémica es asegurada por la fuerza de un determinado conjunto de proposiciones. Sin embargo, la exigencia de infinitud y no-repetición es relativa apenas a la justificación proposicional. Lo que el individuo necesita para tener una opinión justificada de que P es que la razón que lo justifica sea el contenido de una (otra) opinión del individuo y que él utilice esa razón en el sostenimiento de la creencia de que P. El detalle más interesante dice respecto al esclarecimiento de que una opinión epistémicamente justificada depende de otra opinión, que es una opinión para la cual es necesario que el individuo tenga justificación, y no una opinión que esté justificada para él. De ese modo, el infinitismo no afirma ni implica que sea necesario tener o sostener infinitas opiniones. Así, la justificación doxástica depende de un conjunto de proposiciones cuyas características normativas son determinadas por el PEA y el PEC. La existencia de una opinión justificada exige la presencia de otra opinión, una para la cual el individuo tenga justificación. El hecho de que la estructura de la justificación doxástica no sea idéntica a la estructura de la justificación proposicional aclara el punto fundamental de infinitismo, tal como nosotros lo entendemos: la infinitud del infinitismo está relacionada apenas al conjunto de razones disponibles a un individuo, y no a sus opiniones. Recibido. 29/12/10. Aceptado: 24/02/11 44 INVENIO 14 (26) 2011: 39-45 Circularidad, arbitrariedad y regreso infinito de razones notas BIBLIOGRÁFICAS 1 Algunos ejemplos recientes: Turri, John. An Infinitist Account of Doxastic Justification, inédito, Aikin, Scott F, Meta-epistemology and the Varieties of Epistemic Infinitism, Synthese, 163, 2008. Cling, Andrew. The Epistemic Regress Problem, Philosophical Studies, 140, 200. Peijnenburg, Jeanne, Infinitism Regained, Mind, Vol. 116. 463, 2007. Bergman, Michael Is Klein an infinitist about doxastic justification? Philosophical Studies 134, 19 – 24., 2007, Klein, Peter. Human Knowledge and the Infinite Progress of Reasoning, Philosophical Studies, 134. 1-17, 2005. Sosa, Ernest. Two False Dichotomies: Foundationalism/Coherentism and Internalism/Externalism. Inédito. 2 En el contexto de la epistemología contemporánea, el término “creencia” es sinónimo de “opinión” y no posee carácter religioso de cualquier tipo. Los conceptos de verdad, falsedad y, lo que es más importante aquí, justificación epistémica se aplican fundamentalmente a las opiniones o creencias. 3 El infinitismo, aunque sin tener una articulación precisa, ya era refutado más o menos en esos términos por Aristóteles y Sexto Empírico. 4 Klein, Peter. Human Knowledge and the Infinite Regress of Reasons. Philosophical Perspectives, 13, J. Tomberlin (ed.), 1999, p. 298. 5 Klein, Peter. When Infinite Regresses Are Not Vicious Philosophy and Phenomenologial Research: 720-731, 2003. p. 728. 6 Klein, Peter. Human Knowledge and the Infinite Regress of Reasons. Philosophical Perspectives, 13, J. Tomberlin (ed.), 1999. p. 299. 7 En epistemología, una teoría es internalista, si y solamente si, ella exige que todos los factores necesarios para que una opinión sea epistémicamente justificada para un individuo dado, sean cognitivamente accesibles a ese individuo, internos a su propia perspectiva cognitiva. Cfr. Feldman, Richard. Epistemology. New Jersey: Prentice Hall, 2003 y Korblith, Hilary (Ed). Epistemology: Internalism and Externalism. Oxford: Blackwell, 2001. 8 “S” puede ser sustituido por un nombre propio cualquiera. Tiene la función de representar al individuo que cree u opina. “P” ocupa el lugar de una proposición. Así, la expresión “S cree que P” debe ser entendida como “un determinada individuo, Sergio, cree que la proposición descriptiva ‘llueve afuera’, es verdadera”. En general, se supone que el contenido de las opiniones o creencias de un individuo es formado por proposiciones. 9 Cfr. Fumerton, Richard. Metaepistemology and Skepticism. Maryland: Rowman and Littlefield, 1995. 10 Cfr. Foley, Richard. Working without a Net, Oxford University Press, 1993. 11 Algunos de los mejores ejemplos de la necesidad de distinción entre tener justificación y estar justificado pueden ser encontrados en Leher, Keith. Theory of Knowledge. Boulder: Westview Press, 2000, Williams, Michel. Unnatural doubts. Oxford: Blackwell, 1991 y Chisholm, Roderick . Theory of Knowledge. New Jersey: Prentice Hall, 1989. 12 Human Knowledge and the Infinite Progress of Reasoning, Philosophical Studies, vol. 134, 2005, p. 5. 13 Esa es la crítica más común contra la posibilidad de una teoría infinitista. A ese respeto ver, por ejemplo, Post, John. Infinite Regress of Justification and Explanation. Philosophical Studies 38: 31-52, 1980 y Black, Oliver. Infinite Regress of Justification. International Philosophical Quarterly 28: 421-37, 1988. 14 Cfr. Gillet, Carl. Infinitism Redux? A Response to Klein. Philosophy and Phenomenological Research 3: 711-19, 2003. 15 Human Knowledge and the Infinite Regress of Reasons. Philosophical Perspectives, 13, J. Tomberlin (ed.), 1999, p. 135. INVENIO 14 (26) 2011: 39-45 45 46 UNA MIRADA ARGENTINA A LA ECONOMÍA BRASILEÑA Los gobiernos de Cardoso y Lula Diego N. Marcos - Gabriel D. Frontons*1 RESUMEN: El artículo analiza la evolución de la economía brasileña a partir de sus principales rasgos característicos, problemáticas, políticas económicas y desempeño. En la primera sección, luego de una breve reseña de lo acontecido entre la segunda post guerra y la década de 1970, se resaltan las dificultades enfrentadas durante los años ochenta. Endeudamiento, inflación y reducido crecimiento económico contextualizan aquellos años y los comienzos de la década de 1990. En la segunda parte tomando como eje central el Plan Real implementado en 1993 se reseñan los principales sucesos económicos de los mandatos de Fernando Henrique Cardoso, entre ellos, el control de la inflación y las crisis externas. Las políticas económicas aplicadas durante las gestiones de Luiz Inácio Lula da Silva, sus primeros obstáculos y sus resultados son analizados en la tercera sección. Para finalizar se señalan algunas perspectivas de la economía brasileña. Palabras clave: economía brasileña - déficit fiscal - deuda - inflación - políticas económicas - tasa de interés - tipo de cambio - inversión extranjera directa - crecimiento económico. ABSTRACT: An Argentine look to Brazilian economy: the governments of Cardoso and Lula The paper analyzes the evolution of Brazilian economy through its main distinctive features, issues, economic policies and performance. The first section provides a short review of events since the end of WWII up to the 1970s and highlights the problems Brazil faced during the 1980s. Indebtedness, inflation and a scarce economic growth characterized those years as well as the beginning of the 1990s. The second part focuses on the Real Plan implemented in 1993 and describes the main economic events under Fernando Henrique Cardoso’s office, including inflation control and foreign crisis management. The third section deals with the economic policies applied during the government of Luiz Inácio Lula da Silva, the first obstacles it had to surmount and the results achieved. The final section provides some points of view on Brazilian economy. Key words: Brazilian economy - fiscal deficit - debt - inflation - economic policies - interest rate - currency exchange - direct foreign investment - economic growth Introducción Desde 1994 y hasta la actualidad Brasil atraviesa con éxito un proceso de dieciséis años de políticas económicas homogéneas -aunque con matices particulares- y sustentables. Este período comprende los dos mandatos consecutivos del socialdemócrata y econo- * Diego N. Marcos es Licenciado en Economía egresado de la Universidad Nacional de Rosario y Director de la Carrera Licenciatura en Economía en UCEL. E-mail: [email protected] Gabriel D. Frontons es Licenciado en Economía egresado de la Universidad Nacional de Rosario y profesor e investigador en UCEL. E-mail: [email protected] El presente artículo es parte del proyecto de investigación “Argentina y Brasil: sus relaciones comerciales y posibilidades de integración con énfasis en la Provincia de Santa Fe y el Estado de Minas Gerais”, actualmente en desarrollo en UCEL. INVENIO 14 (26) 2011: 47-71 47 Diego N. Marcos - Gabriel D. Frontons mista Fernando Enrique Cardozo -fundador del Partido de la Social Democracia Brasileña (PSDB)-, y del metalúrgico y sindicalista Luiz Inácio Lula da Silva -fundador del Partido de los Trabajadores (PT)-. Su tasa de crecimiento económico anual de largo plazo orilla el 5%, mientras que veinte años atrás era solo del 2,5%. El PIB brasileño ha superado recientemente al de España hecho que le permite posicionarse como la octava economía del mundo. Un territorio de 8,5 millones de kilómetros cuadrados de valiosos recursos naturales habitados por más de 194 millones de brasileños, que producen anualmente 1,6 billones de dólares, posicionan a Brasil -entre otros factores- como líder indiscutible de América Latina. Hacia el año 2025 Brasil aspira a alcanzar el quinto lugar en el ranking mundial de naciones cuando su PBI supere los 5 billones de dólares. La magnitud, sus logros y el carácter de socio estratégico de la Argentina, vuelven relevante el estudio del pasado reciente, actualidad y perspectivas de la economía brasileña. I - Breve reseña de las décadas de 1960, ’70 y ’80. Tras la Segunda Guerra Mundial la economía brasileña atraviesa etapas bien definidas y diferenciadas. Entre fines de la década de los cuarenta y 1970, sobre la base de una estrategia de industrialización sustitutiva de importaciones con financiación de recursos estatales y externos, el PIB de Brasil crece a un ritmo acelerado superior al 7% anual. Durante los años setenta, cuando la economía mundial atraviesa un profundo proceso de ajuste depresivo a causa de shocks externos (crisis del petróleo, flexibilización cambiaria y alzas de tasas de interés), Brasil opta por una estrategia desarrollista. En lugar de ajustar el patrón de crecimiento a la nueva situación de inestabilidad financiera mundial, se profundiza el proceso de industrialización basado en recursos financieras externos y públicos. Entre 1947 y 1980 la tasa anual de crecimiento económico alcanza el 7,4%, siendo la inflación un aspecto no problemático, salvo durante unos pocos años en la primera parte de la década de ‘60. La apertura financiera de los años setenta propicia un incremento extraordinario de la deuda externa especialmente entre los años 1978 y 1982 durante los cuales se producen fuertes aumentos en las tasas de interés internacionales. El excesivo nivel de gasto público, y de la deuda interna y externa se debe a que el Estado asume, ante la falta de un sistema financiero desarrollado y funcional, el papel de garante del crédito de largo plazo. Con los sucesivos shocks exógenos de finales de los años setenta y principios de los ochenta culmina el patrón de financiación que sostenía el crecimiento de la economía brasileña. El Estado sufre un proceso de creciente debilitamiento financiero asociado a la gran acumulación de pasivos tanto en moneda nacional como en dólares. Entre 1970 y los primeros años de la década de 1980, la deuda externa de Brasil aumenta de 6.000 a 65.000 millones de dólares. En la década de 1980 la frágil situación de las economías latinoamericanas afecta a Brasil que alcanza una expansión de su PIB de solo el 1,7% promedio anual, nivel muy inferior al registrado en las tres décadas anteriores. La crisis del modelo de desarrollo basado en la sustitución de importaciones, junto a la crisis de la deuda externa, el fuerte incremento del déficit público, la espiral inflacionista, y la crisis del sistema financiero internacional (incrementos de los tipos de interés, disminución de la liquidez internacional y reducción de los flujos de capitales extranjeros), llevaron a la economía brasileña a un cierto estancamiento. A partir de la denominada crisis de la deuda de 1982, y a posteriori del default de México, Brasil sufre un severo corte en el suministro de recursos financieros que trae fuertes desequilibrios en sus cuentas públicas. Un rasgo común de esta década de crisis es la alta 48 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña tasa de inflación. Los fuertes déficit fiscales y los mecanismos de propagación de precios, es decir, elementos de indexación de precios, salarios e impuestos, son señalados como factores explicativos. Hacia fines de los años ‘80 y comienzos de los ‘90, el país vive un proceso de estanflación, con aceleración de la inflación hasta niveles cercanos a la hiperinflación y pobres registros de crecimiento económico. La economía padece una espiral de inestabilidad y depresión, con grandes oscilaciones en sus principales variables, que se manifiesta en ciclos breves, como por ejemplo, la crisis de 1981-83, la recuperación de 1984-86, y una nueva caída entre los años 1987 y 1989. El quiebre del patrón de desarrollo basado en la deuda pública, y los shocks exógenos constituyen elementos centrales de la evolución macroeconómica de los años ochenta y comienzos de los noventa. Los coletazos externos se precipitan en la economía local a través de ciertos mecanismos de transmisión, que acentuados por ineficaces políticas de estabilización macroeconómica, llevan la tasa de inflación a niveles superiores al 200% anual. Brasil implementa varios planes de estabilización de precios de corte heterodoxo que tuvieron como propósito reducir la escalada de precios, y que se materializaron a través de políticas de rentas y controles de precios. En 1986 el Plan Cruzado, puesto en marcha por el gobierno de José Sarney (marzo 1985 a marzo de 1990), es uno de los programas que con un éxito acotado a unos pocos meses culmina con una aceleración generalizada de los precios. Otros tres fallidos intentos de estabilización, el Plan Bresser de 1987, el Plan Verano de 1989, y durante la gestión de Fernando Collor de Mello (marzo de 1990 a octubre de 1992), el Plan Collor -que propuso imprimir cambios profundos en la sociedad pero llegó a incautar recursos en el sistema bancario-, se fueron sucediendo de la mano de severos trastornos monetarios y cambiarios y crecientes tasas de inflación. Entre 1990 y 1992 Brasil enfrenta un proceso de estanflación con una reducción de PIB por habitante del 10%, junto a una persistente y sostenida suba de precios. II - El Plan Real En 1993 durante el mandato del presidente Itamar Franco (octubre de 1992-diciembre de 1995), pese a la importante recuperación de la economía,1 y el retorno de crecientes flujos de IED, el problema inflacionario presenta situaciones traumáticas (2.470% anual) señalando las prioridades en política económica. Bajo la conducción de Fernando Henrique Cardoso como Ministro de Hacienda, y con el objetivo de combatir la hiperinflación a partir de un fuerte ajuste fiscal, se pone en marcha a partir de junio de 1993 la primera etapa del Plan Real. El nuevo programa además de su componente antiinflacionario, impulsa reformas estructurales en el funcionamiento de la economía, semejantes -aunque con algunos años de rezagos- a las ensayadas por otros países de la región durante la década de 1990. Una mayor apertura de la economía -tanto por vía del canal comercial como financiero- y el control de la tasa de cambio son elementos centrales en la lucha contra la inflación. En un primer momento se implementa el denominado Programa de Acción Inmediata que tiene por objeto alcanzar el equilibrio presupuestario, factor considerado clave para domar la inflación. Se aplican algunas medidas de ajuste y de mayor control del gasto público, se fortalecen los ingresos fiscales, se producen cambios en el funcionamiento de las entidades bancarias públicas y se privatizan algunas empresas. La rápida reactivación del consumo -gracias al reestablecimiento del crédito-, y de la inversión -especialmente destinada a la incorporación de nuevas tecnologías-, la apreciación de la moneda nacional (Gráfico 3), el cambio de precios relativos a favor de los servicios, INVENIO 14 (26) 2011: 47-71 49 Diego N. Marcos - Gabriel D. Frontons cuentas fiscales menos desequilibradas, el ingreso de capitales foráneos -y su dependencia-, y el mayor crecimiento de las importaciones respecto de las exportaciones, constituyen elementos característicos de los primeros años del plan. También se produjo una importante reestructuración del sistema bancario pero a costa de cuantiosos recursos estatales. En la segunda etapa del plan nace el ‘real’ como moneda nacional reemplazando al anterior cruzeiro real en la paridad 2.750 igual a 1. El nuevo signo monetario es ahora respaldado por reservas internacionales, restringiéndose además las posibilidades de indexar precios según la inflación pasada. En relación al dólar americano el real se fija en una paridad 1 a 1, preservándose el Ministerio de Hacienda la posibilidad de alterar a futuro tal relación. Este conjunto de políticas surten un rápido efecto sobre el proceso inflacionario. El segundo semestre de 1994 exhibe una tasa de inflación mensual cercana al 3%, sustancialmente inferior al 40% de la primera mitad del año. En 1995 la inflación alcanza en promedio el 1,7% mensual, continuando luego su marcha descendente hasta principios de 1999. Gráfico 1: Evolución de la tasa de variación anual media del índice de precios al consumidor (diciembre a diciembre, en porcentaje) Fuente: IBGE El período 1994-1995 presenta resultados claramente positivos que se manifiestan en la reducción de la tasa de inflación a partir del segundo semestre de 1994, y en el elevado crecimiento del PIB (Gráfico 2). El sustento de ello es el alto nivel de inversión en relación al producto (22%), la menor proporción de población en situación de pobreza, y el fuerte respaldo político al primer mandato de Cardoso. El desempleo alcanza un piso de 4,6% en 1995, pero crece desde entonces durante el resto de la década, mientras que los ingresos reales de los ocupados mejoran incluso hasta 1997. Gráfico 2: Evolución de la tasa de variación del PIB Fuente: CEPAL 50 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña En el frente externo, la reestructuración de la deuda en 1994 a través del Plan Brady, más los ingresos provenientes de privatizaciones de empresas públicas y otras reformas, impulsan el ingreso de una oleada de capitales extranjeros que permiten acrecentar las reservas internacionales hasta 1996. De esta manera, los alivios financieros alcanzados permiten sortear con cierta holgura los impactos negativos del efecto tequila. Desde el segundo semestre de 1994, en un contexto de apertura de la economía, se produce una reducción de los precios relativos de los bienes (o transables en general) respecto a los servicios (o no transables), y una apreciación nominal de la moneda nacional. Hasta fines de 1996 se opta por un ritmo de devaluación mensual inferior a la inflación, excepto durante los meses de impacto de la crisis mexicana. Desde entonces, y a fin de intentar contrarrestar el retraso cambiario generado, la conducción económica lleva la tasa de devaluación a un ritmo algo por encima de la tasa de inflación (Gráfico 3). Durante el período de vigencia del Plan Real, la economía brasileña presenta altas tasas de interés que atrae importantes flujos de capitales extranjeros, valorizan la moneda nacional y aceleran el endeudamiento. La combinación de elevados intereses y dólar barato, al morigerar la demanda interna, restringe las presiones inflacionarias. Gráfico 3: Evolución del índice de paridad real-dólar (ajustado por IPC, base 2005=100) Fuente: CEI Superado el efecto tequila y hasta el segundo semestre de 1997, los ingresos de fondos extranjeros se incrementan y permiten financiar el déficit de cuenta corriente e incrementar el respaldo del real.2 Las reservas internacionales del Banco Central se acrecientan hasta 1996 cayendo desde entonces tras la sucesión de crisis a partir del año siguiente (Gráfico 4). Ya desde 1996 la situación de bonanza comienza lentamente a deteriorarse de la mano del crecimiento de los déficit gemelos -fiscal y externo-, y el consecuente incremento de la deuda pública, pese a los recursos extraordinarios por privatizaciones. Desde la perspectiva fiscal, el saldo operativo de 1,3% del PIB alcanzado en 1994 no logra mantenerse, y desde 1995 y al menos hasta 1998 presenta resultados fuertemente negativos superiores al 5%. En el plano internacional, el superávit comercial del período 1991-1994 se revierte fuertemente en 1995, alcanzando un rojo de 8.300 millones de dólares en 1997, mientras que el creciente déficit de cuenta corriente supera los 33.000 millones en 1997 y 1998. El mantenimiento del tipo de cambio en post de la estabilidad de precios, vis a vis, la búsqueda de mayor competitividad del sector productivo necesaria para el restablecimiento de los equilibrios interno y externo, marcan las posturas del debate económico de entonces. INVENIO 14 (26) 2011: 47-71 51 Diego N. Marcos - Gabriel D. Frontons Gráfico 4: Evolución de las reservas internacionales (en millones de dólares) Fuente: Banco Central de Brasil El panorama se vuelve más complejo con la llegada de los shocks externos, primero desde Asia en 1997, y luego desde Rusia en 1998. El excesivo crecimiento de la oferta monetaria es parcialmente absorbido por el Banco Central a través de la colocación de nueva deuda pública interna bajo la modalidad de bonos y letras. El resultado es un importante incremento del stock de deuda pública en manos de inversores locales, y tasas de interés sostenidas en valores elevados para alentar la llegada de capitales foráneos. Los shocks externos más el déficit fiscal y comercial incrementan los tipos de interés y permite contrarrestar -aunque solo parcialmente- la fuga de divisas. El creciente déficit de cuenta corriente y el paralelo incremento del endeudamiento, sumado a la ausencia de un sólido sector financiero nacional, requiere obligadamente de elevados recursos financieros externos, sembrando así debilidades en la estructura macroeconómica. Una vez más la vulnerabilidad externa pasa a ser el talón de Aquiles de la economía brasileña. La apertura financiera -liberalización de la cuenta capital- en un contexto de globalización, vuelve dependiente la marcha del PIB del flujo de capitales externos. Esta característica se presenta también en la época en otras economías latinoamericanas, como por ejemplo, la argentina. El efectivo ingreso de capitales necesario para el financiamiento de la balanza de pagos requiere pues de una política económica que mantenga elevada la tasa de interés. Hacia fines de 1997, y al menos hasta el primer semestre de 1999, la tasa de interés se mantuvo en valores muy altos, superiores incluso al 30% anual, descendiendo desde entonces a un promedio del 18% hasta fines de 2002. Una interpretación acerca de las elevadas tasas de interés en Brasil son los variados roles que la misma desempeña. Por un lado actúa como mecanismo de estabilización de precios, tanto a través del control de la demanda agregada, como de la tasa de depreciación. También permite atraer capitales externos necesarios para financiar los desequilibrios fiscales y de balanza de pagos. Estas dos grandes funciones de la tasa de interés la mantienen en valores elevados en períodos de dificultades financieras. La contracara es que los elevados costos financieros, al mantener deprimido el gasto agregado, dificultan el desenvolvimiento de las actividades económicas, ralentizan el crecimiento y potencian la deuda pública sujeta a tasas variables. La devaluación de enero de 1999 Ante tales características y condicionantes, la seguidilla de shocks externos de la época -la crisis en Asia de 1997 y la crisis rusa de 1998- afectan seriamente el desenvolvi- 52 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña miento económico de Brasil. En enero de 1999 en un contexto de crecientes tasas de interés, crisis de balanza de pagos y sobresaltos cambiarios, se precipita la devaluación del real. Brasil cambia el régimen cambiario de tipo fijo a uno de tipo flexible y administrado, y adopta además un régimen de metas inflacionarias.3 A ello se adicionan esfuerzos fiscales a partir de la sanción de la Ley de Responsabilidad y otras reformas estructurales. Desde entonces, cuando la previsión de inflación supera lo pautado por el Banco Central, su Comité de Política Monetaria (Copom), decide elevar la tasa de interés de corto plazo, su principal instrumento. Sin embargo, ésto induce mayores niveles de endeudamiento público y de riesgo país. El año finaliza con una economía estancada observándose recién el año siguiente una cierta recuperación. Durante los años 2001 y 2002 los impactos de la gran depresión de la economía argentina y la incertidumbre cambiaria perjudican el desempeño del producto, y reduce el ingreso de capitales privados externos. Los cimbronazos financieros vuelven inestable la coyuntura macroeconómica y debilitan el proceso de crecimiento económico. El siguiente gráfico muestra la dinámica de la inversión extranjera directa. Gráfico 5: Evolución de la inversión extranjera directa (en millones de dólares) Fuente: CEPAL Derrotada la alta inflación, los condicionantes económicos -desequilibrios fiscales y externos, dependencia de recursos financieros internacionales y el perfil de la deuda pública-, influyen en la performance económica y en las posibilidades de aplicar con éxito las políticas económicas. El contexto de alta movilidad de capitales financieros internacionales constituye un elemento sensible en este esquema de funcionamiento de la economía de Brasil. Las marchas y contramarchas se encuentran estrechamente asociadas al superávit o déficit de la cuenta capital del balance de pagos. La política económica enfrenta la encrucijada de desalentar la demanda cuando la inflación y/o el déficit financiero recrudecen versus incentivar el gasto en épocas de recesión y/o sobrevaluación. La tasa de interés se convierte en el elemento central de la política económica. La depreciación de 2002 tuvo su eco en mayores precios internos. Al cierre del año el denominado efecto pass-through, aunque parcial, se manifiesta acelerando la tasa de inflación y la inestabilidad. El índice de precios al consumidor, utilizado como meta inflacionaria de la política monetaria, finaliza el año con un incremento acumulado del 12%, muy superior al objetivo del 5,5%. Desde la perspectiva del comercio internacional, el alza del tipo de cambio alienta una mejora de la balanza comercial, elevando el superávit comercial de 2002 a más de 13.000 millones de dólares frente a 2.500 millones del año anterior. El menor déficit INVENIO 14 (26) 2011: 47-71 53 Diego N. Marcos - Gabriel D. Frontons de la cuenta corriente alivia en parte los desequilibrios de la balanza de pagos. La inflexible necesidad de recursos financieros internacionales destinados a cubrir los desequilibrios de balanza de pagos genera una importante vulnerabilidad externa. Según estimaciones del Banco Central, hacia fines de la década de 1990 los requerimientos financieros externos ascendían a más de 4% del PIB. Recién en el año 2002 el superávit de la balanza comercial -propiciado por la depreciación, la consecuente alza de exportaciones y las menores importaciones-, reduce las necesidades financieras externas al 1,9% del producto. El Plan Real -y los hechos posteriores- derivaron en un extraordinario incremento del endeudamiento público llevando su carga a más del 55% del PIB en 2002. Este fenómeno es resultado de la combinación de elevados costos financieros -el interés básico, la tasa Selic estuvo por encima del 20%-, la devaluación de la moneda nacional, y la asunción por parte del Estado Nacional de los pasivos de empresas privatizadas. La deuda externa global que a fines de 1993 ascendía a 145.000 millones de dólares, alcanza un máximo de 241.000 millones en 1999 para luego caer a 227.000 millones en 2002 (Gráfico 6). El elevado peso relativo de la deuda pública, aunque inferior al de países europeos, sumado a su perfil de corto plazo y el predominio de títulos nominados en moneda externa y a tasas de interés flexibles, entorpece la gestión de la política monetaria, fiscal y cambiaria. Gráfico 6: Evolución de la deuda externa total (en porcentaje del PIB) Fuente: CEPAL Tras ocho años de gobierno el presidente Cardoso finaliza su mandato el 31 de diciembre de 2002 abatiendo la hiperinflación, consolidando la estabilidad de la moneda nacional, e introduciendo una mayor apertura de la economía, estrategia que se manifiesta en la expansión del comercio internacional, y en la llegada de importantes inversiones extranjeras en áreas privatizadas. En 1980 la inflación fue de 90%, cinco años después trepa a 226% y en 1990 alcanzó a 2.940%. Cuando Cardoso culmina su gestión la inflación había sido reducida al 13%. La década de 1990 cierra con una tasa de crecimiento del PIB del 2,8% promedio anual, mejorando su desempeño respecto de los años ochenta. El alto endeudamiento público y los niveles de desigualdad -durante el mandato de Cardoso se observan coeficientes de Gini en torno a 0,60-, son percibidos como asignaturas pendientes. La incertidumbre prevaleciente y las malas condiciones en los mercados financieros descriptas anteriormente, llevan a una desaceleración del PIB durante los años 2001 y 2002, y a una caída de la inversión y del empleo. El traspaso de mando tiene lugar en un contexto de virtual estancamiento que se manifiestan en tasas de desempleo por encima del 11%. La falta de confianza en el rumbo de la futura política económica del gobierno de Lula da Silva vaticina sus primeras dificultades. 54 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña III - Los primeros difíciles momentos del gobierno de Lula Los sondeos previos a las elecciones presidenciales de 2002 favorables al triunfo de Luiz Inácio Lula da Silva (Lula), identificado como un líder de centro-izquierda agitan la incertidumbre y la desconfianza en los mercados financieros internacionales.4 El temor por las políticas a ser aplicadas por un gobierno ‘de los trabajadores’ asociado a ideas radicales, despierta percepciones negativas acerca del devenir político y económico de la nación (crisis electoral). Los trastornos económicos resultaron significativos durante los primeros meses de gestión. Como es de esperar las primeras señales se manifiestan en el plano financiero a través de mayores tasas de riesgo país, salida de capitales de corto plazo y un menor ingreso de divisas en concepto de IED.5 Las condiciones crediticias se endurecen especialmente para empresas con pasivos nominados en moneda extranjera. Hacia fines de año el riesgo país superaba los 2.300 puntos básicos, mientras que la depreciación del real frente al dólar -4 reales por dólar en octubre de 2003- alcanza el 50% en términos nominales y el 20% en términos reales (Gráfico 9). La economía atraviesa una coyuntura negativa con serias dificultades en materia financiera que hace recordar lo sucedido recientemente en la Argentina. Resulta elevado el temor a un incumplimiento no solo de su deuda externa, sino también de su deuda interna en gran parte indexada al creciente tipo de cambio. Sin embargo, Lula no dudó en poner en marcha políticas que fortalecerían la estabilidad económica. Hacia mediados de 2003 el presidente enfrenta algunas críticas de sus propios partidarios, ya que las duras políticas aplicadas por el Ministro Palocci -contrarias al partido de los trabajadores- no logran dar buenos resultados. A ello se adiciona un primer semestre de 2003 en el cual la administración atraviesa una fase de transición, durante la cual se debía aplicar rígidas medidas y reformas, a priori impopulares y contrarias a su plataforma de campaña, pero necesarias a fin de alcanzar la ansiada estabilidad. La alta tasa interés Selic permite mantener un diferencial positivo entre los activos brasileños y los extranjeros, que vuelve atractivas las inversiones financieras, e incentiva el ingreso de capitales que aprecian el real. Es decir, la tasa Selic sumada a la apreciación del real arroja un plus positivo respecto de los rendimientos internacionales y el riesgo Brasil. Sin embargo, en un contexto de alto endeudamiento y temor de incumplimiento como el que presentaba Brasil por entonces, un amplio diferencial de tasas lleva a un nuevo incremento de la deuda, y a una mayor percepción de riesgo que acelera la fuga de divisas y desvalorizan la moneda. El mayor endeudamiento y los altos tipos de interés exacerban el nivel del riesgo y produce una nueva salida de capitales que desvalorizan la moneda. Se instala así un círculo vicioso que suele acabar en una crisis cambiaria con los consiguientes efectos negativos sobre el stock de deuda.6 Luego de la depreciación de la moneda, el objetivo de estabilidad de precios requiere de políticas fiscales restrictivas que desalienten la corrección del tipo de cambio a los salarios y a otros precios internos. El superávit fiscal colabora en el sostenimiento del tipo de cambio (y por ende en la inflación), genera mayor capacidad de pago y mayor certidumbre entre los inversores, lo que redunda en menores niveles de riesgo, tasas de interés y endeudamiento. Este positivo encadenamiento puede lograrse únicamente con fuertes esfuerzos fiscales que contengan la actividad. La política fiscal aplicada por el gobierno de Lula, al tener como objetivo prioritario la estabilidad de precios (y del tipo de cambio), requirió lamentablemente e inexorablemente relegar por un tiempo el objetivo “crecimiento económico”. Las primeras reformas fiscales y del sistema de previsión social colaboran con el ajuste fiscal y metas inflacionarias.7 En el año 2003 el superávit primario de 4,25% del PIB comprometido con el FMI es superado, no obstante, el abultado pagos de intereses de la deuda revierte ese resultado, INVENIO 14 (26) 2011: 47-71 55 Diego N. Marcos - Gabriel D. Frontons mientras que el endeudamiento neto del sector público supera el 55% del PIB. La creciente participación de títulos públicos indexados a la tasa Selic profundiza su importancia como principal instrumento de la política monetaria al tener como objetivo controlar la inflación y atraer capitales del exterior. El ajuste en el gasto público y la mayor presión en un contexto de altos tipos de interés conducen al estancamiento afectando el nivel de ingresos públicos. La recaudación fiscal de 2003 se reduce en relación al PIB por los menores ingresos provenientes de los impuestos a la producción. El superávit primario contribuye a estabilizar el tipo de cambio y, a través de este, a controlar el alza de precios, pero los altos tipos de interés generan efectos dinámicos negativos que deterioran la capacidad de obtener ingresos fiscales. Con el transcurso de 2003 las tasas de variación del PIB mejoran paulatinamente, no obstante, la recuperación no es percibida como tal, y los pronósticos vaticinan un virtual estancamiento. Las severas políticas fiscales y monetarias se manifiestan en el primer semestre del año a través de una fuerte contracción de la demanda interna. La inversión evoluciona desfavorablemente retrocediendo a solo 18% del PIB, mientras que el ingreso real dañado por la inflación reduce el consumo un 3%. Las prioridades pasan por alcanzar la ansiada estabilidad, restablecer la confianza de los mercados financieros alejando las posibilidades de default, sostener y profundizar el superávit fiscal, y avanzar tanto en políticas sociales -por ejemplo a través del programa hambre cero-, como en reformas institucionales.8 El panorama del segundo semestre de 2003 combina elementos del ajuste inicial con señales de recuperación económica. La continuidad y profundización de una política fiscal muy austera -con objetivos de 4,25% del PIB de superávit fiscal- y de una política monetaria restrictiva y con metas inflacionarias, mejoran las expectativas de los agentes, alcanzándose en la segunda mitad del año una cierta estabilización en las principales variables económicas. La tasa de inflación anual cae al 8,5% y la moneda nacional cambia de tendencia y se aprecia hasta los 2,9 reales por dólar. También se reduce sustancialmente la tasa de riesgo país a niveles cercanos a 600 puntos básicos y la tasa de interés a menos del 20% anual. Las mejores perspectivas sobre la inflación, los menores indicadores de riesgo país y el cumplimiento de las metas de superávit primario permiten reducir los tipos de interés, y desde entonces y hasta fines de 2003, la tasa Selic se reduce del 25% al 16,5%. Esta caída es de gran trascendencia tanto para el sector público como privado, ya que reduce el costo financiero y alienta una mayor demanda. En diciembre el Copom evalúa positivamente la tendencia decreciente aunque todavía presenta niveles elevados. A partir de entonces la autoridad monetaria se expresa a favor de mantener una tasa de interés que permita compatibilizar los objetivos de equilibrio interno y externo en un marco de estabilidad de precios. Según el Banco Central, la expectativa de crecimiento del PIB se acelera con el transcurso del año, no obstante, resulta inferior al 1%. Las reformas fiscales y previsionales son percibidas positivamente al reducir los desequilibrios públicos y liberar una mayor porción de los recursos externos disponibles. Se alcanza la meta de superávit fiscal y los flujos de IED e inversión de cartera vuelven a ingresar. Los acuerdos con el Fondo Monetario Internacional permiten mejorar los indicadores de liquidez y las calificaciones crediticias (de B a B+), honrándose además las obligaciones financieras contraídas. En 2003 la producción primaria (soja, maíz y frijoles) mejora sustancialmente respecto al año anterior, registrándose según el Instituto Brasileño de Estadística y Geografía (IBGE), una cosecha superior a los 120 millones de toneladas. Los mayores precios internacionales alientan también una coyuntura favorable en el sector. Por el lado industrial, el 56 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña desempeño negativo de los primeros meses de 2003 comienza lentamente a revertirse recién a partir de la segunda mitad del año. Las actividades comerciales sufren una evolución negativa, al tiempo que los servicios se expanden muy levemente. El sector externo continúa manifestando mejoras en sus colocaciones. El comercio internacional presenta un fuerte incremento de las exportaciones y una reducción de las importaciones. La depreciación de 2002 alienta las ventas externas que superan, según estimaciones del Instituto Nacional de Pesquisas Económicas, los 67.000 millones de dólares en 2003. A pesar del contexto desfavorable, las ventas externas resultan ser el único componente de la demanda con resultados positivos, convirtiéndose en un factor dinámico de la economía. No obstante, su baja contribución al producto no permite un cambio de las malas condiciones generales. Por su parte, la debilitada demanda y el ajuste interno se encargan de reducir las importaciones hasta los 48.000 millones de dólares. El creciente superávit comercial, superior a los 2.000 millones de dólares mensuales, y el saldo positivo de la cuenta corriente de 0,9% del PIB, reducen la vulnerabilidad externa y aminoran las presiones del mercado de divisas sobre la tasa de inflación. Acelerar la capacidad exportable es considerada una estrategia adecuada a la necesidad de reducir la incidencia de los pagos de la deuda pública externa, además de liberar recursos para la expansión del sector privado. Para lograr esto último se juzga necesario invertir en infraestructura económica y social y una política industrial que anime nuevas decisiones de inversión. En las seis principales regiones metropolitanas (Recife, Salvador, Belo Horizonte, Rio de Janeiro, São Paulo y Porto Alegre) la Encuesta Mensual de Empleo del IBGE muestra una tasa de desempleo del 13%, manifestando una leve alza respecto al año anterior. A pesar de la creación de 800 mil nuevos puestos de trabajo el reducido crecimiento económico de 2003 no logra reducir el paro. Estas políticas ‘ortodoxas’, a priori paradójicamente contrarias al origen partidario de Lula, propiciaron -luego de varios meses- una mayor confianza en los circuitos financieros internacionales, hecho que redundó en una paulatina reducción de la tasa de cambio y de la inflación. El cambio favorable en las expectativas predispone el comienzo de un nuevo período de crecimiento económico. En los dos últimos trimestres de 2003 se avizoran algunos tenues signos de recuperación. Gráfico 7: Evolución de la tasa de variación del PIB Fuente: CEPAL INVENIO 14 (26) 2011: 47-71 57 Diego N. Marcos - Gabriel D. Frontons El control de la tasa de inflación, la reducción del costo financiero, el significativo superávit fiscal, y el menor déficit de cuenta corriente, constituyen sólidos pilares del próximo período de despegue económico (2004-2008). Estos fundamentos presagian una importante recuperación de los componentes de la demanda, especialmente del consumo y de la inversión. También el frente externo resulta alentador dado el reciente despegue exportador. Así, a partir del año 2004 la economía de Brasil comienza a transitar una etapa de altas tasas de crecimiento del producto y menores niveles de desempleo. No obstante, el volátil contexto internacional, y su aún alta incidencia sobre la economía nacional, vuelve necesario apuntalar los recientes logros alcanzados. El sostenimiento del superávit fiscal y el equilibrio externo continúan siendo elementos centrales de una buena gestión económica. El superávit fiscal primario resulta indispensable para reducir el peso de la deuda pública en relación al producto. También se considera importante mejorar las condiciones y el perfil del endeudamiento público (tasas de interés flexibles, corto plazo de los vencimientos, y alta incidencia de pasivos nominados en moneda extranjera), a fin de reducir la exposición y vulnerabilidad de la economía a los shocks externos. En 2003 Lula ahuyenta los fantasmas de default y devuelve la confianza a los mercados internacionales. El costo afrontado no ha sido menor al renunciar al crecimiento en pos de la credibilidad y la estabilidad. La política monetaria de metas de inflación, combinada con la austeridad de la política fiscal al servicio del objetivo del superávit primario, en un contexto de expectativas no favorables, derivó en un estancamiento del producto. El crecimiento se sacrificó en aras de la estabilidad mediante la consecución de un bajísimo nivel de inversión situado en torno al 17% del PIB, una intensa caída de los salarios reales del 12,7%, y un aumento del desempleo. Las políticas implementadas durante el primer año de gobierno pueden concebirse como de ajuste, ordenamiento y estabilización, siendo las mismas en extremo ineludibles y base de un futuro más promisorio. El año 2003 puede señalarse como de profundización de las políticas macroeconómicas de estabilización, que a costa de un lento crecimiento económico, generaron superávit fiscal y alivio externo. El virtual estancamiento -la tasa de crecimiento del PIB fue de solo 0,1%- fue la moneda de cambio de la estabilización, generando consecuencias no deseadas por el lado de la inversión, el consumo, el empleo y los salarios reales. Superado el complejo primer año de mandato, con una macroeconomía más ordenada, el nuevo objetivo gubernamental es comenzar a transitar un sostenido sendero de progreso económico y social, para lo cual se evalúa necesario elevar la participación de la inversión al 21% del producto. También la exportación se juzga como un pilar del nuevo esquema de desarrollo implementándose políticas industriales y de comercio exterior. La expansión de 2004 a 2008 Para 2004 se estima un incremento del producto del 3,6%, apoyado en el gasto de consumo, inversión, y en la demanda externa. El consumo se expande a una tasa del 5% apoyado en la recuperación de los ingresos reales, menores costos financieros (la tasa Selic desciende) y mayores niveles de préstamos. La inversión crece por encima del 6%, puesto que las empresas han mejorado su situación financiera gracias a la apreciación cambiaria de 2003 y a las menores tasas de interés. La estabilidad de precios manifestada en la reducción a un dígito de la tasa de inflación anual coadyuva en la recuperación de aquellos dos componentes. Por su parte, la política fiscal continúa persiguiendo un superávit primario de 4,25% del PIB a fin de reducir el endeudamiento. 58 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña Superadas las dificultades iniciales, desde el segundo semestre de 2003 la economía brasileña transita un ciclo expansivo de más de cinco años de duración, que finaliza a mediados de 2008 con motivo de la crisis financiera internacional. Durante ese lapso de aproximadamente 64 meses el producto se expande al 5% promedio anual, un ritmo muy superior al observado en las últimas décadas. Entre los factores explicativos de naturaleza estructural se señala la menor vulnerabilidad externa -por los menores niveles de déficit fiscal y de endeudamiento del sector público, y el fuerte ingreso de capitales extranjeros-, la consolidación de un período de estabilidad de precios y las políticas sociales y de aliento a la producción (Programa de Desenvolvimiento Productivo).9 Luego de seis años de bajos registros de ingresos de IED (2001-2006), entre 2007 y 2009 fluyen más de 85.000 millones de dólares que permite acelerar la acumulación de reservas internacionales del Banco Central. Gráfico 8: Evolución de las reservas internacionales (en millones de dólares) Fuente: Banco Central de Brasil El Programa de Aceleración del Crecimiento tiene por objeto dirigir importantes recursos públicos a la mejora de la infraestructura, la logística, la energía y los proyectos sociales. Aproximadamente 200.000 millones de euros son volcados entre 2007 y 2010 a más de 2.400 obras, previéndose otros importantes desembolsos en los próximos años. En el plano de las políticas sociales, el gobierno de Lula profundiza y amplía el programa Bolsa Escola -iniciado por Cardoso- a través de Bolsa Familia. El mismo consiste en el otorgamiento de ayudas monetarias a familias pobres con niños, bajo la condición de que los mismos asistan a un establecimiento educativo y posean las dosis de vacunación correspondientes a su edad. El mega programa estatal posee más de 12 millones de beneficiarios directos y alcanza a 50 millones de brasileños, cifras que lo ubican como uno de los planes de erradicación de la pobreza más grandes del planeta. Bolsa Familia permite reducir -aunque de manera insuficiente- los niveles de desigualdad en la distribución del ingreso -de los más altos de la región- hecho que se manifiesta en la reducción del coeficiente de Gini de prácticamente 0,58 en 1997 a 0,52 en 2008. Con respecto al mercado de trabajo durante los gobiernos de Lula -a excepción del primer año y medio- la tasa de desempleo mensual se reduce continuamente desde niveles superiores al 12% en 2003 y 2004, hasta quebrar la barrera del 6% al final de su segundo mandato. Entre 2004 y 2010 el salario mínimo nominal mensual ha trepado de 240 a 510, significando un alza del 56% en términos reales.10 El grupo poblacional perteneciente a la denominada clase D y E, que posee ingresos mensuales inferiores a 260 dólares, ha disminuido INVENIO 14 (26) 2011: 47-71 59 Diego N. Marcos - Gabriel D. Frontons su participación en el total poblacional del 47% en 2003 al 32% en 2009. Este segmento ha sido incorporado a la clase media, cuenta con ingresos mensuales entre 620 y 2.700 dólares, y comprende al 53% de la población brasilera. Desde 2003 las elevadas tasas Selic -dirigidas a contener la inflación- y el fuerte ingreso de capitales externos aprecian sistemáticamente el real. El mayor y mejor acceso a los mercados financieros internacionales favorecen el proceso de expansión. Entre 2003 y 2007 el peso de la deuda externa brasileña en relación al producto se reduce notablemente, siendo actualmente baja su incidencia en cotejo a otros países de la región (Gráfico 11). La confianza de los inversores es sustentada en las prácticas ortodoxas del gobierno referentes a estabilidad de precios y equilibrios macroeconómicos básicos. Esto se manifiesta en la paulatina reducción de los niveles de riesgo país hasta comienzos de 2008. El Índice de Bonos de Mercados Emergentes (EMBI) de Brasil cae de valores superiores a los 1.000 puntos básicos en 2003 hasta los 300 puntos de comienzos de 2008. La internacionalización de la economía brasileña se refleja tanto a partir de la adquisición de empresas en el extranjero -argentinas entre ellas- como por la radicación de nuevas unidades productivas. En los últimos años el acceso al crédito por parte del sector empresarial brasileño junto a la creciente apreciación del real, favorece este proceso al volverse menos costosa la compra de divisas destinadas a tales inversiones. Sus multilatinas acumulan en el exterior un stock de capital superior a 150.000 millones de dólares. El incremento de las importaciones asociado al crecimiento económico, junto a la continua apreciación del real, reducen en 2008 el superávit comercial de 50.000 a 30.000 millones de dólares, siendo negativa la cuenta corriente. El aumento de las exportaciones de 2008 es resultado exclusivo del incremento del 26% en los precios, ya que las cantidades físicas disminuyen un 2,5%, cifra que para los bienes manufacturados alcanza el 5%. El caso de las importaciones es más equilibrado, con un 22% de aumento en los precios y un 18% en las cantidades. El saldo de transacciones corrientes cambia de un leve superávit en 2007 a un marcado déficit en 2008, mientras que el superávit de la cuenta capital, pese a una importante reducción, logra financiar el déficit de cuenta corriente. En el último lustro, Brasil quintuplica sus exportaciones pese al tipo de cambio ‘bajo’ Gráfico 9: Evolución del índice de paridad real-dólar (ajustado por IPC, base 2005=100, línea) e índice de cantidad de exportaciones (base 2006=100, barras) 200 180 160 145 140 120 127 105 136 123 103 100 100 188 89 79 80 60 40 20 49 54 59 1999 2000 2001 64 2002 73 89 97 100 106 103 2004 2005 2006 2007 2008 75 66 92 0 2003 2009 2010 Fuente: CEI y CEPAL En relación al PIB la deuda pública de 2008 es del 46,2% y está compuesta mayoritariamente por reales. En términos de plazos, la situación también ha mejorado al disminuir la 60 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña porción de vencimientos a corto plazo. Otros indicadores descriptivos del perfil de la deuda muestran ciertos progresos. Los coeficientes de servicio de deuda con respecto a exportaciones y producto disminuyen respecto de 2007. Durante 2008 las cuentas públicas presentan una importante mejora ya que el superávit primario de 4,1% del PIB supera el 3,7% alcanzado en 2007. Esto es fruto del mayor crecimiento de la recaudación por sobre los gastos. El pago de intereses disminuye de 6,05% a 5,73% del PIB. Como resultado, el déficit nominal es menor: 1,6% del PIB en 2008 en comparación al 2,1% del año anterior. La crisis financiera internacional En el último trimestre de 2008 el deteriorado contexto internacional altera severamente el comportamiento de la actividad económica brasileña, originando un quiebre en la tendencia observada desde 2004. En primera instancia el impacto de la crisis se manifiesta especialmente sobre el sector financiero, no obstante, las secuelas sobre el resto de la economía, pese a ser amortiguadas por ágiles y rápidas políticas económicas anticíclicas, resultan inevitables. Tras registrar un crecimiento del producto del 5,1% en 2008, a partir del último trimestre del año, la crisis afecta al sector real de la economía brasileña, interrumpiendo así un largo período de expansión. Durante los tres primeros trimestres de 2008 el incremento del PIB respecto del año anterior se ubica por encima del 6%, pero en los últimos meses se desacelera al 1,8%, percibiéndose claramente los impactos externos.11 En el primer trimestre de 2009 el efecto resulta ser mucho mayor. Mientras que otras naciones padecen con mayor intensidad la menor demanda norteamericana, la economía brasileña, cuyo principal cliente es China, apenas se resiente durante dos trimestres consecutivos (cuarto de 2008 y primero de 2009). El año 2009 cierra con una variación negativa del PIB por habitante del 0,2%. Desde la perspectiva sectorial, la producción industrial sufre un fuerte revés en la última parte de 2008, mientras que la actividad agropecuaria y los servicios presentan solo leves caídas. El shock también se manifiesta en un menor nivel de empleo y despidos durante la última parte de 2008 y el primer semestre de 2009. Las exportaciones de bienes de 2009 retroceden un 29% y la inversión cae significativamente. La reversión de los factores que precedentemente habían impulsado la expansión del nivel de actividad durante 2004-2008, precipitan la crisis sobre la economía de Brasil y otras de la región. En primer término la demanda mundial es afectada tanto por la recesión de las principales economías desarrolladas, como por la desaceleración del crecimiento en las economías emergentes, especialmente en China. El producto mundial disminuye en 2009 aproximadamente un 2%, dejando atrás el 1,8% de 2008. Para los países desarrollados la caída supera el 2%, en tanto que para los países en desarrollo el crecimiento fue del 3,3%. El intercambio comercial alcanza en 2008 valores récord, no obstante, el crecimiento se detiene a partir del mes de octubre. En diciembre se reducen las exportaciones y en enero de 2009 caen tanto las ventas como las compras externas. Las exportaciones tiene una tasa de crecimiento del 29% durante el periodo enero-septiembre de 2008, pero finalizan el año con un alza del 23% en comparación al año anterior, debido al menor crecimiento de octubre, noviembre y a la reducción del 3% en diciembre. Las importaciones muestran un crecimiento del 53% acumulado hasta septiembre, pero del 44% cuando se considera el total anual. El saldo comercial muestra un superávit de casi 25.000 millones de dólares, un 38% inferior al de 2007. El volumen del comercio mundial se contrae históricamente en el año 2009. La menor demanda mundial -inevitable mecanismo de transmisión- impacta negativamente sobre las exportaciones INVENIO 14 (26) 2011: 47-71 61 Diego N. Marcos - Gabriel D. Frontons de Brasil, que retroceden 45.000 millones de dólares, al pasar de los 197.000 en 2008 a 152.000 millones de dólares en 2009. La desaceleración del ritmo de expansión de las exportaciones es pronunciada y generalizada en el último trimestre de 2008. La información de los primeros meses de 2009 confirma también este nuevo escenario: en el primer bimestre las exportaciones retroceden un 26% en el cotejo interanual. En enero de 2009 se perciben claramente los efectos de la crisis: las exportaciones disminuyen un 23% y las importaciones el 13%, generando el primer déficit comercial mensual desde marzo de 2001. En febrero la balanza comercial vuelve a presentar superávit, debido a una fuerte caída de las importaciones (31%). Otro factor determinante de la crisis son los menores ingresos de exportación asociados a la significativa caída de los precios internacionales de las materias primas. Desde agosto de 2008 y hasta febrero de 2009 los menores precios del petróleo y subproductos, oleaginosas, café, azúcar, carne bovina y mineral de hierro -principal producto de exportaciónafectan fuertemente los ingresos de exportación. Excluidas las materias primas energéticas el decremento de los precios internacionales es del 30%. Gráfico 10: Evolución del índice de precios de las materias primas (base 1990=100) Fuente: Banco Mundial - FMI El 2008 finaliza con un mayor nivel de reservas internacionales aunque con un crecimiento más atenuado respecto de la fuerte acumulación de los últimos años. Si bien hasta septiembre existe un ritmo menor de crecimiento respecto de años anteriores, a partir de octubre las reservas comienzan incluso a decrecer debido a la política de sostenimiento del valor del real frente a las presiones reinantes a nivel internacional. En octubre de 2008 las reservas llegan al valor máximo de 209.000 millones de dólares, pero a fines de año caen a 206.000 millones de dólares, y a 199.000 a mediados de febrero de 2009. En el mercado de divisas la tasa de cambio alcanza un mínimo de 1,5 reales por dólar en agosto de 2008, no obstante, comienza luego a depreciarse, tendencia que se profundiza en septiembre y octubre cuando el dólar se cotiza a 2,5 reales. A partir de diciembre disminuye la volatilidad que el tipo de cambio nominal muestra en los dos meses anteriores, y se mantiene en forma más estable en un promedio de 2,3 reales por dólar, nivel semejante al de diciembre de 2005. A partir de marzo de 2008 se registra un importante avance inflacionario que se detiene en agosto, mes en el que los precios mayoristas presentan una caída del 0,8%. A partir de entonces la tendencia es de clara reducción de la tasa de inflación, llegando a febrero de 2009 con variaciones negativas de los índices mayoristas. El régimen de metas de inflación que 62 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña practica el Banco Central de Brasil obliga a las autoridades a sucesivos aumentos de la tasa de referencia durante gran parte de 2008. Del 11,25% vigente en enero se pasa al 13,75% en septiembre -mes de mayores repercusiones en el plano internacional-, valor que se mantiene hasta fin de año. No obstante, frente a la disminución de las expectativas inflacionarias y el advenimiento de la crisis financiera, en las reuniones del Copom de enero y marzo se decide reducir la tasa 100 y 150 puntos, llevándola nuevamente a 11,25%, nivel similar al de principios de 2008 y el más bajo desde su creación en 1986. Durante la crisis el Banco Central aplica una política expansiva reduciendo la tasa de interés a fin de alentar la alicaída demanda agregada. También se recortan los encajes bancarios con el objeto de recomponer la liquidez y el crédito para el financiamiento de bienes de consumo durables y de inversión para empresas públicas y privadas. Los resultados son satisfactorios especialmente por la dinámica de los préstamos otorgados por la banca pública. Más allá de las repercusiones negativas originadas por la crisis internacional, el sector financiero local logra atravesar la misma sin grandes cimbronazos ni problemas de liquidez.12 Su sólida regulación y el status de economía emergente favorecen su desempeño durante el shock externo. Una banca de pequeños ahorristas y deudores, con baja presencia relativa de bancos extranjeros, junto a inversiones financieras respaldadas en títulos de la deuda pública, y con bajos niveles de endeudamiento en dólares, evitan la exposición a la crisis de los activos tóxicos. También los fuertes niveles de capitalización de las entidades coadyuvan durante los meses más conflictivos. En Brasil el sector financiero cuenta con una gran presencia de entidades estatales, un importante número de participantes privados y bajos niveles de concentración.13 La banca pública suele ser utilizada como herramienta anticíclica acelerando los préstamos al sector fabril en momentos de debilidad macroeconómica. El Banco Central -a pesar de exigir elevados niveles de requerimientos- no pierde de vista los parámetros de crédito y liquidez. Más allá de la fuerte recuperación del PIB en 2010 y las expectativas favorables para los próximos años, la delicada situación de algunas economías desarrolladas enciende señales de alerta que reclaman una reforma del sistema financiero internacional. Brasil, al igual que otros países latinoamericanos, implementa entre fines de 2008 y comienzos de 2009 una serie de medidas de política económica destinadas a sortear el shock externo. El énfasis en la política fiscal se aprecia en la reducción temporaria de cargas tributarias aplicadas al sector industrial, construcción, equipamiento del hogar y venta de automóviles. Se aplican estímulos para alentar el consumo privado a través de menores alícuotas del impuesto a la renta de las familias y mayores plazos para el pago de otros impuestos. También se acelera el gasto público vía subsidios sociales tendientes a la redistribución del ingreso, planes de construcción de viviendas, energía y otras medidas orientadas al sector empresarial. La expansión del programa Bolsa de Familia junto a planes de crédito para consumo permiten sostener la alicaída demanda. Recuperación y actualidad En relación a economías desarrolladas, Brasil estuvo menos expuesto a las turbulencias externas, logrando alcanzar una rápida recuperación. En 2009, cuando la economía mundial cae en una profunda recesión, Brasil exhibe una caída de solo 0,2% del PBI, un resultado más que positivo considerando el contexto mundial. Desde el tercer trimestre de 2008 las políticas económicas señaladas anteriormente impactan positivamente, al tiempo que el propio gobierno insiste en que la economía nacional no será tan afectada como las europeas, previéndose una INVENIO 14 (26) 2011: 47-71 63 Diego N. Marcos - Gabriel D. Frontons recuperación superior al 7% para el año 2010 y 4% para 2011. La breve depreciación del real junto al rápido rebrote de los precios internacionales de los commodities, ayudan a la recuperación de las exportaciones y de la economía a partir del segundo semestre de 2009. En la primera parte de 2009, en pleno apogeo de la crisis mundial, un hecho sorprendente de la administración Lula es el otorgamiento de un préstamo de 10.000 millones de dólares del Estado Brasileño al Fondo Monetario Internacional. El mismo le permite a Brasil pasar a integrar el reducido grupo de naciones donantes de la institución, y ganar un nuevo reconocimiento a nivel global. Actualmente Brasil ha suministrado a organismos supranacionales aproximadamente 14.000 millones de dólares, lo que seguramente propiciará su mayor participación en el Fondo Monetario Internacional y el Banco Mundial. Rápidamente morigerados los efecto nocivos de la crisis, Brasil comienza a dejar sin efecto muchas de las medidas aplicadas. La alta tasa de crecimiento del PIB de 2010, manifiesta la efectividad de las medidas aplicadas desde fines de 2008 y la breve duración de la recesión en relación a economías desarrolladas. Las reducciones en las alícuotas de impuestos a ciertas industrias son removidas, mientras que el Banco Central frena la disminución de los tipos de interés, y de la cantidad de dinero a través del compulsorio, instrumento del Banco Central para aumentar o disminuir el dinero circulante.14 A continuación se identifican algunos logros alcanzados durante los dos mandatos del presidente Lula da Silva: § La estabilidad de precios, que medida a través del Índice de Precios al Consumidor Amplio (IPCA), se manifiesta en una tasa de inflación anual promedio inferior al 6% desde el año 2005. § En el frente fiscal los importantes ahorros públicos reducen sustancialmente la carga relativa de la deuda externa, que en 2003 ascendía a 235.000 millones de dólares (Gráfico 11). No obstante, aquellas políticas fiscales expansivas causan a partir de septiembre de 2008 el deterioro de las cuentas públicas, resquebrajando los niveles de superávit fiscal primarios obtenidos en los primeros años de la presidencia Lula. Brasil utiliza como meta de sus cuentas públicas el resultado fiscal primario que se obtiene por diferencia entre los ingresos y gastos del Estado Brasileño (gobierno nacional, gobiernos regionales y municipales y empresas estatales), sin contemplar el pago de intereses de la deuda pública. La importante magnitud de estos últimos obliga a un resultado fiscal primario positivo a fin evitar el déficit fiscal nominal. En 2009 y 2010 se logran superávit fiscales primarios de solo 2% y 2,8% del PIB respectivamente (inferiores a las metas establecidas), pero déficit fiscales nominales de 3,4% y 2,6%. Por su parte la deuda neta del sector público de 2010 alcanza los 830.000 millones de dólares. He aquí un tema preocupante para la nueva administración. Gráfico 11: Evolución de la deuda externa total (en relación al PIB). Fuente: CEPAL 64 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña § El fuerte crecimiento económico de los últimos años le ha permitido a Brasil posicionarse como la octava economía del mundo, superando en los últimos tiempos a España seriamente afectada por la crisis internacional. En la actualidad el PIB nominal de Brasil supera los 1,6 billones de dólares mientras que el español es de 1,5 billones, siendo mayor la diferencia en términos de paridad del poder adquisitivo­­. § La creación de más de 12 millones de puestos de trabajo que redujeron la tasa de desempleo del 11,6% en 2003 a menos del 6% en 2010. Como correlato, más de 20 millones de personas han logrado salir de la pobreza (la cual cae del 35,8% en 2003 al 21,4% en 2009), y otros 30 millones se incorporaron a la creciente nueva clase media brasileña, considerada uno de los motores del consumo y de la economía. Este grupo social se estima estar actualmente conformado por aproximadamente 90 millones de brasileños que poseen ingresos de entre 600 y 2.500 dólares mensuales. § La consultora internacional Goldman-Sachs agrupó a Brasil junto a Rusia, India y China en el llamado BRICs, con la intención de identificarlas como economías de alto desempeño y motores de la economía mundial en las próximas décadas. Se prevé que los BRICs serán responsables del 60% del crecimiento económico mundial entre 2008 y 2014. Además, en abril de 2008 la prestigiosa agencia de calificación crediticia Standard & Poor’s, calificó a Brasil en situación de investment grade, permitiendo un mejor acceso al mercados de capitales, y una mayor valoración como mercado propicio para la radicación de inversiones extranjeras. También Moody’s y Fitch elevaron las calificaciones de Brasil. § Brasil ha fortalecido su sistema político federal a partir del ejercicio democrático, no presenta problemáticas con países limítrofes, cuenta con una oferta exportable diversificada, y políticas de Estado de aliento a los capitales extranjeros. § En el plano productivo sobresale: 1-el fuerte crecimiento de la producción agropecuaria (cereales, soja y carnes) que permite a Brasil posicionarse como uno de los principales productores y exportadores mundiales en esos segmentos. Entre las importantes producciones se destacan: café, soja, trigo, arroz, maíz, caña de azúcar, cacao, fruta cítrica y carne bovina. La producción agrícola de Brasil, que representa, aproximadamente, el 10% del PIB, alcanza en 2010 una cifra récord de 149,5 millones de toneladas de cereales, leguminosas y oleaginosas, un 11% por encima del año anterior. La producción de arroz de 2010 se estima en 11,3 millones de toneladas; batata 3,5; café 2,8; frijoles 3,3; maíz 55; mandioca 25; naranja 19; caña de azúcar 73; soja 68 y trigo 5,7 millones. Según los pronósticos del IBGE, la cosecha de 2011 se estima en 145 millones de toneladas, un 2,5% inferior a la de 2010 pero semejante a la buena campaña de 2008. Estos datos consolidan a Brasil como uno de los principales graneros del mundo. 2-La enorme y diversificada producción manufacturera que representa aproximadamente el 25% del PIB, cifra muy importante en relación a otras economías. Entre sus principales segmentos sobresale: el mineral de hierro, carbón, maquinarias, textiles, petróleo y subproductos, cemento, productos químicos, fertilizantes, calzado, juguetes, electrónica, transformación de alimentos, equipo de transporte (automóviles, naves, y avión), equipo de telecomunicaciones y bebidas. 3-La expansión de las multinacionales brasileñas (JBS, Odebrecht, Camargo Correa, Sadia, Brasil Foods, Coteminas, Embraer, Gerdau, Magnesita Refratários, Marcopolo, Natura, Petrobras, Votorantim, Weg, Vale, etc.), es otro de los íconos más destacados de INVENIO 14 (26) 2011: 47-71 65 Diego N. Marcos - Gabriel D. Frontons los últimos años. Un factor crucial fue el apoyo estatal brindado por el Banco Nacional de Desarrollo Económico y Social (BNDES), manifestado en la oferta de financiamiento a largo plazo en condiciones muy competitivas15. § En materia energética la exploración (y posterior hallazgo) de grandes reservas de petróleo en el litoral atlántico por parte de la estatal Petrobras, y su capitalización de 70.000 millones de dólares en el mercado financiero internacional, convierten a Brasil en un importante jugador mundial en un producto de creciente significación. Las favorables repercusiones financieras de este hecho adquieren singular trascendencia para el futuro de la nación.16 Al igual que en petróleo, en los últimos quince años las políticas energéticas de aliento a la exploración ha permitido incrementar sustancialmente las reservas de gas. Durante la era Lula la estabilidad económica heredada del gobierno de Cardoso fue uno de los principales punto de controversia. La difícil situación del año 2002 -manifestada por ejemplo en una tasa de riesgo país por encima de los 2.000 puntos básicos-, y los presagios negativos para 2003 -por ejemplo de una inflación del 40%-, desacreditan la creencia de que Cardoso entregó un legado de estabilidad, inclusión y crecimiento. Bajo las presidencias de Lula la tasa media de crecimiento económico se acerca al 5%, mientras que en los ocho años anteriores fue de 2,3%. Los partidarios del Gobierno de Lula marcan distancia respecto de su antecesor, y diferencian sus políticas de las implementadas durante la anterior administración, al menos en los siguientes puntos: § Las áreas sociales y de agricultura familiar son señaladas como de mayor prioridad por el Gobierno de Lula. La universalización de la energía eléctrica, la situación de los hogares de muy bajos ingresos y el programa Fome Zero (Hambre Cero) son ejemplos de verdaderas políticas sociales de inclusión. El Bolsa Familia -que unificó varios programas vigentes durante la gestión anterior, entre ellos: Bolsa Escola, Bolsa Alimentação, Cartão Alimentação y Auxilio Gas-, destinó en principio 72 reales a más de 6,5 millones de hogares, cifra muy superiores a las alcanzadas en el gobierno de Cardoso (24 reales para 2 millones de familias).17 § En el área educativa los detractores de Cardoso señalan los mejores resultados alcanzados durante el gobierno petista. El mayor acceso a la universidad estatal a través de un sistema de becas a alumnos de bajos ingresos, y las mayores partidas del Programa Nacional de Alimentación Escolar (PNAE), que destina una merienda a 38 millones de niños en etapa escolar (guarderías, preescolar, enseñanza básica y comunidades indígenas), son señaladas como fuertes diferencias respecto de la gestión anterior. § Otra diferencia sustancial entre los gobiernos de Cardoso y Lula se refiere a la dispar concepción respecto al Estado Empresario. En la gestión de Lula el proceso de privatizaciones fue suspendido, mientras que durante la presidencia de Cardoso se transfirieron al sector privado más de 100.000 millones de dólares de activos públicos. Lula potencia el rol del Estado y configura un nuevo modelo de gestión política-administrativa. El nuevo Estado preserva sus funciones, y trabaja además como elemento central en la coordinación y articulación de políticas dirigidas a reducir los efectos indeseados de los fallos del mercado. § El ataque a la corrupción, la mayor participación ciudadana a través de las acciones desarrolladas por el Consejo de Desarrollo Económico y Social -creado en el Gobierno de Lula-, y la posibilidad de establecer un mayor diálogo con todos los movimientos sociales son otros contrastes. § La política exterior de Lula revaloriza la posición de los países en desarrollo, y pregona 66 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña una mayor equidad y menor pobreza a nivel global. La creación del G-20 es resultado de ese proceso de mayor participación de las naciones menos desarrolladas en los temas globales. Gracias a una política de ampliación y diversificación de mercados de destinos de las exportaciones brasileñas, China se ha convertido recientemente en el primer socio comercial de Brasil, desbancando a Estados Unidos. En resumen, el gobierno de Lula aceleró el crecimiento económico, fortificó el valor de las políticas sociales, y generó mayor confianza internacional sobre el futuro de la nación, sembrando así las bases de un sólido modelo de desarrollo económico. El rápido crecimiento derivó en un inédito proceso de inclusión social que permitió al ex presidente contar con superlativos niveles de aceptación y popularidad. IV - Perspectivas económicas y consideraciones finales En el transcurso de las últimas dos décadas Brasil ha fortalecido su predisposición para la atracción de capitales extranjeros. Sus grandes reservas energéticas, su creciente mercado interno, su desarrollada y competitiva estructura agropecuaria e industrial, el avance de ciertos sectores claves (aeroespacial, medicina, energía, turismo), y su sólido sistema financiero, entre otros factores, auguran importantes inversiones, muchas de ellas foráneas. A pesar del extenso atraso cambiario, para los próximos años se presagian fuertes ingresos de capitales externos destinados a construir infraestructura económica y social (puertos, carreteras, ferrocarriles, servicios, etc.), y a financiar otras inversiones. El Programa de Aceleración del Crecimiento favorece ese desarrollo. La elección de Río de Janeiro como sede de los próximos juegos olímpicos en 2016, sumado a la realización del próximo campeonato mundial de futbol en 2014, genera expectativas favorables acerca del futuro desempeño económico, y una mayor confianza en los beneficios de la radicación de filiales de empresas multinacionales.18 Estos factores han llevado a los gobiernos a realizar fuertes esfuerzos en pos de la llegada de nuevas IEDs, que para 2010 se estima superaron los 30.000 millones de dólares. Las actuales elevadas tasas de crecimiento de la economía de Brasil, proyectadas a veinte años, vaticinan el posicionamiento de la nación entre las cinco más grandes del mundo.19 Se juzga creciente el rol de Brasil como actor de peso en las negociaciones multilaterales referentes a temas comerciales, financieros, energéticos e incluso políticos. También esto despierta el interés del mundo empresarial que decide inversiones en su enorme geografía. La Bolsa de San Pablo es actualmente una de las más dinámicas del mundo. No obstante, existen en Brasil ciertas paradojas. En los últimos años se ha tomado mayor conciencia de la importancia de la educación para el futuro de los niños. Actualmente, y gracias a fuertes y masivos estímulos oficiales, el 98% de los niños asiste a un establecimiento educativo. Pese a los recientes grandes esfuerzos en construcción de universidades y escuelas técnicas las carencias son aún cuantiosas. Una porción importante de la población brasileña presenta debilidades en cuanto a nivel y calidad educativa. Más de 10 millones de analfabetos, y una cifra cercana de personas con serias dificultades para escribir reflejan la gravedad del problema. Otro aspecto problemático es la desigual distribución de la riqueza e ingresos. La administración Lula encaró firmemente este problema impulsando amplias reformas y programas de ayuda. Sin embargo, esta situación se percibe como no resuelta y como una demora en el proceso de desarrollo económico, hecho lo cual vislumbra nuevas políticas de redistribución del ingreso. Los avances realizados se consideran positivos pero aún insuficientes requiriendo nuevos programas y una reforma fiscal.20 Los gobiernos de Cardoso INVENIO 14 (26) 2011: 47-71 67 Diego N. Marcos - Gabriel D. Frontons y Lula implementaron importantes políticas sociales que permitieron a millones de personas gozar de mejores estándares de vida. Asistencias en calidad de subsidios y una gran cantidad de préstamos ventajosos alentaron el consumo de los más pobres. La aún alta desigualdad distributiva -una de las más elevadas del mundo- aparece como uno de los temas de agenda del reciente gobierno de Dilma Rousseff. El Estado brasileño asigna importantes recursos a los más desprotegidos para facilitar su acceso a los alimentos básicos. No obstante, las carencias en el área educativa, la falta de oportunidades junto a los altos niveles de desigualdad, propician problemas de inseguridad y de violencia, especialmente en las grandes urbes. Brasil cuenta actualmente con más de 20 millones de personas en situación de pobreza extrema. Erradicar esa pobreza es un objetivo prioritario para la presidente Rousseff. Los constantes planteos referentes a la apreciación del real, y la necesidad de reestablecer la competitividad de numerosos sectores fabriles representados por la Federación Industrial Paulista de San Pablo y la Confederación Nacional de Industrias, presagian nuevas directrices en materia cambiaria. Las deterioradas cuentas fiscales, los menores superávits comerciales, y desde 2008 el déficit de cuenta corriente, exige mayor prudencia en el gasto público, incrementar el saldo positivo de la balanza comercial y alentar el ingreso de capitales externos. Los pagos de intereses de la deuda externa sumado a los dividendos de empresas extranjeras que operan en Brasil, vuelve estructuralmente deficitaria la balanza de servicios, y exige amplios superávits en el balance comercial -a fin de no incurrir en déficit de cuenta corriente- y/o un fuerte ingreso de capitales. Pero esto último se logra con altos tipos de interés que fortalecen la moneda y desalientan la actividad. He aquí la encrucijada de la economía de Brasil. En ese marco ingresa el debate acerca del control al ingreso de divisas, las millonarias compras de dólares del Banco Central y la reforma tributaria.21 Los perjuicios ocasionados por los déficit gemelos -interno y externo-, revalorizan la importancia de sostener los equilibrios macroeconómicos básicos. El actual boom de exportaciones de materias primas y sus altos precios internacionales asociados a la recuperación de la demanda mundial, y asiática en particular, constituye una nueva oportunidad para Brasil, pero también un desafío en materia de inflación, cuyo control es fundamental para el nuevo gobierno. La tasa de inflación de 2010 del 5,9%, al superar la meta estipulada de 4,5%, anuncia una gran atención gubernamental en la dinámica de los precios y en el valor de la tasa de interés básica. Dilma Rousseff, la primera mujer en alcanzar la presidencia de Brasil, junto a Palocci, Mantega y Tombini, tienen la difícil tarea de restablecer los niveles de superávit fiscal primario, controlar la tasa de inflación y revertir la apreciación del real. Estos son algunos de los importantes retos de la flamante gestión que inició su mandato el 1 de enero de 2011. La ex mano derecha y jefe de gabinete de Lula propone la continuidad de muchas de las estrategias recientemente desarrolladas, entre ellas, fortalecer aun más el rol del Estado e impulsar un nuevo salto en materia de progreso económico. El programa oficial ‘Mia casa, Mia vida’ que prevé edificar dos millones de casas populares en cuatro años, la construcción de la represa Belo Monte, y el severo ajuste fiscal anunciado en febrero de 2011 son prueba de ello. A pesar de aquellas paradojas, las perspectivas económicas de Brasil son alentadoras. Según estos ojos argentinos la economía de Brasil “vai pra frente”. Recibido: 10/12/10. Aceptado: 14/03/11 68 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña NOTAS 1 Que se extiende durante 32 meses hasta el arribo de la crisis mexicana en 1995. 2 Los flujos de capitales se originaban en inversiones extranjeras directas derivadas del proceso de privatizaciones, y por la adquisición de empresas locales por parte de firmas multinacionales. También se produjeron ingresos en concepto de nuevo endeudamiento externo e inversiones financieras en general. 3 El Banco Central fija y divulga un intervalo para la variación del índice de precios a fin de coordinar las expectativas inflacionarias y establecer un ancla para los precios 4 Lula da Silva tras tres derrotas consecutivas en elecciones presidenciales afrontó la difícil tarea de suceder a Fernando Henrique Cardoso, un profesional de gran reconocimiento y pensador social de larga trayectoria. 5 Solo 16.000 millones de dólares en 2002, unos 6.000 millones menos que el año anterior. 6 Si se consigue cortar a tiempo la espiral de altos tipos de interés, depreciación de la moneda, incremento de la deuda, aumento del riesgo país, la depreciación podría llevar a una mejora del saldo de la balanza comercial vía mayores exportaciones y menores importaciones, y reducir la vulnerabilidad externa. Pero la carrera de los tipos de interés corriendo detrás de los tipos de cambio -que en su depreciación desestabilizan los precios-, impide alcanzar el efecto positivo de la depreciación sobre el comercio exterior. En estas circunstancias, la economía cae en un círculo vicioso en el cual la inflación carcome el efecto de la depreciación, y la inestabilidad y la incertidumbre se instalan en la economía con los consiguientes efectos recesivos. La existencia de muchos precios internos atados a la tasa de cambio genera inflación, siendo insuficiente la política monetaria de metas de inflación. 7 El camino inverso, es decir aplicar políticas fiscales expansivas, requiere mayor nivel de financiamiento y alzas en los tipos de interés (para atraer fondos) que generan más deuda pública y niveles de riesgo. Así se alentaría la expansión económica presente pero a costa de la inestabilidad cambiaria y de precios en un contexto de mayor dependencia del endeudamiento. 8 Las modificaciones fiscales y previsionales de fines de año contribuyeron a mejorar la percepción de los mercados financieros internacionales, permitiendo una mejora en el acceso al financiamiento externo, y un retroceso de los niveles de riesgo país a menos de 500 puntos básicos. 9 El economista italo-brasileño Guido Mantega, Ministro de Hacienda desde marzo de 2006, y referente del Partido de los Trabajadores, es considerado uno de los principales mentores del reciente éxito de la economía brasileña. 10 Brasil aplica una interesante regla para la actualización de los salarios mínimos al contemplar el crecimiento económico de los últimos dos años y la tasa de inflación. 11 En 2008 la inversión resultó ser el componente de la demanda agregada de mayor alza (13,8%), seguido por el gasto público (5,6%), y el consumo privado (5,4%). Los sectores de mayor dinamismo fueron: el financiero (9,1%), los servicios de información (8,9%) y la construcción (8,0%). La tasa de desempleo promedio mensual cae del 9,2% al 7,9%. 12 Entre otras señales de la crisis se menciona, por ejemplo, el incremento en los ratios de morosidad que treparon de 3% en 2008 a 4,5% a fines de 2009. No obstante, los mismos se consideran relativamente bajos y menores a los padecidos en anteriores episodios de crisis. Los préstamos externos sí sufren un fuerte retroceso. 13 Cuenta con la entidad bancaria privada más importante de Latinoamérica (Itaú-Unibanco), y con el gigante estatal Banco do Brasil, el mayor de la región según total de activos. Bradesco y Caixa Económica Federal secundan la lista de entidades privadas y públicas más grandes. 14 Por consideraciones estratégicas el sector de la construcción mantiene algunos estímulos fiscales. 15 La entidad incrementó el monto de sus préstamos de 35.000 millones de reales en 2003 a 137.000 millones en 2009. Los sectores de infraestructura e industrial recibieron más del 70% del total créditos otorgados. 16 Existe un fuerte debate parlamentario asociado a la regulación de la explotación de las nuevas reservas petrolíferas y la distribución regional de las regalías. También es intención del gobierno INVENIO 14 (26) 2011: 47-71 69 Diego N. Marcos - Gabriel D. Frontons conformar un millonario fondo estatal destinado a financiar programas sociales, educativos, productivos, y de apoyo al desarrollo del sistema científico-tecnológico. 17 Los partidarios de Cardoso recuerdan que el origen de estas políticas se remontan a su gobierno, sin embargo, Lula las expandió ampliamente. El programa ‘Bolsa Familia’ es considerado por el propio Banco Mundial como uno de los programas de protección social más efectivos del mundo, tanto por ayudar a 20 millones de personas a salir de la pobreza entre 2003 y 2009, como por reducir las desigualdades de ingresos. No obstante, la pobreza es aún un problema acuciante. 18 Ambas designaciones ponen de manifiesto la confianza internacional en Brasil, sus capacidades y potencialidades. 19 El escaso ritmo de expansión de las economías europeas sustenta tales proyecciones. 20 La población de Brasil soporta una importante carga fiscal en general pero desbalanceada. Los impuestos indirectos, incluso a los alimentos, alcanzan una incidencia muy importante en los grupos de menores recursos. http://funcex.com.br/ 21 Hasta 2007 Brasil aplicó un impuesto del 0,38% a las transacciones financieras. BIBLIOGRAFÍA Arahuetes García, Alfredo “La economía de Brasil en el primer año de Lula: la búsqueda de la estabilidad y la lucha contra los desafíos de la inserción internacional”. Real Instituto Elcano, 2004. Bichara, Julimar da Silva “La economía brasileña durante el gobierno de Lula da Silva” Revista ICE Brasil. 2003, Nº 810. Bresser-Pereira, Luiz C. “El nuevo desarrollismo y la ortodoxia convencional” Revista Sao Paulo em perspectiva 2006 review. Centro de Economía Internacional “Revista del CEI. Comercio e Integración” Abril de 2010 - Nº 17. Argentina. http://www.iigg.fsoc.uba.ar/sepure/Docencia/titrad/Bresser%20Pereira_The%20new%20developmentalism.pdf Comisión Económica para América Latina y el Caribe (2010) “Balance preliminar de las economías de América Latina y el Caribe”. Corrêa, Daniela y Tadeu Lima, Gilberto “Internacionalização produtiva de empresas brasileiras: caracteri­zação geral e indicadores” Informações fipe. 2007. Cunha, Andrea y Bichara, Julimar da Silva “La economía del gobierno de Lula: cambio o continuidad” 2002, http://www.ucm.es/info/ec/jec9/pdf/A07%20-%20Moreira%20Cunha,%20Andr%E9%20y%20Silva%20Bichara,%20Julimar.pdf Ferraz, Joao C., Pires de Souza, Francisco E. y Kupfer, David. “Trayectorias para el desarrollo brasileño”. Boletín informativo Techint 333. 2010, Argentina. Frontons, Gabriel y Bellina, Jorge “Inversiones bilaterales y complementariedad comercial. El caso ArgentinaBrasil”. Revista Invenio, 2010, N° 25. Año 13. Argentina. Instituto de Pesquisa Econômica Aplicada “Brasil em desenvolvimento. Estado, planejamento e políticas públicas. Série Brasil: o estado de uma nação”. 2009, Volume 2, Brasília. Kupfer, David; Ferraz, Francisco E. y Carvalho, Laura. “50 años en 50. El largo y sinuoso camino del desarrollo industrial de Brasil”. Boletín informativo Techint 330. 2009, Argentina. Malan, Pedro. “El desafío de la globalización en el nuevo contexto global: Brasil”. Boletín Techint 318. 2005. Argentina. Ministerio de Relaciones Exteriores “Como exportar a Brasil” Presentación en http://www.braziltradenet.gov.br/Archivos/Publicacoes/Manuais/PubcexBrasilE.pdf Ministerio de Relaciones Exteriores (2009) “Panorama de la economía brasileña” Presentación Embajada de Brasil, Argentina. Rodrígues de Paula, Luiz F. (2003) “Una alternativa en materia de política económica para Brasil post Fernando E. Cardoso”, Dialogo Político, N° 2, Julio 2003. http://www.ie.ufrj.br/moeda/pdfs/una_alternativa_en_materia_de_politica_e%20conomica.pdf Sáinz, Pedro y Calcagno, Alfredo. “La economía brasileña ante el Plan Real y su crisis”. CEPAL, temas de Coyuntura, serie 4, 1999. Sáinz, Pedro y Calcagno, Alfredo. “En busca de otra modalidad de desarrollo”, Revista de la CEPAL Nº 48, Santiago de Chile, 1992. 70 INVENIO 14 (26) 2011: 47-71 Una mirada argentina a la economía brasileña FUENTES DE INFORMACIÓN - Asociación Latinoamericana de Integración. - Banco Central do Brasil. - Banco Interamericano de Desarrollo. - Banco Nacional de Desarrollo Económico y Social - Centro de Estudios Internacionales - Ministerio de Relaciones Exteriores. Argentina. - Comisión Económica para América Latina y el Caribe. - Confederación Nacional de la Industria. - Diario El Cronista - Argentina. - Diario El País - España. - Federación de Industrias de San Pablo. - Fundación Getúlio Vargas. - Instituto Brasileño de Estadística y Geografía. - Ministerio de Desenvolvimiento, Industria y Comercio Exterior. - Ministerio de Fazenda. - Ministerio de Trabajo y Empleo. INVENIO 14 (26) 2011: 47-71 71 72 Tema de actualidad LA “BATALLA DE LAS MONEDAS” Y EL PRECIO DE LOS ALIMENTOS Rodolfo C. Rossi*1 Introducción La importancia del dólar americano como moneda prominente internacional no estaría, por ahora, en cuestionamiento, pero la introducción de una enorme cantidad de dinero por parte de la FED - entidad encargada de la política monetaria de EE.UU. - para estimular el consumo, a través de una técnica conocida como Quantitative Easing (QE), que consiste en utilizar dólares recién creados para comprar títulos de largo plazo de deuda pública estadounidense, estaría generando serias reacciones en el mundo. Los nuevos dólares en el mercado contribuyen a devaluar la moneda estadounidense frente al resto de las monedas internacionales, lo que favorece a sus propias exportaciones y estimula el crecimiento de la actividad económica. Estados Unidos estaría llevando, consecuentemente, una auténtica devaluación competitiva, o sea una disminución programada de la cotización de su moneda, para favorecer la venta de sus productos en el exterior. Racionalmente, con la expansión monetaria anteriormente referida, EE.UU. debería estar sufriendo el “impuesto inflacionario”. Ello no está ocurriendo. Tampoco, ha de ocurrir en el corto-mediano plazo. EE.UU. solo tendrá inflación cuando reduzca su nivel de desempleo y el nivel de inversión no sea suficientemente elevado para satisfacer la fuerte demanda de bienes y servicios. ¿Cómo puede ser eso? Veamos. El privilegio de ser el único dueño de la fábrica de la “moneda patrón” EE.UU. tiene el privilegio de tener una moneda prominente (US$) heredera del patrón oro. El financiamiento del desequilibrio financiero (fiscal y externo) que presenta EE.UU., generalmente es realizado por todos los países del mundo, que comprando US$ “aumentan su encaje deseado”. En efecto, EE.UU. consume, invierte, importa siempre sobre sus niveles de ingreso. Atento el importante déficit de Cuenta Corriente del Balance de Pagos (desahorro externo) que mantiene EE.UU. desde hace muchos años, el sistema financiero transfiere actividad y crecimiento a los demás países del mundo que presentan como contrapartida, superávit de Cuenta Corriente en sus Balances de Pagos. Cuando el desequilibrio externo de EE.UU. se excede en más del 3,50 % del PIB de ese país, en el año -que es la “monetarización del crecimiento promedio mundial”-, EE.UU. transfiere inflación al mundo, por la abundancia de dólares. Por tal hecho, rigurosamente, los países del mundo se ven en la necesidad de comprar * Rodolfo C. Rossi es doctor en Ciencias Económicas. Ha sido Presidente del Banco Central de la República Argentina. Invenio agradece esta nota enviada en febrero de 2011. INVENIO 14 (26) 2011: 73-77 73 Rodolfo C. Rossi dólares americanos para evitar la revalorización de sus monedas y, con ello, se beneficia EEUU, que adicionalmente “licua” su endeudamiento. China, actualmente, Japón, países de Europa, con anterioridad, son ejemplos del “entrampamiento” en el financiamiento fiscal que realiza EE.UU. desde 1946, fecha del Acuerdo de Bretton Woods, cuando el dólar estadounidense reemplazó técnicamente al patrón cambio oro. Desde entonces, y con mayor determinación desde agosto de 1971 –cuando el US$ se hizo inconvertible al oro –, la política monetaria de EE.UU. contribuyó a la inflación en el mundo, por su efecto directo sobre los precios y sobre la oferta monetaria. La política fiscal y monetaria que hace necesaria la desvalorización del dólar, también coadyuva a la inflación en el extranjero al proporcionar mayores incentivos a los flujos de capital especulativo que abandonan el dólar. La abundancia de dólares en el mundo y el mejoramiento de los términos de intercambio de los países productores de materias primas Pero la abundancia de dólares tiene, también, otras consecuencias importantes. Constituye un factor coadyuvante del aumento del precio de las materias primas, cuya oferta, generalmente, es más inelástica que la fabricación de “moneda papel”. Los países productoras de materias primas se ven francamente beneficiados, ya que si bien sufren del aumento en el precio de sus producciones, el nivel de exportaciones en US$ de las mismas, aumenta y estimula su ingreso y beneficio. No ocurre lo mismo con otros productos -generalmente industriales- no exportables. Revalorizadas las monedas locales frente al dólar estadounidense, sus producciones sufren la incompetencia, en su referencia a las producciones de EE.UU. y también de China, país que mantiene, prácticamente la relación cambiaria fija de su moneda, el yuan, con el dólar estadounidense. Al respecto, no obstante la importantísima capitalización de China y su continuada reducción de costos por eficiencia, en los últimos años, la revaloración del yuan, en su relación al dólar estadounidense, fue de solo el 3,30 %, con lo que la producción industrial del país asiático se hizo sumamente competitiva en el mundo. Consecuente con ello, el sector industrial de los países que revalúan su moneda -para no comprar dólares y mantener una sana flotación cambiaria de sus monedas- sufren fuertemente en un vasto sector demandante de mano de obra, quedando generalmente fuera del mercado internacional y también doméstico. La Organización de las Naciones Unidas para la Agricultura y la Alimentación (FAO), en su más reciente análisis sobre las perspectivas de los alimentos básicos para el año 2011, presagia una volatilidad extrema de los precios de los mercados agrícolas, sobre todo de los cereales, con amenazas, incluso, a la seguridad alimentaria global. Al respecto, arroz, trigo, azúcar, cebada, y carne, entre otros productos básicos, continuarían con los precios altos e incluso con significativos aumentos. Una mayor hambruna por carestía de los precios para los países del Tercer Mundo, será uno de los efectos visibles de la “abundancia de US$” a las puertas del planeta, la que también impactará en los bolsillos de familias y trabajadores del primer mundo y de los países emergentes. Por otra parte, sequías, inundaciones e incendios son algunos de los fenómenos que han afectado a las actuales cosechas y las respectivas reservas estratégicas de cereales, en importantes países productores como Rusia, Ucrania, Australia y también Argentina. 74 INVENIO 14 (26) 2011: 73-77 La “batalla de las monedas” y el precio de los alimentos A la “floja” campaña de los cereales se le han sumado grandes movimientos financieros especulativos, que acentúan la presión y volatilidad de los principales mercados. Otros análisis aducen que la actual firmeza de los precios también refleja el crecimiento de la demanda por una mejor perspectiva económica en países emergentes, sobre todo en China e India, donde se concentra casi un tercio de los habitantes del planeta. Todo ello se adiciona a las distorsiones monetarias comentadas en los tipos de cambio, provocada por la “debilidad del US$” y la evolución del euro y del yuan. Las quejas y las acciones de los países que adoptan medidas para prevenir la apreciación de sus divisas frente al US$ ¿Qué pasa con aquellos países que no devalúan sus monedas al compás de la desvalorización del US$? Es de señalar que el país que no devalúa su moneda, técnicamente sufre un estancamiento o caída del nivel de sus exportaciones y un aumento de sus importaciones. Su tasa de interés se eleva y con su moneda revalorizada en dólares, es objeto de ingreso de capitales del exterior por el arbitraje consiguiente (tasa positiva en US$ y revalorización de la moneda) La desvalorización del US$ “invita a una respuesta de los competidores”. Y en virtud de ello, hay una migración creciente de los sistemas de libre flotación (la desvalorización del US$, se correspondería con una revalorización de la moneda doméstica) a otros sistemas, para defender la producción y el trabajo local. Frente a la depreciación del dólar estadounidense, un buen número de países está aplicando medidas intervencionistas y proteccionistas, que incluso son ajenas a sus políticas generales macroeconómicas. Brasil, Israel, Chile, Colombia, Corea podrían ser ejemplos de tales políticas para frenar la apreciación de sus monedas. Brasil, invadido por el flujo de capitales de corto plazo y fortalecido el real en un 37 %, en los dos últimos años, está en la aplicación de controles de capital, cambios en la regulación financiera e incrementando la acumulación de reservas internacionales. Incluso, recientemente, anunció un impuesto del 60 % sobre las posiciones “cortas” de los bancos en dólares. Sin embargo, la presión inflacionaria por la mayor oferta monetaria y alto nivel de crecimiento económico, determinó que recientemente, su BC elevara su tasa de referencia SELIC (a 1 año) al 11,25 %. Queda el interrogante sobre si tal aumento será efectivo frente a la creciente inflación o será un factor adicional de atracción de capitales especulativos. Israel fue el primer país en subir la tasa de interés en el 2009, y su Banco Central compró permanentemente dólares en el mercado cambiario, para impedir una sobre apreciación del shekel, estrategia que le resultó muy onerosa. Actualmente, considera establecer controles a la entrada de capitales. El Banco Central de Chile gastará US$ 12.000 millones, para tratar de debilitar la cotización de la moneda nacional, que se ha situado en sus niveles más altos frente al dólar, en los últimos tres años. El hecho de que el efecto “dominó” haya llegado a la economía andina -quizá la más ajustada al libre mercado de las emergentes-, hace aumentar la inquietud por un problema para el que hoy por hoy, nadie parece tener o proponer una solución satisfactoria. INVENIO 14 (26) 2011: 73-77 75 Rodolfo C. Rossi La zona del euro y los tipos de interés Pero hay más. Los últimos datos de la inflación de la zona del euro, serían preocupantes. El presidente del BCE manifestó, tras la última reunión de la autoridad monetaria, que se hará todo lo que sea necesario para evitar la escalada de la inflación. Y si el BCE sube los tipos de interés antes que la FED (Reserva Federal) ello implicará más firmeza para el euro, con buena recuperación en este año y por contrapartida, un “aflojamiento del US$”. Pero, mientras tanto, y como paradigma de la contradicción, los “no intervencionistas” europeos, reclaman por precios máximos para los productos alimenticios, en un ambiente de desconcierto. China, la diversificación de sus inversiones y la probable convertibilidad del yuan Por otro lado, China disminuye la adquisición de bonos estadounidenses. A medida que la crisis ingresa a una segunda fase de endeudamiento soberano, ese país orienta en forma muy segura, sus adquisiciones en la minería, petróleo y acumulación de oro. Sus inversiones están dirigidas actualmente, con mayor fuerza hacia Europa (compra de bonos de Grecia, Portugal, España y otros países) y también África (cuenca del Río Congo) y el sudeste asiático. Por supuesto, esto conlleva a la disminución relativa de sus inversiones en bonos estadounidenses. Pero el foco de atención de EE.UU. con su moneda US$, prominente y en dispendio, debería ser la reciente decisión de China de permitir que el yuan – cuyo valor es estrictamente controlado por el gobierno –, se convierta en una moneda internacional que pueda utilizarse en el comercio y en las inversiones. Al respecto, China, segunda mayor economía nacional del mundo, reconoce que como potencia comercial global, debería tener una moneda global. Llegado el momento, un yuan internacional podría surgir como un depositario de valor similar al dólar, el euro o el yen. No cabe duda que la internacionalización del yuan será una tarea mayúscula y larga en el tiempo, ya que su negociación actual empalidece frente a la convertibilidad de otras monedas, cuyos países o zonas tienen sistemas de conducción política aprobados y conocidos (no obstante algunos deslices existentes). Y, por otra parte, EE.UU. en lo económico, no solo es su extraordinaria vigencia territorial, sino su fortaleza “off-shore”, a través del poderío de sus empresas que producen, comercializan y acumulan en US$, moneda patrón. Todos estos antecedentes hacen suponer que este año y, probablemente el siguiente, estará signado por la continuidad de la “debilidad del dólar” y por las correctas aseveraciones de la FAO, en su referencia a la firmeza de los productos básicos, fundamentalmente alimenticios. De todas maneras, EE.UU., en algún momento, deberá disminuir su desequilibrio fiscal y externo excesivo y, en un futuro mediato, aumentará su tasa de interés de referencia, para realmente convalidar la vigencia de su moneda “patrón”, incuestionablemente. Argentina y el año 2011 En cuanto a nuestro país, del análisis del reciente Plan Monetario del Banco Central, aún no presentado al Congreso, se desprendería que el nivel inflacionario real superaría al registrado en el año 2010 (estimación privada: 26,50 %), con un aceptable buen crecimiento 76 INVENIO 14 (26) 2011: 73-77 La “batalla de las monedas” y el precio de los alimentos (estimación 6,1 %), fruto de un positivo saldo de comercio exterior, elevado nivel de consumo interno y necesaria alta inversión. La elevada inflación será consecuencia del pago de los vencimientos externos (US$ 7.504 millones) con reservas del Banco Central de la República Argentina, que se repondrán durante el corriente año, por compras de divisas que realizará la Institución con emisión monetaria. Está bien el cumplir con los pagos que hay que realizar. Mejor hubiera sido que los mismos se realizaran con fondos del superávit fiscal, que lamentablemente, no se obtendrá. Mientras tanto seguiremos “aprovechando” la debilidad del dólar estadounidense y la revalorización del real brasileño, aunque con una mayor distorsión de precios relativos, por la inevitable “inflación interna en US$”, que deberemos soportar. INVENIO 14 (26) 2011: 73-77 77 78 Innovación empresaria en Argentina Difusión de TICs en las PyMEs -Segunda parteJuan Carlos Scarabino - Mariana Belén Colonnello*1 RESUMEN: La idea generadora del presente artículo es continuar con el análisis de la realidad del mercado actual, donde las empresas enfrentan desafíos cada vez más difíciles y su éxito muchas veces depende de su visión y empuje para innovar y obtener ventajas que ofrecen las nuevas tecnologías. En la mayor parte de los casos, no se sabe la manera correcta de acceder a ellas para obtener beneficios. Se concluye que los proveedores de TICs conocen las posibilidades de aportar a la creación de ventajas aplicando las mismas, alineadas a la estrategia de las empresas clientes, pero esto no es utilizado como argumento de venta a la hora de comunicar. Solamente las TICs son tomadas como una adaptación al mercado que les permite sobrevivir. Palabras clave: innovación empresaria - PyMEs - TICs. ABSTRACT: Business innovation in Argentina. ICT introduction in SMBs - Part two The present paper aims at continuing the analysis of current market reality, where businesses have to face increasingly difficult challenges; consequently, their success depends on their vision and thrive to innovate and derive advantages from new technologies. Unfortunately, most businesses are not aware of the correct way to access such technologies to obtain benefits. The paper concludes that ICTs providers, although familiar with the possibilities of ICT as advantage generators in line with client business strategies, do not use ICT potential as a sales argument. ICTs are regarded merely as a necessary adaptation to the market to enable business to survive. Key words: business innovation - SMBs - ICTs Introducción La presente parte de la investigación hace hincapié en la oferta de TICs en Rosario y al grado de acceso que poseen las empresas a este tipo de tecnología. Con basamento en los supuestos metodológicos tomados como punto de partida, se centra en el método a utilizar, * Juan Carlos Scarabino es Doctor de la UNR. Contador Público (UNR), Analista de Sistemas (UTN) y Especialista en Costos y gestión empresarial de IAPUCO, entidad de la cual es miembro de su Comisión de posgrado. Es investigador categorizado. Ha recibido siete premios de nivel nacional. En el año 2003 se hizo acreedor de un Diploma de Reconocimiento de la Honorable Cámara de Diputados de la Nación como premio a su labor científica. Profesor de UCEL. Es autor del libro “Enfoque Lógico en Sistemas“, que ya lleva su segunda edición. Ha efectuado diversas publicaciones en portales virtuales internacionales. Actual Doctorando en Contabilidad. E-mail: [email protected]. Mariana Belén Colonnello es Licenciada en Administración de Empresas egresada de la UNR. Recientemente ha finalizado el cursado de la Especialización en Comercialización en la misma Institución. Se desempeña como Consultora en Gestión Organizacional y Comercial. E-mail: [email protected] Han colaborado activamente los alumnos avanzados de la carrera de Contador Público de UCEL: Anabel Blando y Mauro Forlín. INVENIO 14 (26) 2011: 79-90 79 Juan Carlos Scarabino - María Belén Colonello que es de fundamental importancia para lograr el objetivo propuesto, considerando que no es conveniente limitarse solamente, si bien es valioso, a lo instrumental. Es menester recalcar, por lo tanto, la construcción metodológica, que ofrece distintos caminos, entre los cuales se encuentra el método cuantitativo, también llamado lógica hipotético-deductiva, y el cualitativo, también conocido como lógica inductiva-interpretativa. De obrar de manera convencional, la construcción del objeto de conocimiento se haría mediante lógicas inmutables en cuanto al razonamiento de los fenómenos que se dan en la realidad, que no corresponderían a la manera en que el fenómeno se construye y se va dando en la propia realidad del objeto y del sujeto que lo piensa. Es que la esquiva realidad se compone, tanto de los fenómenos que se dan en ella, como de los sujetos que la toman y le dan significación y sentido a la misma y a sí mismos. Esto lleva a pensar que si se pretende investigar en ciencias sociales, se deben dejar de lado los parámetros que pueden orientar hacia una lectura estática de la realidad. Al respecto, resultan útiles las conclusiones del profesor Paul E. Landes de la Universidad de Harvard que destacó que “no hay tecnologías neutras en la historia de la humanidad que generen resultados automáticos y asegurados. Las grandes revoluciones tecnológicas abren oportunidades y nuevos ciclos que las sociedades deben reconocer y aprovechar, pero depende de ellas que utilicen creativamente estos paradigmas emergentes en la construcción de su futuro. Las innovaciones sociales o la reorganización social que las nuevas tecnologías generan son tan importantes o más importantes que los propios cambios tecnológicos”1. En el presente informe, se exponen las primeras conclusiones de un trabajo de tipo exploratorio, sobre la realidad de las PyMEs argentinas situadas en Rosario, respecto al estado en que se encuentra el proceso de innovación empresaria y al tipo de avance con el que se cuenta en lo que respecta a la implementación de TICs. Este primer abordaje se enfoca en el grado de acceso a este tipo de tecnología de las empresas estudiadas, con encuestas a proveedores de las mismas. En una segunda etapa, se intentará establecer si existe, por parte de las PyMEs a encuestar, una búsqueda concreta de ventajas comparativas por medio de la incorporación de tecnología y su alineación a las estrategias del negocio. Trabajo de campo: Modelo de Cuestionario A fin de ahondar en la propuesta se ha elaborado una encuesta, cuyos resultados serán completados y sistematizados oportunamente. Nunca sabremos lo que perdemos ignorando... OFERTA DE TICs Y SERVICIOS RELACIONADOS EN ROSARIO En el marco de una investigación desarrollada por profesionales y alumnos de la UCEL, cuyo objetivo principal es analizar si las Tecnologías de Información y Comunicación constituyen una de las causas para que las PyMEs argentinas ubicadas en Rosario creen ventajas competitivas, se ha diseñado el presente cuestionario, a fin de poder conocer el grado de accesibilidad a estas herramientas, que poseen las PyMEs. Por ello, se considera importante estudiar la oferta de TICs en Rosario. 80 INVENIO 14 (26) 2011: 79-90 Innovación empresaria en Argentina. Difusión de TICs en las PyMEs Esta guía de preguntas pretende analizar los productos, servicios y modo de abordaje comercial de su empresa y así aportar a la investigación introducida en el párrafo anterior. Para ello, se le mostrarán una serie de preguntas relativas a: l qué TIC y/o servicios relacionados comercializa su empresa l como está articulada la oferta en su negocio La consulta se presenta con algunas preguntas abiertas y una serie de afirmaciones, donde usted debe señalar aquellas que sí se dan en su empresa. Además se brinda la opción de agregar alguna alternativa que no esté contemplada en el listado. El tiempo que demandará completar el cuestionario será de aproximadamente 10 minutos. 1 - CONOCIENDO A LA EMPRESA DATOS GENERALES Nombre de la empresa (opcional): Año de fundación: Ubicación: Rubro/Industria: Dotación de personal fijo: Puesto de la persona que completará el cuestionario: ENFOQUE ESTRATÉGICO DE LA EMPRESA Señale con la palabra “SI” el enfoque que más se ajusta a las prioridades de su empresa. Reducir costes • Reducir el nivel de costes de producto actual, para brindar un menor precio al cliente. Diferenciarse • Desarrollar nuevas tecnologías de proceso. • Entender mejor las necesidades de cliente. • Desarrollar nuevos productos/servicios. • Brindar un mejor servicio. Enfocarse en determinado mercado • Especializarse en un segmento de clientes específico. INVENIO 14 (26) 2011: 79-90 81 Juan Carlos Scarabino - María Belén Colonello 2 - LA EMPRESA Y SU OFERTA COMERCIAL A) B) C) D) ¿Qué tipo de producto/servicio principal comercializa su empresa? ¿Quiénes son sus clientes? ¿Por qué lo eligen sus clientes? Qué necesidades les están satisfaciendo? ¿Considera que su empresa posee alguna característica que la distingue de sus competidores? SI/NO. ¿Cuál? E) ¿Qué bienes, competencias, capacidades o habilidades considera que lo han llevado a crear esa ventaja sobre sus competidores? F) ¿Considera que empresas clientes son conscientes de que pueden crearse ventajas competitivas a partir de la implementación de TICs alineadas estratégica mente con su negocio? G) ¿Quiénes de los miembros de las empresas clientes son los que se contactan para la compra de su producto o servicio? H) ¿De qué manera promocionan o comunican su producto/servicio al mercado objetivo? ¿Existe alguna estrategia en particular? I) ¿Algunas PyMEs consideran que la implementación de determinadas TIC, ha abierto el panorama para implementación de otras ¿Cree que esto se debe a la necesidad de internalizar una tecnología para darse lugar a conocer y adquirir otras? Han utilizado una estrategia de ofrecer un producto y luego de que sea adquirido e internalizado ofrecer otro? J) ¿Considera que la oferta Rosarina de TICs y servicios relacionados es lo suficientemente variada y con buena calidad percibida por el cliente en comparación con la oferta que puede encontrase en CABA? K) ¿Qué rubros o necesidades considera mal atendidos o no atendidos? L) ¿Qué nivel de difusión e implementación de TICs cree que posee las PyMEs Rosarinas? ALTO MEDIO BAJO M) ¿Considera que alguna de estas causas han retrasado o impedido la implementación de TIC o servicios relacionados en las PyMEs Rosarinas? (indique “SI” todas las causas que considera se ajustan a la pregunta antedicha) o o o o o o o o o Costos de adquisición, desarrollo y/o mantenimiento son altos Los Bienes y/o servicios vendidos no se prestan para ser comercializados on-line Los proveedores no están preparados para su uso Los clientes no están preparados para su uso Falta de personal capacitado para desarrollarlas, mantenerlas o utilizarlas Los beneficios no están claros Resistencias al cambio tecnológico por parte del personal de la empresa Prefiere mantener el modelo de negocio actual Ha realizado demasiadas inversiones en otros rubros N) ¿Cuál es la visión respecto al futuro de su empresa? ¿Tiene pensado que se atenderá otros clientes, nuevas necesidades de los clientes actuales, etc.)? O) ¿Desea agregar algo más? Fecha: …………………… _____________________ Firma del encuestado Se le agradece haber brindado parte de su tiempo y participado en la presente encuesta 82 INVENIO 14 (26) 2011: 79-90 Innovación empresaria en Argentina. Difusión de TICs en las PyMEs Resultados del trabajo Perfil de empresas relevadas w Tamaño: PyMEs w Ubicación: Rosario (unas pocas con sucursales en otra ciudades y países) w Antigüedad: De las 9 empresas: ü 1 tiene casi 60 años de antigüedad ü 3 entre 20 y 30 años ü 4 entre 10 y 15 ü 1 no se posee este dato w Actividades: las empresas relevadas, pertenecen a la Industria TIC, pero dentro de esta los rubros específicos de las mismas son: ü Comercialización de Productos de Informática/Computación ü Comercialización de Productos de Electrónica/Tecnología ü Asesoramiento en informática y tecnología ü Desarrollo y comercialización de software ü Comercialización sistemas de seguridad ü O combinación de ellos Perfil de los encuestados ü En 5 empresas la encuesta se realizó directamente al dueño/socio gerente ü En un caso al gerente de tecnología ü En otro al gerente comercial ü Y en otros 2 a empleados administrativos Aspectos comerciales y estratégicos w Enfoque estratégico ü2 empresas alegaron perseguir el fin de “reducir costes” ü5 manifestaron que buscan “diferenciarse” ü2 se enfocan en “un mercado específico” w Productos/servicios comercializados: üSoftware de gestión üSoluciones de negocios para Administración de la relación con los clientes (CRM) üProductos de informática üProductos de electrónica üSistemas de seguridad üServicio técnico üAsesoramiento w Clientes: Se observa una cierta dificultad, en la mayoría, a la hora de definir detalladamente el target de clientes. En la mayoría de los casos se identifica si se vende a empresas o clientes hogareños o a ambos. Sólo en dos casos se identifica el tamaño de empresa al que se dirigen, y en un solo caso, al rubro o actividad de las mismas. INVENIO 14 (26) 2011: 79-90 83 Juan Carlos Scarabino - María Belén Colonello De los 9 encuestados, 7 atienden tanto empresas como clientes hogareños y 2 sólo a empresas. w Percepción respecto al motivo por el cual son elegidos por sus clientes/necesidades que satisface: La mayoría en este punto hizo una larga descripción de diferentes aspectos brindados al mercado que creen son valorados por el cliente. En dos casos, se menciona el hecho de crear relaciones duraderas con el cliente y sólo en uno la búsqueda de satisfacción de los mismos. No se manifiesta, de manera espontánea, como motivo de elección, la contribución de productos y servicios que ayuden a la creación de ventajas competitivas a sus clientes. A continuación se resumen los aspectos mencionados por cada empresa: ´ w Características distintivas Sólo 2 de las empresas manifestaron no poseer características que las distingan de sus competidores. Las demás enunciaron varios aspectos que pueden resumirse así: 84 INVENIO 14 (26) 2011: 79-90 Innovación empresaria en Argentina. Difusión de TICs en las PyMEs Pueden destacarse valores como la confianza y responsabilidad, así como también la atención al cliente w Competencias, capacidades o habilidades que se considera han llevado a la empresa a crear esa ventaja sobre sus competidores Las empresas atribuyeron la ventaja a varios factores, que pueden agruparse en aquellos relacionados con las personas que trabajan en la organización y otros más generales. En ningún caso relacionan la creación de ventajas a aspectos vinculados al avance tecnológico. A continuación se exponen los factores relacionados al equipo de trabajo, que las empresas han considerado vitales para diferenciarse: INVENIO 14 (26) 2011: 79-90 85 Juan Carlos Scarabino - María Belén Colonello Respecto a otras capacidades, habilidades o competencias más generales a las que se les atribuye la creación de ventajas sobre los competidores, se pueden citar: Percepción respecto a TICs w Conciencia de las empresas clientes de que pueden crearse ventajas competitivas a partir de la implementación de TICs alineadas estratégica mente con su negocio En casi todos los casos los entrevistados respondieron que sí consideran que sus clientes son conscientes de que pueden crear ventajas a partir de la implementación de TICs alineadas a su estrategia. Sólo en una respuesta se cree que solamente algunos clientes lo están. Las justificaciones respecto a por qué lo creen, se enfocan más a la exigencia de adaptarse al mercado, al confort y a la necesidad de herramientas de trabajo, que a la estrategia de posicionamiento. Podría decirse que no hay una percepción de las capacidades diferenciadoras de las TICs utilizadas estratégicamente, sino como herramientas útiles para trabajar. w De la adquisición de TICs en las empresas y la promoción de las mismas Las empresas coinciden que quien contacta al proveedor para la adquisición de TICs es el dueño o gerente en pequeñas y medianas empresas, o el encargado del sector relacionado en empresas un poco más grandes. Dos de las empresas encuestadas alegaron no realizar acciones de comunicación. Las que sí lo hacen utilizan las formas que se detallan: ü ü ü ü 86 Marketing relacional Referencias Participación de eventos de la industria Páginas de Internet INVENIO 14 (26) 2011: 79-90 Innovación empresaria en Argentina. Difusión de TICs en las PyMEs ü ü e-mails Radio/TV Puede decirse que si bien se tiene claridad respecto a que el “decididor” de la compra de tecnología pertenece a niveles estratégicos de la empresa, no se posee certeza de que la promoción sea planeada enfocándose a estos mismos o a los usuarios de la misma. Por ello, se concluye que podría alinearse la comunicación a la gerencia, para que la implementación de TICs sea vista como una decisión de tipo estratégica, más que como una acción reactiva a los avances de mercado o la competencia. Las empresas encuestadas consideran que la implementación de determinadas TICs ha abierto el panorama para la implementación de otras y que es necesario internalizar una tecnología para dar lugar a conocer y adquirir otras. Por lo tanto utilizan la estrategia de ofrecer un producto y luego de que sea adquirido e internalizado, ofrecer otro. Oferta de TICs en Rosario Seis de las empresas encuestadas considera que la oferta rosarina de TICs y servicios relacionados es lo suficientemente variada y de buena calidad, percibida así por el cliente en comparación con la oferta que puede encontrar en CABA u otras ciudades grandes. También manifiestan que puede competirse en precio. Respecto a la existencia de rubros atendidos deficitariamente, algunas empresas respondieron que desconocen si los hay. Muchas hicieron énfasis en que en algunos casos debería reforzarse la atención al cliente y también el servicio de post-venta. Difusión de TICs en PyMEs de Rosario Respecto a qué nivel de difusión e implementación de TICs se cree que poseen las PyMEs rosarinas, 4 de las empresas contestaron que el nivel de difusión es medio, 3 que es bajo y sólo 2 que es alto. Grado de difusión e implementación de TIC en PyMEs rosarinas: INVENIO 14 (26) 2011: 79-90 87 Juan Carlos Scarabino - María Belén Colonello Algunas de las causas que se considera han retrasado o impedido la implementación de TICs o servicios relacionados en las PyMEs rosarinas son las siguientes (ordenadas por cantidad de empresas que las manifestaron como posibles): Las respuestas más valoradas reflejan que los proveedores de TICs no ven preparado al mercado para su difusión a un ritmo más acelerado, tanto desde el punto de vista de los costos, como de la madurez tecnológica de los clientes y la capacitación del personal en las empresas. Conclusiones inferidas de la encuesta Como se ha establecido en la introducción, se ha optado por la metodología de diseño no experimental, porque no se pudo determinar una solución o tendencia de comportamiento concreto, sino una serie de reflexiones y/o conclusiones respecto al tema planteado. Por lo tanto no se ha buscado determinar un modelo óptimo de difusión y de alineación de las PyMEs a las TICs, sino que el presente es solamente un intento de exponer una investigación que sirva de base para conocer el estado de este proceso en la realidad existente. El muestreo fue de tipo no probabilístico por conveniencia, sobre un total aproximado de 40 empresas en la ciudad de Rosario. Como conclusión de esta parte del estudio, se considera que la oferta rosarina de TICs y servicios relacionados es lo suficientemente variada y de buena calidad percibida por el cliente en comparación con la oferta que puede encontrase en CABA u otras ciudades grandes. También se manifiesta que puede competirse en precio, pero deben mejorar la atención al cliente y también el servicio de post-venta. Se concluye que los proveedores de TICs conocen las posibilidades de aportar a la creación de ventajas aplicando las mismas, alineadas a la estrategia de las empresas clientes, pero esto no es utilizado como argumento de venta a la hora de comunicar. No se percibe la adquisición de TICs como una decisión de tipo estratégica por parte de los clientes, sino más como una acción reactiva a los avances de mercado o la competencia. Se percibe por parte de empresas proveedoras de TICs que el nivel de difusión e implementación de las mismas que poseen las PyMEs rosarinas es medio-bajo. Las principales 88 INVENIO 14 (26) 2011: 79-90 Innovación empresaria en Argentina. Difusión de TICs en las PyMEs causas de retraso en implementación de TICs o servicios relacionados son: -Que los clientes no están preparados para su uso -Costos relacionados a adquisición, desarrollo y mantenimiento -Falta de capacitación del personal para aprovecharlas. Las respuestas más valoradas reflejan que los proveedores de TICs no ven preparado al mercado para su difusión a un ritmo más acelerado, tanto desde el punto de vista de los costos, como de la madurez tecnológica de los clientes y la capacitación del personal en las empresas En la tercera parte del estudio se abordará la difusión de las TICs en la PyMEs rosarinas y sus usos estratégicos, lo que permitirá obtener nuevas conclusiones y profundizar las obtenidas hasta el momento. Recibido: 03/10/10. Aceptado: 15/12/10 Nota 1 Landes Paul. The Unbound Prometheus. Boston, Harvard University Press, 1968. BIBLIOGRAFÍA Boscherini, F. y Yoguel, G. “La capacidad innovativa y el fortalecimiento de la competitividad de las firmas: el caso de las PYMEs exportadoras argentinas”. Documento de Trabajo Nº 21, Oficina de la CEPAL Buenos Aires. 1996. Caravaca, Inmaculada y González, Gema “La innovación en los sistemas productivos locales de Andalucía”, VI Seminario Internacional de la Red Iberoamericana de Investigación sobre Globalización y Territorio, Mayo de 2001, Rosario. 2001. Chudnovsky, Daniel Investigación y desarrollo e innovación en la Argentina. Buenos Aires, Universidad de San Andrés, 2006, Chudnovsky, D; Lopez, A. Y.; Pupato, G. “Innovation and productivity: A study of Argentine manufacturing firms behaviors (1992-2001)” – Documento de trabajo 70, Dpto. de Economía. Buenos Aires, Universidad de San Andrés, 2004. Drucker, Peter “La innovación y el empresariado innovador”. Buenos Aires, Editorial Sudamericana, 1986. Grosmann, G. y Helpmann, E.: “Innovation and Growth in the Global Economy”, Cambridge, Massachussetts, MIT Press, 1992. Instituto de investigaciones económicas. Relevamiento Productivo. Rosario, Universidad Nacional de Rosario (Escuela de Economía, Facultad de Ciencias Económicas y Estadística), 2001. Kosacoff, B. (2000): “El desempeño industrial argentino. Más allá de la sustitución de importaciones”, CEPAL, Buenos Aires. Landes, P. (1968), The Unbound Prometheus. Boston, Harvard University Press.. Lugones, Gustavo (2003),”Más y mejores indicadores de innovación en América Latina: el manual de Bogotá y las encuestas de innovación como herramienta para la transformación económica y social”, p.5 Mendez, Ricardo y Caravaca, Inmaculada (1996): “Organización industrial y territorio”, Editorial Síntesis, España. Milesi, D., Yoguel, G. y Moori Koenig, V. (2001): “Desarrollo de competencias endógenas y éxito exportador de las Pymes en Argentina”, 6ta. Reunión anual de las Red Pymes Mercosur, Rafaela, Santa Fe, Argentina. Monge González, R y otros (2005), TICs en las Pymes de Centroamérica, Editorial Tecnológica de Costa Rica y INVENIO 14 (26) 2011: 79-90 89 Juan Carlos Scarabino - María Belén Colonello el Centro Internacional de Investigaciones para el Desarrollo. Peirano, Fernando y Suárez, Diana, (2006), “Estrategias empresariales para el uso aprovechamiento de las TICs por parte de las Pymes argentinas en 2004” Congreso Internacional de la Información. La Habana . Disponible en: http://www.intempres.pco.cu/Intempres2006/Intempres2006/Ponencias/246.doc Precedo Ledo, A., Villariño Perz, M (1992): “La localización industrial”. Editorial Síntesis, Madrid, España. Vázquez Barquero, Antonio (2000): “Desarrollo endógeno y Globalización”, en Eure, Revista Latinoamericana de Estudios urbanos-regionales, Vol XXVI, Nº79, Santiago de Chile, Diciembre. Vázquez Barquero, Antonio (1999): “Desarrollo, redes e innovación”, Ediciones Pirámide, Madrid, España. Yoguel, Gabriel (2000): “Creación de competencias en ambientes locales y redes productivas”, en Revista de la CEPAL Nº 71,Santiago de Chile, Agosto de 2000. Yoguel, G. y Moori Koenig, V. (1999): “Los problemas del entorno de negocios. El desarrollo competitivo de las PyMEs argentinas”, Universidad Nacional de General Sarmiento y FUNDES, Editorial Miño y Dávila, Buenos Aires. 90 INVENIO 14 (26) 2011: 79-90 FIBRA ALIMENTARIA: CONSUMO EN ESTUDIANTES UNIVERSITARIOS Y ASOCIACIÓN CON SÍNDROME DE INTESTINO IRRITABLE Nadia Meisner - Karina Muñoz - Romina Restovich, María Elisa Zapata - Silvina Camoletto - María Cecilia Torrent Jorge Molinas*1 RESUMEN: La fibra dietética es importante para la prevención y tratamiento de algunas enfermedades crónicas. Dentro del grupo de Enfermedades Funcionales Digestivas, el Síndrome de Intestino Irritable (SII) es la de mayor prevalencia. Los estudios que evaluaron la relación de la fibra en individuos con SII han arrojado resultados contradictorios. El objetivo se centra en estimar el consumo de FA, valorar la prevalencia de SII y el grado de asociación entre ambos. En cuanto a los materiales y métodos utilizados, se realizó un estudio observacional, de corte transversal, con 657 individuos, entre 17 y 50 años, 90,9% sexo femenino que concurren a la Universidad del Centro Educativo Latinoamericano (UCEL), Rosario, Argentina. Se utilizó una encuesta semicuantitativa sobre consumo de alimentos fuente de FA y un cuestionario validado para síntomas de SII (ROMA III). Con referencia a los resultados el consumo promedio de FA fue de 15,3 g/día (10,26 g/día fibra insoluble -FI- y 5,04 g/día fibra soluble -FS-. El 39,1% de los individuos manifestaron padecer síntomas de SII. En ellos se halló un menor consumo promedio de FA proveniente de vegetales cocidos y crudos. En conclusión, se halló un consumo de FA inferior al recomendado, una elevada prevalencia de SII y los individuos sintomáticos manifestaron un menor consumo de FA proveniente de vegetales cocidos y crudos. Palabras clave: fibra alimentaria - enfermedades funcionales digestivas - síndrome intestino irritable. ABSTRACT: Dietary fiber: consumption among university students and its association with irritable bowel syndrome symptoms Dietary fiber (DF) is important to prevent and treat some chronic pathologies. Studies have shown a highest prevalence of irritable bowel syndrome (IBS) among functional gastrointestinal disorders. Trials assessing fiber relationship in IBS subjects have yielded contradictory results. This study aims at determining the consumption of DF, assessing IBS * Nadia Meisner, Karina Muñoz y Romina Restovich son Licenciada en Nutrición egresadas de la Universidad del Centro Educativo Latinoamericano (UCEL). E- mail: [email protected]; [email protected]; [email protected] M. Elisa Zapata es docente de la Licenciatura en Nutrición de la UCEL en la cátedra de Fisiopatología y Dietoterapia del Adulto. E- mail: [email protected] Silvina Camoletto es docente de la Licenciatura en Nutrición de la UCEL en la Cátedra de Nutrición Normal y Coordinadora del Área de Tesinas de UCEL. E- mail: [email protected] María Cecilia Torrent es docente e investigadora de la UCEL en las cátedras de Nutrición Normal y Dietoterapia del Adulto. Directora de la carrera Licenciatura en Nutrición de UCEL. Investigadora del proyecto NUT802 de UCEL donde se origina esta línea de investigación. E-mail: [email protected] Jorge Molinas es docente e investigador de la Universidad del Centro Educativo Latinoamericano en las cátedras de Fisiología y Fisiopatología del Adulto. Docente e investigador de la Universidad Nacional de Rosario en la cátedra de Fisiología Humana. Director del proyecto NUT802. E-mail: [email protected] INVENIO 14 (26) 2011: 91-100 91 N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas prevalence and evaluating the association between DF and IBS. As regards materials and methods, the research was designed as an observational cross-section study, involving 657 17-50- year-old subjects (90.9% women) attending the Universidad del Centro Educativo Latinoamericano (UCEL) in Rosario, Argentina. A semi-quantitative survey on the consumption of fiber rich foods and a symptom validated questionnaire (ROME III) was used. Results showed 15.3 g/day DF average consumption (10.26 g/day insoluble fiber (IF) and 5.04 g/day soluble fiber (SF). IBS symptoms were reported by 39.1% subjects. This group showed a lower average intake of DF from cooked and raw vegetables. The results showed lower DF consumption in relation to the recommended values and a high prevalence of IBS. Symptomatic subjects reported a lower intake of DF from cooked and raw vegetables. Key words: dietary fiber - functional gastrointestinal disorders - irritable bowel syndrome Introducción La inclusión de la fibra alimentaria (FA) en la dieta de los seres humanos parece desempeñar una importante función para la prevención y el tratamiento de algunas enfermedades crónicas (García Peris P y col., 2007). Diversos estudios epidemiológicos han demostrado que un consumo adecuado de FA aporta beneficios para la salud, entre los que se encuentran la reducción del riesgo de cáncer colorrectal y de alteraciones en el ritmo y tránsito intestinal, efecto hipocolesterolémico, disminución del riesgo de enfermedad cardiovascular y mejor control de la diabetes mellitus tipo 2, entre otros (Cabrera Llano y col., 2006). Se denomina fibra dietética a los hidratos de carbono y lignina no digeribles en el intestino delgado humano que provienen de plantas comestibles en las cuales la matriz vegetal está mayoritariamente intacta. (FNB, 2002). Los principales componentes de la FA son los polisacáridos no almidón; los oligosacáridos resistentes a la digestión, lignina; sustancias asociadas a polisacáridos no almidón; almidón resistente, hidratos de carbonos sintéticos y otros derivados de la celulosa; y las fibras de origen animal (Mateu de Antonio, 2004; Mataix Verdú,2005; Escudero Álvarez y Gonzáles Sánchez, 2006; FNB, 2002). Los efectos fisiológicos de la FA derivan de sus características fisicoquímicas como su capacidad de retención hídrica, viscosidad, sensibilidad a la fermentación, capacidad de intercambio catiónico, capacidad de adsorción de sustancias e inhibición enzimática. Las mismas pueden modificarse en función de diversos factores como la madurez del alimento, tipo de cocción, presencia de otros tipos de fibra o diversos nutrientes, pH, secreciones digestivas, tipo de microflora intestinal (Mataix Verdú, 2005). Según el Comité de Alimentos y Nutrición del Instituto de Medicina de la Academia Nacional de Ciencias de los EEUU la recomendación de consumo de fibra es de 38g/día y 25g/día para individuos menores de 50 años de sexo masculino y femenino respectivamente, y de 30g/día para hombres y 21 g/día para mujeres mayores de 50 años (FNB, 2002). Se recomienda que la cantidad de fibra total consumida con la alimentación mantenga una proporción 3/1 entre fibra insoluble (FI) y soluble (FS) respectivamente (Park., 2000; Gómez y col., 2003; Escudero Álvarez y Gonzáles Sánchez., 2006). Distintos trabajos señalan a los cereales como las principales fuentes dietéticas de fibra (40 a 54%), seguido por las verduras (29 a 35%), las frutas (11 a 26%) y en menor proporción, las legumbres (2 a 7%) (Park, 2000). 92 INVENIO 14 (26) 2011: 91-100 Fibra alimentaria: consumo y asociación con síndrome de intestino irritable El Síndrome de Intestino Irritable (SII) es un trastorno funcional crónico, episódico y recurrente, caracterizado por la presencia de dolor o malestar abdominal que se alivia con la defecación, asociado a distensión abdominal y cambios en la frecuencia o consistencia de las deposiciones (constipación, diarrea o alternancia de ambos) en ausencia de alteraciones anatómicas o bioquímicas demostrables a nivel intestinal (Longstreth y col., 2006). A nivel mundial, alrededor del 10-20% de los adultos y adolescentes presentan síntomas de SII, y la mayoría de los estudios encuentran un predominio en el sexo femenino (Longstreth y col., 2006). En los países industrializados afecta a uno de cada 6 individuos, constituyendo el 38% de las consultas con el médico gastroenterólogo y el 12% con el médico general (Heitkemper y col., 2002) El tratamiento está determinado por el tipo y la gravedad de los síntomas y la naturaleza de los problemas psicosociales asociadas, indicando la necesidad de apoyo psicológico, médico y nutricional (Longstreth, G. y col; 2006). El tratamiento dietético se basa en mejorar la digestión, reestablecer el equilibrio de la microflora intestinal, reducir la irritación y reparar la pared intestinal. Para cumplirlos es esencial conocer cuáles son los alimentos que agravan los síntomas, ya que algunos estudios han demostrado que cuando se identifican y se evitan disminuyen los síntomas y la producción de gases (Madden y col., 2002; Dapoingny y col., 2003; Francis y Whorwell, 2004). La mayoría de los autores coinciden en recomendar una dieta rica en fibra cuando hay estreñimiento, no siendo aconsejable en presencia de diarrea. En general se recomienda una dieta hipograsa, ya que las grasas pueden estimular la motilidad del colon; disminuir la ingesta de alimentos mal tolerados como bebidas gaseosas y aquellos que aumentan la producción de gases, como cebolla, coles, sandía, alimentos excitantes y picantes, entre otros. En caso de diarrea, se aconseja disminuir el consumo de café y cacao (Mataix Verdú, 2005). Si bien las investigaciones demuestran que puede ser útil en algunos pacientes, la revisión de cuarenta y seis publicaciones científicas no revela pruebas concluyentes sobre la eficacia del tratamiento con fibra en pacientes con SII. Por otra parte, los trabajos de investigación que han analizado la asociación entre el consumo de FA y síntomas de SII muestran resultados contradictorios (Floch, 2005). Material y métodos Se realizó un estudio de tipo observacional, transversal. Se tomó una muestra (calculada utilizando un poder de 80% con un error alfa de 0.05, asumiendo, al promediar estudios en poblaciones similares, un consumo estimado de fibra de 15 g/día) de 657 estudiantes universitarios de ambos sexos, con edades comprendidas entre 17 y 50 años, que cursaban diferentes carreras, elegidos al azar, encuestados durante los meses de mayo y junio de 2008, que permitió estimar el consumo de alimentos fuente de FA y su asociación con la presencia de síntomas de SII. Las principales variables estudiadas fueron, la cantidad (en gramos) de Fibra Total, FI y FS consumida proveniente de cereales, vegetales, frutas y legumbres; y la presencia de síntomas de SII. Se consideró también el sexo y la edad. Para recolectar datos se empleó un cuestionario semicuantitativo de consumo de alimentos fuente de FA y presencia de síntomas de SII según los criterios ROMA III. Para el cálculo del contenido de FT, FS y FI se utilizaron tablas de contenido y composición de la fibra en alimentos (Marlett, 1992), de composición química de alimentos (Mazzei y Puchulú, 1995) e información brindada por empresas elaboradoras de alimentos. INVENIO 14 (26) 2011: 91-100 93 N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas El análisis estadístico de la información se efectuó con EPI INFO. Para comparar medias aritméticas se utilizó el test de Anova para datos distribuidos normalmente o análisis no paramétricos con el test de Kruskal-Wallis. Para el análisis de las asociaciones entre las distintas variables se calculó el Odds Ratio (OR) con límites de confianza de Cornfield al 95% (IC 95%) mediante Chi-Cuadrado con corrección de Yates. Para ponderar la influencia de los factores de confusión se realizaron análisis estratificados calculando el Odds ratio crudo para todos los estratos y el Odds ratio onderado de Mantel-Haenszel con límites de confianza de Cornfield 95%. Por parte de los investigadores se adquirió el compromiso de mantener estrictamente el anonimato de los encuestados. Resultados La muestra fue de 657 estudiantes, 90,9% de sexo femenino con un edad media de x= 20,8 ± sd 3,8 años. El 96,2% de los individuos encuestados manifestó consumir algún alimento con fibra. En la Figura 1 se observa sobre el total de los individuos (n=657) el porcentaje de los que consumían distintos alimentos fuente de FA. Figura 1. Porcentaje de individuos que consumen alimentos con fibra 100 96,2 94,8 77,8 80 % 93,7 95,3 92,5 95,2 74,2 64,7 60 38,6 31,5 40 20 0 go Ju s as as ut ut Fr Fr en as id m co as id m co as cid es as en os cid co os ud cr to en ud s co cr le s br m as gu ut Le Fr ta le s le ta ge ge Ve Ve ta ge Ve as im al es al n re rr Ba Ce gu Al El consumo diario promedio de FA en la muestra fue de 15,3 ±14,1 gramos/día (Tabla 1). Se estimaron los gramos de fibra soluble e insoluble siendo de 5,04 g/día la ingesta de fibra soluble y 10,26 g/día la de fibra insoluble (Tabla 1). No se hallaron diferencias significativas entre estos valores y las variables sexo y edad. En la Tabla 2 puede observarse el consumo diario promedio de FA proveniente de diferentes alimentos fuente para el total de la muestra. Tabla 1. Consumo promedio de FT, FI y FS Fibra alimentaria Fibra Total Fibra Insoluble Fibra Soluble 94 g/día 15,3 g/día 10,26 g/día 5,04 g/día INVENIO 14 (26) 2011: 91-100 Fibra alimentaria: consumo y asociación con síndrome de intestino irritable Tabla 2. Consumo promedio de FA de diferentes alimentos fuente. Gramos diarios de fibra en el total de la muestra X ± sd (g/día) 0,63 ± 0,66 3,57 ± 4,49 2,41 ± 2,88 2,92 ± 3,95 0,29 ± 0,38 3,90 ± 5,77 0,13 ± 0,50 0,26 ± 1,12 0,09 ± 0,19 0,92 ± 1,99 Fuente de fibras Cereales en preparaciones Vegetales cocidos Vegetales crudos Vegetales en otras comidas Barra de cereales Frutas crudas Frutas cocidas Frutas en otras comidas Jugos de fruta naturales Legumbres Se observó un mayor consumo diario de FA en el sexo femenino que en el masculino, pero las diferencias no alcanzaron la significación estadística exigida, sin embargo se obtuvieron diferencias en el consumo de FA provenientes de algunos alimentos fuente en particular, como se observa en la Tabla 3. Tabla 3. Consumo de diferentes alimentos fuente de FA según el sexo. Fuente de fibra Vegetales crudos Vegetales cocidos Vegetales en otras preparaciones Barra de cereales Jugos de fruta naturales Hombres 1,35 g/día 1,76 g/día 1,35 g/día 0,11 g/día 0,14 g/día Mujeres 2,58 g/día 3,74 g/día 2,58 g/día 0,30 g/día 0,08 g/día P <0,05 <0,0005 <0,05 <0,0005 <0,05 No se encontraron diferencias significativas en el consumo diario de FA y la edad de los individuos encuestados. Frecuencia de Síndrome de Intestino Irritable El 39,1% de los individuos manifestaron padecer los criterios definidos por el consenso ROMA III para SII. Se encontró una mayor frecuencia de síntomas de SII en mujeres que en hombres (OR=1,81; p<0,05), lo cual puede observarse en la Figura 2. Figura 2: Prevalencia de síntomas de SII y sexo Fem enino 40,2 Masculino 59,8 27,7 0% 20% SII + INVENIO 14 (26) 2011: 91-100 72,3 40% 60% 80% 100% SII - 95 N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas Consumo de FA en relación con síntomas de SII Se encontró un mayor consumo de FA en individuos sin síntomas de SII (15,9 g/día vs. 14,37 g/día), sin embargo esta diferencia no alcanzó la significación estadística exigida (p=0,25). De todas maneras se encontraron diferencias estadísticamente significativas al separar por alimentos fuente de FA (Tabla 4). Tabla 4. Consumo de fibra vegetal según la presencia o ausencia de síntomas de SII Fuente de fibra Vegetales cocidos Vegetales crudos SII + 3,05 g/día 2,13 g/día SII 3,90 g/día 2,60 g/día P <0,05 <0,05 Se comparó el consumo de fibra soluble e insoluble (total y en diferentes grupos de alimentos) con la presencia o ausencia de síntomas de SII y no se encontraron diferencias estadísticamente significativas. Discusión El objetivo del presente trabajo fue valorar el consumo diario de FA y su asociación con la presencia de síntomas de SII en estudiantes de una universidad (UCEL) de Rosario, Argentina. Los resultados mostraron un bajo consumo promedio de FA (15,3 g/día) en relación a lo recomendado por los diferentes organismos y sociedades científicas. El consumo estimado de FA fue similar a los resultados hallados en tres trabajos de investigación realizados en diferentes países. Martínez Roldán y colaboradores observaron un consumo de 15,3 g/día en mujeres y de 18,1 g/día para varones, en estudiantes universitarios de Madrid (Martínez Roldán y cols., 2005). Albert y colaboradores encontraron un consumo de 16,8 g/día en estudiantes de un colegio de Venezuela (Albert y cols., 2002) y Park describió un consumo promedio de FA de 17,8 g/día en un grupo de adultos de la población chilena (Park , 2000). A su vez la ingesta estimada de FA hallada en este estudio se acerca al menor rango de la ingesta típica de FA de la dieta occidental (que varía entre 16 y 43 g/día) (Green, 2000). Otros estudios latinoamericanos han mostrado mayor consumo diario de FA que los hallados por este trabajo. Mattos y Martins Salas estimaron el consumo en estudiantes brasileños en 24 g/día y Zapata observó 24,9 g/día en estudiantes de UCEL (Mattos y col., 2000; Zapata, 2008). Este último trabajo mencionado, realizado con anterioridad a nuestro estudio, fue ejecutado durante el año 2006, evaluando 115 estudiantes de cuarto año. Las diferencias con nuestros resultados podrían deberse a la variación de los hábitos alimentarios y culturales en los distintos países, a los diferentes niveles socioeconómicos que podrían afectar el acceso a alimentos fuente de FA, y a la estructura de los cuestionarios de frecuencia de consumo alimentarios utilizados en cada estudio. Es importante destacar que en este estudio la cantidad de fibra consumida podría estar subestimada ya que el consumo estimado de FA se cuantificó a través del consumo de los alimentos fuente de fibra y no se incluyeron algunos alimentos del mercado suplementados con ella. Además, si bien en los cálculos para estimar el consumo de fibra se incluyó al arroz integral y las ciruelas desecadas, en el cuestionario de frecuencia de consumo de alimentos no se diferenció entre cereales completos o integrales y subproductos elaborados con harina integral (panes integrales, galletitas integrales, entre otros) y a los subgrupos frutas secas y desecadas. 96 INVENIO 14 (26) 2011: 91-100 Fibra alimentaria: consumo y asociación con síndrome de intestino irritable De todas maneras la ingesta habitual o las recomendaciones de FA deberían ser consideradas solo como aproximaciones y no como valores absolutos. Los métodos analíticos existentes no cuantifican algunas de las nuevas sustancias que se han incluido dentro de la definición de FA y por lo tanto las tablas de composición química de alimentos utilizadas para los cálculos nutricionales de fibra en la dieta no serían exactas (Mateu de Antonio, 2004). Organismos y sociedades científicas internacionales recomiendan que el total de fibra consumida en la alimentación debería mantener en una proporción 3/1 en la cantidad de FI y FS, lo que correspondería a 75% de FI y 25% de FS del total de la fibra consumida (Park, 2000; Gómez y col., 2003; Escudero Álvarez y Gonzáles Sánchez, 2006). En el presente estudio se observó un consumo de FI menor (67%) y mayor de FS (33%) que los recomendados. Los resultados de esta investigación mostraron que el mayor aporte de FA en la dieta se realizó principalmente a través de vegetales (59,5%) y frutas (29%) seguido por cereales y legumbres (12,2%). Estos datos difieren de lo observado en el estudio de Park donde se menciona a los cereales como los principales alimentos que aportan fibra en la dieta (de un 40-54%) seguidos por vegetales (29-35%) y frutas (11-26%) (Park, 2000). No se observaron diferencias significativas en cuanto al consumo diario de FA total y el sexo, pero si se halló mayor consumo de FA proveniente de algunos alimentos en particular: vegetales cocidos, crudos, como componentes de otras preparaciones, y en barras de cereales en el sexo femenino, siendo menor el consumo de exprimidos de frutas naturales. La prevalencia del SII en Latinoamérica oscila entre el 9 y el 18%. La variabilidad en las frecuencias aportadas en la bibliografía puede deberse a diferencias culturales o al uso de criterios diagnósticos diferentes, siendo la distribución por sexos de 2 a 4 mujeres por cada varón. (Valenzuela y cols, 2004) En el presente estudio un elevado porcentaje de los individuos encuestados manifestaron tener presentes los síntomas de SII (39,1%) siendo los mismos también más frecuentes en mujeres (40,2%) que en varones (27,7%). Si se acepta que el SII tiene un origen multifactorial en el que se integran factores biológicos (sensibilidad, motilidad), psicosociales e inmunológicos, la alimentación tiene una participación evidente en su fisiopatología puesto que estimula al sistema digestivo generando respuestas sensitivas y reacciones motoras, es fuente exógena de antígenos y es una actividad diaria que fácilmente puede influir o estar influida por factores de la esfera psicosocial (Rey, 2004). En la muestra estudiada no se encontraron diferencias significativas en la cantidad consumida de FA en relación con la presencia o ausencia de síntomas de SII, sin embargo al analizar el consumo de FA por grupo de alimentos, se encontró una diferencia significativa (p<0,05) en cuanto a la ingesta de vegetales cocidos y crudos, presentándose un menor consumo en individuos que tenían presentes síntomas de SII en comparación con los individuos que no presentaban dichos síntomas (3,05 y 2,13 g/día en relación a 3,90 y 2,60 g/día respectivamente). Estos resultados se asemejan a los encontrados por Hillman, quien tampoco observó diferencias significativas en el consumo medio de fibra total entre el grupo con SII (17 g/día) y el grupo control (18 g/día) pero encontró diferencias significativas (p<0.05) en el consumo de FA proveniente de hortalizas, destacando una menor ingesta por parte de los individuos con SII (6,6 g/día) en comparación a los individuos que no lo presentaban (8,2 g/día) (Hillman y cols., 1982). De manera similar, el estudio de Aller mostró una ingesta media de FA baja (7,48 g/día), con menor proporción de fibra soluble (19%) que insoluble (71%) y demostró una correlación entre la baja ingesta de fibra y la severidad de los síntomas de SII, siendo la fibra insoluble la principal responsable de esta asociación (Aller y cols., 2004). La mayor presencia de síntomas en individuos con bajo consumo de vegetales podría INVENIO 14 (26) 2011: 91-100 97 N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas deberse a efectos protectores de la fibra u otros componentes de los mismos, pero también a que los individuos con síntomas podrían estar suprimiéndolos de su dieta por percibir mayor grado de dolor o por indicación médica. Algunos estudios han demostrado que identificar y evitar los alimentos que agravan los síntomas de SII se traduce en una respuesta clínica sostenida, con mejoras en los síntomas, la producción de gas, el bienestar general y la calidad de vida (Dapoigny y cols., 2003; Drisko y cols., 2006; Madden, y Hunter, 2002). En relación al beneficio de la FA en el tratamiento del SII, un metaanálisis que incluyó 23 ensayos aleatorizados y controlados a doble-ciego no proporcionó evidencias claras de una mejoría significativa de los síntomas de SII. Por otra parte, el aporte de fibra no mejora el dolor abdominal asociado al SII e incluso puede aumentar la sensación de distensión y flatulencia. Pese a todo, algunos individuos experimentan alivio del estreñimiento al aumentar el aporte de fibra en la dieta de un modo gradual, hasta 20-25 g/día (Mearin, Montoso, 2005). Aunque existen diversos estudios que demostraron la utilidad de la fibra en individuos con síntomas de SII (Arffmann y cols., 1985; Parisi y cols., 2002; Giannini y cols., 2006), otros han arrojado resultados contradictorios (Lucey y cols., 1987; Snook y Shepherd, 1994; Lesbros-Pantoflickova y cols., 2004; Aller y cols., 2004; Floch, 2005). A pesar de ello, durante años, la administración de una dieta rica en fibra y/o suplementos, como el salvado, se ha considerado una medida terapéutica efectiva en el tratamiento del SII. Un metaanálisis que evaluó las posibles acciones de FS o FI sobre la función del colon y los síntomas de SII, concluyó que la suplementación con FS posee un efecto beneficioso significativo sobre el estreñimiento pero empeora el dolor abdominal, y la FI mejora el estreñimiento y no presenta efectos sobre el dolor abdominal pero puede empeorar otros síntomas de SII (Bijkerk y cols., 2004). La relación entre el SII y la ingesta de FA sigue siendo controvertida tanto desde el punto de vista fisiopatológico (¿una menor ingesta de FA se relaciona con el SII?) como desde el punto de vista terapéutico (¿son los suplementos de fibra o las dietas ricas en fibra beneficiosos?). Sería de interés responder a estos cuestionamientos a través de la realización de un mayor número de estudios con diseños metodológicos longitudinales a doble-ciego controlado con placebo. Conclusión El consumo promedio de FA en la muestra estudiada fue de 15,3 g/día (10,26 g/día FI y 5,04 g/día FS), sin observarse diferencias significativas entre ambos sexos. Este valor fue inferior al recomendado por los diferentes organismos y sociedades científicas internacionales. Se encontró una elevada prevalencia de síntomas de SII en la población estudiada. Los individuos portadores de los mismos manifestaron un menor consumo de FA proveniente de vegetales cocidos y crudos. No se observaron diferencias significativas al comparar la cantidad y el tipo de fibra consumido (FI y FS, total y en diferentes grupos de alimentos) con la presencia o ausencia de síntomas de SII. Recibido: 10/08/10. Aceptado: 22-12-10. 98 INVENIO 14 (26) 2011: 91-100 Fibra alimentaria: consumo y asociación con síndrome de intestino irritable BIBLIOGRAFÍA Albert, P., Bernal Rivas, J., Dehollain, J.P., Blanco, R. (2002) Consumo de frutas y hortalizas en adolescentes de un colegio privado de Caracas, Venezuela. An Venez Nutr; 15 (1):18-24. Aller, R., de Luis, D.A., Izaola, O., La Calle, F., del Olmo, L., Fernández, L., Arranz, T., González Hernández, J.M. (2004) Patrón de ingesta en un grupo de pacientes con síndrome de intestino irritable; relación de la ingesta de fibra con los síntomas. An Med Interna; 21: 577-580. Arffmann, S., Andersen, J.R., Hegnhoj, J. y cols.The effect of coarse wheat bran in the irritable bowel syndrome. (1985) Scand J Gastroenterol; 20:295-8. Bijkerk, C.J., Muris, J.W., Knottnerus, J.A., Hoes, A.W., de Wit, N.J. (2004) Systematic review: the role of different types of fibre in the treatment of irritable bowel syndrome. Aliment Pharmacol Ther; 19:245-51. Cabrera Llano, J.L., Cardenas Ferrer, M. Importancia de la fibra dietética para la nutrición humana. (2006) Rev Cubana Med Gen Integr; 22 (4) Dapoigny, M., Stockbrügger, R.W., Azpiroz, F., Collins, S., Coremans, G., Müller-Lissner, S., Oberndorff, A,, Pace, F., Smout, A., Vatn, M., Whorwell, P. (2003) Role of alimentation in irritable bowel syndrome. Digestion; 67(4):225-33. Drisko, J., Bischoff, B., Hall, M., McCallum, R. (2006) Treating irritable bowel syndrome with a food elimination diet followed by food challenge and probiotics. J Am Coll Nutr; 25(6):514-22. Escudero Álvarez, E., Gonzáles Sánchez, P. (2006) La fibra dietética. Nutr Hosp; 21:61-72. Floch, M.H. (2005) Use of diet and probiotic therapy in the irritable bowel syndrome: analysis of the literature. J Clin Gastroenterol;39(5 Suppl 3):S243-6 Food and Nutrition Board. Institute of Medicine. Dietary Reference Intakes: Proposed Definition of Dietary Fiber (2002). National Academic Press. Panel on definition of dietary fiber. Standing Comité on the Scientific Evaluation of dietary referente intakes. Washington, 2002. Francis, C.Y., Whorwell, P.J. (1994) Bran and irritable bowel syndrome: time for reappraisal. Lancet; 344:39-40. García Peris, P., Velasco Gimeno, C. (2007). Evolución del conocimiento de fibra. Nutr. Hosp 2007; 22:20-25. Giannini, E.G., Mansi, C., Dulbecco, P., Savarino, V. (2006) Role of partially hydrolyzed guar gum in the treatment of irritable bowel syndrome. Nutrition; 22(3):334-42. Gómez, C., Cos Blanco, A., Iglesias Rosado, C. (2002) Fibra y nutrición enteral. Nutr. Hosp; 17(sup.2):30-40. Gómez, C., Muñoz, E., Marín, M., Cos Blanco, A.. Fibra Alimentaria. Nutrición y salud. 2003; 3:143-160. Green, C.J. (2000) Fibre in enteral nutrition. South Afr J Clin Nutr; 13:150-160. Heitkemper, M.M., Jarrett, M., Cain, K., et al. (2002) A comprehensive self-management program reduces symptoms and enhances quality of life in women with IBS. Gastroenterology; 122: A-70. Hillman, L.C., Stace, N.H., Fisher Pomare, E.W. (1982) Dier intake and stool characteristics patients with irritable bowel syndrome. Am J Clin Nutr; 36: 626-629. Lesbros-Pantoflickova, D., Michetti P., Fried, M., Beglinger, C., Blum, A.L. (2004) Meta-analysis: The treatment of irritable bowel syndrome. Aliment Pharmacol Ther; 20(11-12):1253-69 Longstreth, G.F., Thompson, W.G., William, D.C., Houghton, L.A., Mearin, F., Spiller, R.C. (2006) Functional Bowel Disorders. Gastroenterology; 130:1480–1491. Lucey, M.R., Clark, M.L., Lowndes, J., Dawson, A.M. (1987) Is bran efficacious in irritable bowel syndrome? Gut 1987;28:221-5. Madden, J.A., Hunter, J.O. A review of the role of the gut microflora in irritable bowel syndrome and the effects of probiotics. Br J Nutr 2002 Sep;88 Suppl 1:S67-72. Marlett, J.A. (1992) Content and composition of dietary fiber in 117 frequently consumed foods. J Am Diet Assoc. 92(2):175-86. Martínez Roldán, C., Veiga Herreros, P., López de Andrés, A., Cobo Sanz, M. y Carbajal Azcona, A. (2005) Evaluación del estado nutricional de un grupo de estudiantes universitarios mediante parámetros dietéticos y de composición corporal. Nutr. Hosp; 20(3): 197-203. Mataix Verdú, J. (2005) Nutrición y Alimentación Humana. Océano, Editorial Ergon, Barcelona. Mateu de Antonio, X. (2004) La fibra en la alimentación. Farmacia hospitalaria; 3:1-16. Mattos, L., Martins Salas, I. (2000) Consumo de fibras alimentares em população adulta. Rev. Saúde Pública; 34 (1): 50-55. Mearin, F., Montoso, M. Síndrome de intestino irritable. En: Montoso, M., Castells, A., Mearin, F., Gisbert, J., Gomollon, F., Santolaria, S. (2005) Problemas comunes en la practica clínica: Gastroenterología y Hepatología INVENIO 14 (26) 2011: 91-100 99 N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas vol. 1. Jarpyo, Madrid, 2005. p. 384-390 Mazzei, M.E., Puchulú, M.R. Tabla de Composición Química de Alimentos. 2da. ed. Buenos Aires. Centro de Endocrinología Experimental y Aplicada. CENEXA-FEIDEN Editores; 1995. Park, D. N. (2000) La fibra dietética en la alimentación humana, importancia en la salud. Anales de la Universidad de Chile. VI serie: Nº11. [Disponible en http://www2.anales.uchile.cl/CDA/an_complex/0,1279,SCID%253D2293 %2526ISID%253D7%2526ACT%253D0%2526PRT%253D1828,00.html] [Acceso: marzo de 2009) Parisi, G.C., Zilli, M., Miani, M.P., Carrara, M., Bottona, E-, Verdianelli, G-, Battaglia, G-, Desideri, S-, Faedo, A., Marzolino, C., Tonon, A., Ermani, M., Leandro, G. (2002) High-fiber diet supplementation in patients with irritable bowel syndrome (IBS): a multicenter, randomized, open trial comparison between wheat bran diet and partially hydrolyzed guar gum (PHGG). Dig Dis Sci; 47(8):1697-704 Rey, E. (2004) La dieta y el síndrome de intestino irritable. An Med Interna; 21: 575-576. Snook, J., Shepherd, H.A. (1994) Bran supplementation in the treatment of irritable bowel syndrome. Aliment Pharmacol The; 8:511-4. Valenzuela, J., Alvarado, J., Cohen, H., Damiao, A., Fransisconi, C., Frugone, L. y cols. (2004) Un consenso latinoamericano sobre el síndrome del intestino irritable. Gastroenterol Hepatol; 27(5):325-43 Zapata, M.E. (2008) “Evaluación y comparación del consumo de fibra dietética entre los estudiantes de nutrición de Ucel (Rosario – Argentina) y Unimep (Piracicaba – Brasil)”. Actualización en Nutrición; 9(2): 127-142. 100 INVENIO 14 (26) 2011: 91-100 LOS EFECTOS QUE PRODUCE LA CREATINA EN LA PERFORMANCE DEPORTIVA Paula Carrillo - María Victoria Gilli*1 RESUMEN: Se ha propuesto realizar una investigación sobre los efectos de la suplementación con creatina como ayuda ergogénica para mejorar la performance deportiva. La investigación consistió en una evaluación del consumo de creatina, en una muestra representativa de deportistas recreacionales y amateurs que concurren a gimnasios habilitados de la ciudad de Pergamino, provincia de Buenos Aires. Las investigaciones disponibles indican que la creatina puede incrementar el contenido muscular de fosfocreatina -pero no en todos los individuos-, lo cual puede incrementar el rendimiento de ejercicios de intensidad elevada y corta duración, especialmente durante series repetidas. Son necesarias investigaciones más específicas sobre los efectos del consumo crónico de creatina en la performance deportiva. Palabras clave: creatina - ayudas ergogénicas - rendimiento muscular. ABSTRACT: Creatine effects on athletic performance The research aims at assessing the effects of creatine supplements as ergogenic aids to enhance athletic performance. Creatine consumption was studied in a representative sample of sporting amateurs attending certified fitness centers in the city of Pergamino, in Buenos Aires province. Available research shows creatine may increase muscle phosphocreatine, although not in all subjects, and consequently enhance performance in high-intensity, short exercises, particularly during repeated series. Further specific research is necessary to determine the effect of chronic creatine consumption on athletic performance. Key words: creatine - ergogenic aids - muscle performance Introducción La creatina es un compuesto nitrogenado natural que se combina con fosfato originando fosfocreatina. Esta última tiene gran importancia en el metabolismo energético durante la contracción del músculo esquelético y la recuperación tras un esfuerzo físico, debido a que este compuesto es el responsable de la resíntesis de ATP (adenosintrifosfato) a partir de ADP (adenosindifosfato) por medio de una reacción catalizada por la enzima creatinquinasa1. Se postuló que la suplementación con creatina mejora la actividad de los deportistas, aumentando la fuerza y la energía muscular, acelerando el tiempo de recuperación entre ejercicios intensos y de corta duración2. Las opiniones y los resultados obtenidos en diferentes estudios con atletas, manifiestan una marcada divergencia entre los investigadores en cuanto a la validación de su empleo, sus efectos colaterales y en relación a concepciones éticas sobre la suplementación con creatina3. * Paula Carrillo y María Victoria Gilli son Licenciadas en Nutrición por la Universidad del Centro Educativo Latinoamericano UCEL. Las autoras agradecen la dirección de la Licenciada Lucila Pivetta y la co-dirección de la Licenciada Diana Domínguez. E-mail: [email protected], [email protected] INVENIO 14 (26) 2011: 101-115 101 Paula Carrillo - María Victoria Gilli Debido a la controversia suscitada se ha propuesto realizar una revisión bibliográfica seleccionando algunas de las investigaciones, realizadas en los últimos años, que hayan analizado la suplementación con creatina como ayuda ergogénica en el rendimiento deportivo. Además se realizó una encuesta con el fin de evaluar el consumo de creatina en deportistas recreacionales y amateurs. Planteo del problema ¿Cuáles son los efectos que produce la creatina en la performance deportiva? Objetivos ü Identificar los efectos que produce la ingesta de creatina en la performance deportiva. ü Evaluar el consumo de creatina en deportistas recreacionales y amateurs que asisten a gimnasios habilitados de la ciudad de Pergamino, provincia de Buenos Aires, en el mes de febrero de 2009. Marco conceptual 1. Creatina La creatina (Cr), también denominada α metil guandino-acético, no es un aminoácido sino un compuesto orgánico nitrogenado del grupo de las aminas, no esencial, habitual en la dieta, ya que es obtenida predominantemente a través del consumo de carnes o pescados que contienen 5 gramos de Cr/Kg. Además la creatina es sintetizada principalmente en el hígado, páncreas y riñones a través de los aminoácidos precursores, tales como la arginina, la glicina y la metiotina4. El organismo humano precisa una cantidad total de 2 gramos de creatina diario, de los cuales el 50% es sintetizado por el propio organismo mientras que el otro 50% debe ser aportado a través de la dieta. Las mayores concentraciones de creatina en el cuerpo humano se encuentran en el músculo esquelético, con aproximadamente un 95% del contenido total de este compuesto1. La creatina total contenida en el músculo esquelético se encuentra en dos formas diferentes: como creatina libre (Cr) cuyo porcentaje es de un 40%, y en su forma fosforilada o fosfocreatina (PC) en un 60%5. El 5% restante se reparte por otros tejidos orgánicos como el corazón, los espermatozoides, la retina y el cerebro fundamentalmente1. 102 INVENIO 14 (26) 2011: 101-115 Los efectos que produce la creatina en la performance deportiva 2. Fosfocreatina 2.1 Fosfocreatina y fatiga La concentración de fosfocreatina parece estar correlacionada con el desarrollo de la fuerza y puede contribuir a la fatiga. Las fibras musculares de tipo II poseen mayores niveles iniciales, y mayores tasas de utilización de fosfocreatina y glucógeno que las fibras de tipo I. Además la recuperación de fosfocreatina parece ser más lenta en las fibras de tipo II. La mayor pérdida y recuperación más lenta de la fosfocreatina y el glucógeno en las fibras de tipo II contribuye, muy probablemente, a la disminución de la fuerza durante ejercicios de alta intensidad, ya que en este tipo de actividad estas fibras son las que se reclutan predominantemente4. 2.2 Importancia de la resíntesis de fosfocreatina durante la recuperación Para mantener una producción continua de fuerza, la tasa de resíntesis de fosfocreatina debe aumentar para igualar las mayores demandas de energía requeridas por el músculo activo, para conservar la potencia. La tasa de resíntesis de fosfocreatina juega un papel muy importante en la capacidad de fuerza que puede generar un músculo. Durante ejercicios intervalados de alta intensidad, los músculos dependen en gran parte de la fosfocreatina para la producción de ATP4. 2.3 Alteraciones en el pH y acumulación de lactato La disminución de la potencia observada durante ejercicios de alta intensidad podría ser el resultado de la acumulación de ácido láctico en el músculo, el cual disocia el ánion de lactato y cátion de hidrogeno [H-] disminuyendo, por lo tanto, el pH del músculo.Un menor pH tiene numerosos efectos sobre los ambientes intra y extracelulares, y ha sido asociado con la contribución del comienzo de la fatiga por distintos mecanismos. El aumento de [H-] podría tener una acción directa sobre el aparato contráctil afectado, ya sea el calcio o la miosina adenosintrifosfatasa. La acidosis también podría afectar las reacciones de equilibrio como la reacción de la creatinfosfocinasa, resultante en una depleción más rápida de fosfocreatina. La elevación de [H-] y la disminución del pH inhiben las dos enzimas claves involucradas en la glucólisis, la fosforilasa y fosfofructoquinasa. Todos estos efectos provocados por la acumulación de [H-] y lactato provocan una disminución en las capacidades del músculo de producir fuerza4. INVENIO 14 (26) 2011: 101-115 103 Paula Carrillo - María Victoria Gilli 3. Posibles mecanismos por los cuales los niveles elevados de creatina y fosfocreatina en el músculo podrían actuar para mejorar la performance muscular4. Disponibilidad de PC antes del ejercicio. Dependencia de la glucólisis Cr y PC en el músculo Nivel de hidratación celular Disponibilidad de Cr antes del ejercicio Capacidad de almacenamiento de Cr y glucógeno Flujo a través de la reacción de la CPK [Lactato] Performance de las fibras de tipo II [H+] Resíntesis de PC Masa magra pH PC al comienzo de la siguiente serie de ejercicio Retraso en la aparición de la fatiga Performance muscular Intensidad de entrenamiento 4. Insulina y retención de creatina Las investigaciones sobre la variabilidad en la retención de creatina han indicado que el consumo de creatina muscular está influenciado tanto por la cantidad de creatina muscular previa a la suplementación, como por el incremento en la secreción de insulina estimulado por la glucosa. Con respecto a esto, los estudios han sugerido que la ingestión de creatina con grandes cantidades de glucosa y/o combinaciones de glucosa y proteínas puede incrementar el depósito de creatina6. 5. Posibles efectos secundarios ü Aumento de peso. ü Efectos secundarios anecdóticos no probados: Ø Calambres musculares. Ø Malestar gastrointestinal. Ø Deshidratación. 104 INVENIO 14 (26) 2011: 101-115 Los efectos que produce la creatina en la performance deportiva Ø Alteraciones renales7. 6. La creatina ¿Se considera doping? Definitivamente la creatina no figura entre las sustancias prohibidas por el Comité Olímpico Internacional8. Material y métodos 1. Diseño metodológico de la revisión bibliográfica El diseño metodológico con que fue realizada la presente investigación, denominada revisión bibliográfica, la cual es selectiva y crítica, trata de analizar e integrar la información esencial de los estudios científicos de investigación. La revisión se basó fundamentalmente en criterios determinados por la estrategia de búsqueda de la información y posterior selección. La metodología que se utilizó fue la determinación de la calidad de la información obtenida. 1.1 Estrategias de búsqueda de información La estrategia de búsqueda de información que se utilizó fue una búsqueda sistemática por Internet en: - PubliCE Standard. Base de Datos de acceso gratuito de Publicaciones sobre Ciencias del Ejercicio. (http//:www.sobreentrenamiento.com/PubliCE/Home.asp). - PubliCE Premium. Publicaciones por suscripción sobre Ciencias del Ejercicio (http//:www.sobreentrenamiento.com/PubliCE/Home.asp). - Revista digital. Buenos Aires. (http//:www.efdeportes.com). - Gatorade Sports Science Institute. (http//:www.gssiweb.org). La búsqueda comprendió el período entre 1998 a 2010. 1.2 Selección de artículos relevantes Como resultado de la búsqueda se obtuvieron cincuenta y nueve estudios científicos. Dentro de los mismos fueron seleccionados veintisiete, mediante una lectura crítica de los resúmenes, determinando si respondían al planteo del problema de investigación. Del total de estudios científicos tuvieron que ser excluidos aquellos a los cuales no se tuvo acceso, no estaban incluidos dentro del período 1998-2008 o no tenían datos relevantes a la investigación. 1.3 Determinación de la calidad de la información Los veintisiete artículos seleccionados fueron leídos detallada y críticamente para evaluar la calidad de la información. Para la evaluación se tuvieron en cuenta los siguientes componentes: INVENIO 14 (26) 2011: 101-115 105 Paula Carrillo - María Victoria Gilli 1.3.1 Tipo de estudio: Del total de veintisiete artículos evaluados para la presente tesina se hallaron: veinte ensayos placebo control con diferentes tipos de diseño, seis revisiones bibliográficas y un artículo científico. 1.3.2 Población estudiada: Se tuvieron en cuenta las características de la población en estudio. 1.3.3 Diseño del estudio: Para la evaluación del diseño de los estudios se tuvo en cuenta el tamaño de la muestra, la duración, la metodología utilizada y los resultados obtenidos. 2. Diseño metodológico de la encuesta 2.1 Tipo de estudio: Observacional, descriptivo de tipo transversal. 2.2 Área de estudio: Gimnasios habilitados de la ciudad de Pergamino, provincia de Buenos Aires. 2.3 Población: Hombres y mujeres que asisten a gimnasios del área de estudio. 2.4 Muestra: Se seleccionó una muestra aleatoria del 20% del total de gimnasios habilitados del área de estudio. En segundo lugar se realizó una muestra representativa del 20% de la población que asiste a cada gimnasio. 2.5 Criterios de inclusión: Hombres y mujeres entre 18 y 35 años que participaron en la investigación respondiendo el cuestionario. 2.6 Criterios de exclusión: Aquellos individuos que no participaron en la investigación. 3. Variables en estudio y operacionalización - - Dependiente: Consumo de creatina. Dimensión: nutricional. Indicadores: forma de administración de la creatina; resultados obtenidos a partir de la suplementación. Independiente: Hombres y mujeres que asisten a los gimnasios del área en estudio. Dimensión 1: demográfica/deportiva. Indicador: tipo de actividad/deporte. Dimensión 2: biológica. Indicadores: sexo, edad. 4. Técnica e instrumento de recolección de datos La encuesta se llevó a cabo mediante un cuestionario semi-estructurado, con modalidad de entrevista personal en forma anónima y confidencial. 5. Tratamiento estadístico Se utilizó el programa Excel para el diseño y construcción de las bases de datos con las variables que se incluyeron en los cuestionarios. También se empleó el mismo programa en la etapa de procesamiento, para la presentación de tablas y gráficos. La información se presentó en tablas de frecuencia univariadas, bivariadas y en gráficos. Para las variables se calcularon frecuencias, porcentajes y medidas descriptivas para caracterizar el comportamiento de las mismas. Los resultados se presentaron de acuerdo al orden del formulario. En el cuerpo del informe se presentaron los gráficos y las tablas de frecuencia que se adjuntan en el anexo. 106 INVENIO 14 (26) 2011: 101-115 Los efectos que produce la creatina en la performance deportiva Resultados 1. Análisis e interpretación de resultados de las publicaciones científicas consultadas 1.1 Creatina y rendimiento deportivo Basándose en la literatura disponible, los autores sugieren que la suplementación con creatina es una estrategia nutricional segura y efectiva para aumentar el rendimiento durante el ejercicio. 10.15.18.25 La creatina pareciera proveer los efectos más beneficiosos para el rendimiento deportivo cuando la actividad implica la realización de series repetidas de ejercicio de alta intensidad y corta duración.10.15.18.25 En otros estudios, la ingesta de creatina incrementa significativamente el ATP y la fosfocreatina muscular, no altera el lactato sanguíneo, y conduce a una mejora significativa del rendimiento, especialmente hacia el final de las series de ejercicios, posiblemente por medio de una resíntesis acelerada de ATP y fosfocreatina durante el período de recuperación entre las series.11.20 Con respecto a los mecanismos relacionados a la mejora del rendimiento, una elevada concentración pre-ejercicio de creatina constituye un “estímulo” inicial para la mejora del rendimiento, seguido por una repleción más eficiente de las reservas de fosfocreatina durante los intervalos de ejercicio.20 Por otro lado en un estudio realizado por Levesque y cols, el aumento de fosfocreatina y creatina total a través de la suplementación con creatina, falla en mejorar el rendimiento durante esprints repetidos de ciclismo sin recuperación pasiva o completa entre los esprints. No puede ser excluida la posibilidad de que la falta de efecto ergogénico después de la suplementación con creatina en el presente estudio, se debe al protocolo de ejercicio diferente en el cual se usa actividad intensa entre los esprints en vez de actividad de baja intensidad o ninguna actividad, tal como ha sido usado por otros estudios de ejercicio de esprints, pero tales condiciones no existen en las competiciones de ciclismo.26 Según Syrotuik y col, existe un perfil fisiológico de sujetos respondedores y no respondedores a la suplementación con creatina, que puede ser útil parcialmente para explicar los hallazgos de rendimiento equívocos reportados en la literatura. El grupo respondedor posee un perfil biológico de bajos niveles iniciales de creatina y fosfocreatina, mayor porcentaje de fibras tipo II, una mayor área de sección trasversal de las fibras musculares pre-carga y mayor masa magra, mientras que el grupo no respondedor posee niveles de creatina y fosfocreatina más altos, menos fibras musculares tipo II, menor área de sección trasversal de fibras musculares pre-carga y menor masa magra.16 No todos los estudios incluidos reportan beneficios ergogénicos, posiblemente debido a diferencias intra-sujeto en la respuesta a la suplementación con creatina, la duración de la suplementación, el criterio de evaluación de los ejercicios y/o la duración de las pausas entre las series repetidas de ejercicios.10.15 1.2 Creatina en los deportes Los deportes tales como el fútbol americano13, el fútbol, el squash, están más comúnmente involucrados en la utilización de este suplemento.18 Sin embargo, en el caso de natación la INVENIO 14 (26) 2011: 101-115 107 Paula Carrillo - María Victoria Gilli suplementación con creatina no mejora el rendimiento durante la realización de un único esprint, pero tendría potenciales beneficios sobre el rendimiento en series repetidas; a su vez como resultado de las altas demandas energéticas de los estilos pecho y mariposa, los potenciales beneficios asociados con la suplementación con creatina sobre el rendimiento en natación, podrían ser mayores en estos estilos cuando se los compara con el comúnmente examinado estilo libre.24 En el caso del voleibol se presenta un estudio en jugadoras universitarias y los hallazgos del mismo sugieren que la suplementación con creatina conjuntamente con un buen programa de acondicionamiento, puede ser una forma efectiva de mejorar el rendimiento atlético (en la fuerza máxima y salto vertical).17 En un estudio cuyo diseño es doble ciego, se establece que en carreras múltiples, el uso de monohidrato de creatina no provee beneficios respecto del rendimiento en esprints, ya que no se observan diferencias significativas, entre el grupo control y el grupo experimental, en las mediciones de los tiempos en los esprints múltiples, en el tiempo medio, en la fatiga o en la concentración de lactato post test.21 En cuanto a la velocidad de carrera, tratada en otro estudio con diseño doble ciego, los resultados indican que tampoco hubo efectos estadísticamente significativos sobre la velocidad entre el grupo control y el grupo experimental. Sin embargo, la falta de efectos positivos en este estudio puede deberse a varios factores, el número de repeticiones en el trabajo puede haber sido demasiado escaso para llevar a un vaciamiento acumulativo de fosfocreatina; los dos minutos de pausa pudieron haber sido suficientes para completar la regeneración de fosfocreatina, aun sin una suplementación oral con creatina; los sujetos podrían haber “no reaccionado” al tratamiento.9 Izquierdo y cols, estudian el efecto de la suplementación con creatina en jugadores de balonmano, ya que en este deporte se producen fases anaeróbicas de muy corta duración (uno a tres segundos) y de gran intensidad, que suelen ser decisivas en la obtención del triunfo (desmarque, lanzamiento o salto), intercaladas con fases aeróbicas de recuperación. Los resultados demuestran que si bien existen efectos beneficiosos sobre el rendimiento deportivo, la suplementación con creatina no mejora la fuerza máxima de la extremidad superior ni la resistencia en el test de carrera.23 1.3 Terapéutica de la suplementación con creatina Se emplean métricas de dosificación del suplemento en función de la masa corporal; se recomienda 0,3 gramos de creatina por kilogramo de peso. El nivel de entrenamiento puede tener cierto impacto sobre la absorción de creatina durante la fase de carga (consiste en la toma de 20 a 25 gr de creatina por un espacio de 5 a 7 días), ya que los individuos altamente entrenados pueden no necesitar períodos de carga, debido a que los niveles intramusculares ya están elevados, pero sí requieren la fase de mantenimiento (consiste en la toma de 2 a 5 gr de creatina dependiendo del sujeto y la actividad física que realice).18.25 Si se desea optimizar el rendimiento, es necesario valorar las características de las personas, nivel de entrenamiento, edad y fundamentalmente la especialidad deportiva de modo de estimar si es realmente necesario realizar una estrategia de suplementación y especialmente determinar la forma más adecuada para cada caso.18.25 Considerando que el pico de creatina plasmático se produce aproximadamente una hora después de su ingesta, el momento de su consumo podrá determinarse en función del tipo de entrenamiento: 108 INVENIO 14 (26) 2011: 101-115 Los efectos que produce la creatina en la performance deportiva 1. Para entrenamientos de fuerza cortos e intensos, durante los primeros instantes del entrenamiento, junto con una bebida deportiva con 6 a 8% de hidratos de carbono. 2. Para entrenamientos más largos, de resistencia de fuerza o velocidad específica aplicada a una actividad deportiva durante el mismo entrenamiento, también junto con una bebida deportiva con un 6 a 8% de hidratos de carbono. 3. Para entrenamientos de resistencia con gran componente aeróbico (intensidad moderada, y mayor volumen) inmediatamente después, aunque si el objetivo es favorecer la velocidad de transferencia energética intracelular durante el desarrollo de la actividad, podría ingerirse 60 a 30 minutos antes.25 Algunos estudios sugieren que la adición de hidratos de carbono a la suplementación de creatina, puede aumentar los efectos de la misma.27.6 Las investigaciones sobre la variabilidad en la retención de creatina indican que el consumo de creatina muscular está influenciado tanto por la cantidad de creatina muscular previa a la suplementación, como por el incremento en la secreción de insulina estimulado por la glucosa.6 1.4 Efectos de la creatina sobre la composición corporal En varios estudios los resultados indican que la suplementación con creatina eleva la masa corporal total, 11.12.13.17.19.21.22.23 la masa magra 11.14.17.22 y en cuanto a los cambios de masa grasa existen controversias. Con respecto a esta última, en dos estudios revisados no se hallan cambios, 17.23 mientras que en otros, debido a la suplementación con creatina se reduce.21.22 Según Stephen y cols, el consumo de creatina produce un incremento significativo sobre la masa corporal, sin reducir el porcentaje de grasa corporal y no produce un incremento de la masa magra mayor que el provocado por el entrenamiento de la fuerza por sí sola.19 1.5 Efectos adversos a la suplementación con creatina No existe evidencia contundente que respalde otros efectos adversos, que no sea la ganancia de peso.10.18 Los cambios tempranos observados en el peso corporal luego de la ingesta de creatina, pueden explicarse probablemente por el incremento en el agua corporal, especialmente en los compartimentos intracelulares musculares. Los autores han especulado que la razón del incremento en el agua corporal es el incremento en la carga osmótica, asociado con el incremento en la concentración de creatina dentro de la célula.18 Aparentemente, la mayoría de los reportes acerca de los efectos adversos de la suplementación con creatina tales como deshidratación, calambres musculares, estrés gastrointestinal, alteración de la función renal, hepática, entre otros, han sido anecdóticos. Cuando los estudios emplean diseños de investigación ciegos, que incluyen grupo control, no parece haber un hallazgo consistente de cualquier efecto adverso que pueda provocar la suplementación con creatina en individuos normales y saludables.18 2. Resultados de la encuesta de consumo A continuación se detallan los resultados más relevantes de la encuesta de consumo llevada a cabo en la ciudad de Pergamino, provincia de Buenos Aires. Dado que el objetivo del estudio es evaluar aspectos relacionados con el consumo de INVENIO 14 (26) 2011: 101-115 109 Paula Carrillo - María Victoria Gilli creatina, sin importar si es actual o pasado, se unieron las respuestas de los encuestados para calcular el consumo total de esta sustancia. Al tener en cuenta este aspecto, el porcentaje de personas que han consumido alguna vez creatina alcanza el 47,9%. (Gráfico 1) Gráfico 1: Consumo de creatina por parte de las personas encuestadas. El consumo de creatina está significativamente asociado al sexo de las personas. El 70% de los hombres encuestados consumió creatina alguna vez, mientras que sólo el 12,8% de las mujeres lo hizo (Gráfico 2). Gráfico 2: Consumo de creatina por parte de las personas encuestadas, según sexo. El consumo de creatina también está significativamente asociado a la edad de las personas. El 75% de las personas mayores de 30 años consumió creatina alguna vez, mientras que entre las personas que tienen entre 22 y 29 años lo hizo sólo el 36,7% y de los menores de 21 años el 45,5% (Gráfico3). Gráfico 3: Consumo de creatina por parte de las personas encuestadas, según grupo de edad. 110 INVENIO 14 (26) 2011: 101-115 Los efectos que produce la creatina en la performance deportiva El 44,8% de las personas que consumen o consumieron creatina, manifiestan hacerlo o haberlo hecho, con el objetivo de aumentar su masa muscular. El 36,2% con el objetivo de aumentar su rendimiento y aproximadamente el 20% para lograr un aumento en ambos sentidos (Gráfico 4). Gráfico 4: Objetivo del consumo de creatina por parte de las personas encuestadas que consumen o alguna vez consumieron. En cuanto a la forma de administración de la creatina, el 48,3% de los encuestados manifiestan que consumen o consumieron una carga inicial y mantenimiento. Aproximadamente el 45% sólo una dosis de mantenimiento y el 7% otra dosis diferente a las mencionadas (Gráfico 5). Gráfico 5: Forma de administración de la creatina por parte de las personas encuestadas que consumen o alguna vez consumieron. Con respecto al momento de administración de la creatina, aproximadamente el 45% de los encuestados manifiesta que la consume o consumía antes y después de entrenar. Cerca del 26%, antes de entrenar y el 29,3% después del entrenamiento (Gráfico 6). Gráfico 6: Momento de administración de la creatina por parte de las personas encuestadas que consumen o alguna vez consumieron. INVENIO 14 (26) 2011: 101-115 111 Paula Carrillo - María Victoria Gilli El 63,8% de los encuestados que consumen o consumieron creatina alguna vez, manifiestan hacerlo o haberlo hecho acompañada de hidratos de carbono y el resto sola. Ninguno de ellos manifiesta consumirla o haberla consumido acompañada de algún otro suplemento o alimento (Gráfico 7). Gráfico 7: Forma de consumo de la creatina por parte de las personas encuestadas que consumen o alguna vez consumieron. Aproximadamente el 85% de las personas que consumen o consumieron creatina obtienen u obtuvieron los resultados esperados de la administración de esta sustancia (Gráfico 8). Gráfico 8: Obtención de los resultados esperados del consumo de creatina por parte de las personas encuestadas que consumen o alguna vez consumieron. El 34,5% de las personas que consumen o que han consumido creatina alguna vez, manifiesta padecer o haber padecido algún efecto secundario, mayoritariamente aumento de peso, y una sola padeció alguna vez, calambres musculares (Gráfico 9). Ninguna de las mujeres encuestadas padece o padeció efectos secundarios de la toma de creatina. 112 INVENIO 14 (26) 2011: 101-115 Los efectos que produce la creatina en la performance deportiva Gráfico 9: Efectos secundarios del consumo de creatina en las personas encuestadas que consumen o alguna vez consumieron. Conclusiones: La suplementación con creatina es aconsejable para el rendimiento deportivo cuando la actividad implica la realización de series repetidas de ejercicio de alta intensidad y corta duración. Numerosas investigaciones avalan que atletas que se desempeñan en deportes que son similares a este tipo de actividad, obtendrán el mayor beneficio de la suplementación con creatina. Algunos estudios sugieren que la adición de hidratos de carbono a la suplementación de la misma puede aumentar los efectos de la creatina. La ganancia de peso es otro efecto que provoca la suplementación con creatina, respaldado por las investigaciones revisadas. Este efecto reportado, está asociado a un aumento de retención de fluidos en el sarcoplasma. A partir del análisis de los datos obtenidos de la encuesta de consumo; la población que más consume creatina son los hombres, mayores de 30 años, con el objetivo de aumentar su masa muscular. La forma de administración más utilizada es carga inicial y mantenimiento; el momento de la suplementación, antes y después de entrenar; y el consumo se realiza mayoritariamente con el agregado de hidratos de carbono. El 85% de la población que consume o consumió alguna vez creatina, obtuvo los resultados esperados; y el 32,8% reportó un aumento de peso como efecto secundario a la suplementación. Consideramos necesario efectuar investigaciones que demuestren los efectos que puede producir la suplementación crónica de creatina, ya sea en deportistas recreacionales como de elite. Así como también continuar la línea de investigación acerca de la seguridad y eficacia de las formas variadas de creatina que están siendo comercializadas hoy en día. Recibido: 28/03/10. Aceptado: 03/02/11 Bibliografía 1. Gonzáles Boto R, García López D, Herrero Alonso J. A. “La suplementación con creatina en el deporte y su relación con el rendimiento deportivo”. Revista Internacional de Medicina y Ciencias de la Actividad Física y el Deporte. Volumen 3 (12) p.p. 242-259. Diciembre, 2003. En: http://cdeporte.rediris.es/revista/revista12/ artcreatina.htm. Citado: 15/09/08. INVENIO 14 (26) 2011: 101-115 113 Paula Carrillo - María Victoria Gilli 2. Prieto, RG. “Efectos de los suplementos de creatina sobre el rendimiento físico”. Revista Digital. Buenos Aires. Año 10. N° 69. Febrero, 2004. En: http//:www.efdeportes.com. Citado: 27/10/08. 3. Dauval Borges, C.J; Gonzalvo, A.A. “Creatina: ¿suplementación natural o dopaje?”. Disponible en: http:// www.efdeportes. com. Citado: 12/09/2008. 4. Volek, J.S.; Kraemer, W. J. “Suplementación con creatina: su efecto sobre la performance muscular humana y la composición corporal”. Cetro de Medicina Deportiva, Universidad Estatal de Pennsylvania, University Park, Pennsylvania, USA. 1996. En: Proceedings, Resúmenes del Simposio Internacional de Nutrición e hidratación deportiva para la actividad física, la salud y el deporte de competencia. Biosistem, Servicio Educativo. Rosario, Argentina. 1997. 5. Olmos Hermosilla, A. “Monohidrato de creatina, rendimiento y fútbol”. Revista digital. Año 8. N° 49. Buenos Aires. Junio 2002. En: http//:www.efdeportes.com. Citado: 25/10/08. 6. Greenwood, M; Kreider, R; Earnest, C; Rasmussen, C; Almada, A. “Differences in creatine retention among three nutritional formulations of oral creatine supplementation.” JEPonline; 6(2): 37-43, 2003. 7. Santoja Gómez, R; López Villanueva, N. “Enciclopedia de Nutrición” (guía práctica). Monografías. Capítulo 2, pp. 125-133. Editorial Rafael Santoja. Madrid, España. 2002. 2° edición. 8. Del Castillo, V. “Monohidrato de creatina ¿un suplemento para todos?”. Revista digital. Año 5. N° 18. Buenos Aires. Febrero 2000. En: http//:www.efdeportes.com. Citado: 01/04/09. 9. Redondo, D.R; Dowling, E.A; Graham, B.L; Almada, A.L y Williams, M.H. “Efecto de la suplementación oral con monohidratos de creatina sobre la velocidad de carrera”. Revista de Actualización en Ciencias del Deporte Nº17, 1998. 10. Kreider, R.B. “Creatine supplementation: Analysis of ergogenic value, medical safety, and concerns”. J. E. Ponline Vol. 1, No. 1, 1998. 11. Santos, M.G.; López de Viñaspre, P.; González de Suso, J. M.; Moreno, A.; Alonso, J; Cabañas, M.; Pons, V.; Porta, J. Y.; ARÚS, C. “Efecto de la suplementación oral con monohidrato de creatina en el metabolismo energético muscular de ciclistas.” Revista digital. Buenos Aires. Año 7. N° 39. En: http://www.efdeportes. com. Fecha de publicación: 08/2001. 12. Kern, M; Podewils, L.J; Vukovich, M., Buono, M. J. “Physiological Response to Exercise in the Heat following Creatine Supplementation”. J. E. Ponline; 4(2): 18-27, 2001. 13. Bemben, M.G; Bemben, D.A; Floftiss, D.D.; Knehans, A.W. “Creatine Suplementation during Resistance Training in Collage Football Athletes”. Med Sci Sports Exerc, Vol. 33 No. 10, pp. 1667-1673, 2001. 14. Havenetidis, K; Matsouka, O; Cooke, C.B; Theodorou, A. “La Utilización de Diferentes Regímenes de Suplementación con Creatina Sobre la Capacidad de Esprint en Ciclismo”. Journal of Sports Science and Medicine 2, 88-97, 2003. 15. Greenwood, M; Kreider, R; Earnest, C; Rasmussen, C; Almada, A. “Differences in creatine retention among three nutritional formulations of oral creatine supplementation”. JEPonline; 6(2): 37-43, 2003. 16. Bird, S.P. “Suplementación con Creatina y Rendimiento durante el Ejercicio: Una Breve Revisión”. Journal of Sports Science and Medicine 2, 123-132, 2003. 17. Syrotuik, D.G.; Gordon J. B. “Acute Creatine Monohydrate Supplementation: A Descriptive Physiological Profile of Responders vs. Nonresponders”. J. Strength Cond. Res.; 18 (3), 610-617, 2004. 18. Jon Yeansub, L. “Efectos de la Suplementación con Creatina sobre la Composición Corporal, la Fuerza y la Potencia Muscular”. PubliCE Standard. Pid: 501, 2005. 19. Bemben, M.G; Lamont, H. “Creatine Supplementation and Exercise Performance. Recent Findings”. Sports Med. 35 (2): 107-125, 2005. 20. Ball, S. D.; Bowen-Thwaits, J.; Swan, P. D. “Oral Creatine Supplementation Does not Improve Body Composition in Recreationally Active Men during Strength Training”. JEPonline; 7 (6): 9-15, 2005. 21. Havenetidis, K. “Assestment of the Ergogenic Properties of Creatine using an Intermittent Exercise Protocol”. JEPonline; 8 (1): 26-33, 2005. 22. Glaister, M.; Lockey, R. A.; Abraham, C. S.; Staerck, A.; Goodwin, J.E.; Mcinnes, G. “Creatine supplementation and multiple sprint running performance”. J. Strength Cond. Res., 20 (2): 273–277, 2006. 23. Rogers, M.E.; Bohlken, R. M.; Beets, M.W.; Hammer, S.B.; Ziegenfuss, T. N.; Sarabon, N. “Effects of Creatine, Ginseng, and Astragalus Supplementation on Strength, Body Composition, Mood, and Blood Lipids during Strength-Training in older Adults”. Journal of Sports Science and Medicine, 5, 60-69, 2006. 24. Izquierdo, M.; Ibañez, J.; González Badillo, J.J.; Gorostiaga, E.M. “Efectos de la Suplementación con Creatina sobre la Potencia Muscular, la Resistencia y la Velocidad en Jugadores de Balonmano”. PubliCE Standard. Pid: 751, 2006. 25. Hopwood, M.J.; Graham, K; Rooney, K.B. “Creatine Supplementation and Swim Performance: A Brief Review”. Journal of Sports Science and Medicine; 5, 10-24, 2006. 114 INVENIO 14 (26) 2011: 101-115 Los efectos que produce la creatina en la performance deportiva 26. Ayllón, N; Fernando, J. “Utilización del Monohidrato de Creatina como Suplemento Dietético”. PubliCE Standard. Pid: 756, 2007. 27. Levesque, D.G.; Kenefick, R.W; Quinn, T. J. “Creatine Supplementation: Impact on Cycling Sprint Performance”. JepOnline; 10 (4): 17–28, 2007. 28. Kern, M.; Podewils, L.J.; Vukovich, M.; Buono, M.J. “Physiological Response to Exercise in the Heat following Creatine Supplementation”. JEPonline; 4(2): 18-27, 2001. 29. Schoch, Ryan D. Willoughby, Darryn S. Greenwood, Mike. “La Regulación y Expresión del Transportador de Creatina”: Una Breve Revisión de la Suplementación con Creatina en Humanos y Animales (Resumen). PubliCE Premium. 17/09/2009. Pid: 1173. 30. Buford, Thomas W. Kreider, R B. Stout, Jeffrey R. Greenwood, Mike. Campbell, Bill. Spano, Marie. Ziegenfuss, Tim N. Lopez, Hector. Landis, Jamie. Antonio, Jose. “Declaración de Posición de la Sociedad Internacional de Nutrición Deportiva”: Suplementación con Creatina y Ejercicio (Resumen). PubliCE Premium. 03/09/2009. Pid: 1169. 31. Flanagan, Eamonn P.. Creatine Supplementation: “Implications for the Competitive Weightlifter. Strength and Conditioning Journal”; 29(2):60–66. PubliCE Standard. 22/05/2009. Pid: 1131. 32.Rosene, John , Matthews, Tracey; Ryan,Christine ; Belmore, Keith; Bergsten, Alisa; Blaisdell, Jill; Gaylord, James; Love, Rebecca; Marrone,Michael;Ward, Kristine and Wilson, Eric “Short and longer-term effects of creatine supplementation on exercise induced muscle damage”. Journal of Sports Science and Medicine (2009) 8, 89 – 96. 33. Souza, Renato A. , Miranda, Humberto; Murilo, Xavier, Lazo-Osorio, Erosrigo A. ; Gouvea, Hélio A.; Cogo,José C.; Viera, Rodolfo;and Ribeiro,Wellington . “Effects of hight-doseEcreatine supplementation on kidney and liver responses in sedentary and exercised rats”. Journal of Sports Science and Medicine (2009) 8, 672 – 681. 34. Yildiz, Ahmet; Ercan, Ozdemir; Sefa Gulturk and Sena Erdal. “The effects of creatine long- term supplementation on muscle morphology and swimming performance in rats”. Journal of Sports Science and Medicine (2009) 8, 516 - 522 35. Campbell, . Bill I. Wilborn, Colin D. and La Bounty, Paul M.. Supplements for Strength-Power Athletes. Strength & Conditioning Journal, 32(1):93-100 (2010). INVENIO 14 (26) 2011: 101-115 115 116 Dehidrocongelación de frutas: estudio de los parámetros de calidad Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda*1 Resumen: Con la intención de mejorar la calidad sensorial de productos frutihortícolas durante su conservación, y tener la posibilidad de combinar y aplicar otros procesos como la congelación, se estudió el uso de la Deshidratación Osmótica como pretratamiento para prolongar la vida útil en diferentes matrices vegetales. Para ello, en una primera etapa, se examinaron los efectos de la concentración de la solución osmodeshidratante en tres frutas con diferentes composiciones, estructuras celulares y características sensoriales, sobre la cinética de transferencia de materia. En la faz experimental, se utilizaron muestras de peras de la variedad Packham´s Triumph, kiwis de la variedad Hayward y melones de la variedad Honey Dew. Se realizaron deshidrataciones bajo distintas concentraciones de solución (soluciones de sacarosa de 40 y 60°Brix) y tiempo de contacto y luego se congelaron muestras con diferentes tiempos de deshidratación. Además se analizaron las consecuencias producidas por el proceso completo de dehidrocongelación sobre la calidad sensorial tomando como parámetros el color, la textura y exudado producido en las tres frutas deshidratadas osmóticamente y posteriormente congeladas y descongeladas. La deshidratación osmótica aplicada en una etapa previa a la congelación tuvo consecuencias favorables en lo que respecta al estudio de calidad de las frutas y además el efecto beneficioso de disminuir el tiempo necesario para la congelación en las muestras estudiadas. El pretratamiento osmótico podría ser una importante herramienta, principalmente en lo que respecta al desarrollo y aplicación en frutas estacionales, introduciendo un valor agregado a las mismas en el mercado con propiedades funcionales para sistemas alimenticios específicos. Palabras clave: dehidrocongelación - deshidratación osmótica - calidad de frutas. ABSTRACT: Dehydrofreezing of fruit: study on quality parameters Osmotic dehydrofreezing as pretreatment to extend shelf life in different vegetable matrices was studied with the purpose of improving sensory quality of fruit and vegetables during their conservation, as well as of assessing the possibility of combining and applying other processes such as freezing. The effects of the osmotic dehydration solution on the transfer kinetics of matter were studied in three kinds of fruit with different compositions, cell structures, and sensory characteristics. Samples of Packham’s Triumph pears, Hayward kiwis and Honey Dew melons were used during the experimental stage. Dehydration was carried out under different solution concentrations (sucrose solutions of 40º and 60º Brix) and exposure times. Then, samples with different dehydration times were frozen. Consequences of the whole dehydrofreezing process on sensory quality based upon parameters such as color, texture and exudate were examined in the * Melina Bianchi es Ingeniera en Tecnología de los Alimentos, docente de la carrera ITA de UCEL. Ana Guarnaschelli y Pablo Milisenda son graduados de la carrera de Ingeniería en Tecnología de los Alimentos en UCEL. Los autores fueron investigadores del Proyecto “Modelado y Simulación de procesos de congelación y dehidrocongelación de frutas, ALI 113’’, bajo la dirección del Dr. Rodolfo Mascheroni (CIDCA-CONICET, UNLP). E-mail: [email protected] INVENIO 14 (26) 2011: 117-132 117 Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda three fruits submitted to osmotic dehydration, followed by freezing and thawing. It was found that osmotic dehydration applied before the freezing stage had favorable effects on fruit quality plus the advantage of reducing the time needed to freeze the samples under study. Osmotic pretreatment might be a useful added value mainly for seasonal fruit development and application with functional properties for specific food systems. Key words: dehydrofreezing - osmotic dehydration - fruit quality 1- Introducción El incremento en las preferencias del consumidor moderno hacia frutas y vegetales mínimamente procesados, tanto para el consumo directo como para ingredientes en la elaboración de otros alimentos, ha llevado al desarrollo de tecnologías alternativas con el objetivo de minimizar los inconvenientes de los procesos tradicionales (por ejemplo durante la congelación se producen cambios químicos y físicos que afectan las características tisulares y nutricionales de estos alimentos, además de tener un importante consumo energético) (Alzamora y col., 1997). La deshidratación osmótica (DO) es una tecnología ampliamente usada para la extracción parcial de agua en tejidos hortifrutícolas, en la cual el alimento está en contacto con una solución de baja actividad de agua (siendo en la mayoría de los casos soluciones concentradas de sales y/o azúcares), estableciéndose 2 mecanismos de transferencia de masa: i) el agua se transfiere desde el producto hacia la solución, frecuentemente acompañada por sustancias naturales (azúcares, vitaminas, pigmentos, componentes del sabor) y ii) en la dirección opuesta, el soluto se transfiere desde la solución hacia el alimento (Spiazzi y Mascheroni, 1997; Agnelli y col., 2005). Como consecuencia de este intercambio el producto pierde peso y se encoge, y se generan cambios en las propiedades ópticas y mecánicas, dependiendo de las condiciones del proceso y las características de cada alimento a deshidratar (Torregiani, 1995; Talens y col., 2001). Sin embargo, el producto parcialmente deshidratado no es microbiológicamente estable y además es más susceptible al deterioro químico, por lo que se requiere un procesamiento posterior para prolongar su vida útil. Varios tratamientos fueron estudiados hasta el momento: congelación y distintas formas de secado convectivo son los más típicos. La deshidratación parcial ha sido tradicionalmente realizada con aire caliente, pero durante este proceso ocurren reacciones de deterioro muy importantes, principalmente una notoria pérdida de textura, cambios de sabor y de color. La DO, en cambio, posibilita la disminución del contenido acuoso en condiciones de trabajo suaves haciendo que se limiten en gran medida las reacciones de deterioro. Por realizarse en un medio acuoso, las reacciones de oxidación responsables de pérdidas de color y sabor, se reducen. Por otra parte, la incorporación de sólidos que ocurre durante la DO permite mejorar la textura y realza los aromas y sabores. Además, provoca un descenso en el punto crioscópico del alimento, lo que debería llevar a una mejor nucleación durante la congelación con la formación de pequeños cristales de hielo y por lo tanto, aminorar la pérdida de textura que ocurre al descongelar el alimento congelado, por rotura de la estructura celular (Garrote y Bertone, 1989; Forni y col., 1990; Torregiani, 1993; Robbers y col, 1997; Spiazzi y col., 1998, Marani y col., 2007). La dehidrocongelación, que consiste en combinar el proceso de deshidratación osmótica seguido de una congelación, se presenta como una alternativa tecnológica de inte- 118 INVENIO 14 (26) 2011: 117-132 Dehidrocongelación de frutas: estudio de los parámetros de calidad rés para obtener productos congelados de buena calidad. La etapa previa de deshidratación osmótica busca contrarrestar el efecto dañino de la congelación, inclusive en tejidos muy delicados como las frutas y los vegetales (Agnelli y col., 2005; Marani y col., 2007). Este aspecto interesa especialmente en algunos frutos, por ejemplo: kiwi, melón, manzana, pera, frutilla y durazno, todos productos particularmente sujetos a daño por congelación. Desde el punto de vista económico, la necesidad de frío se ve reducida proporcionalmente a la menor cantidad de hielo formado y la disminución de volumen conduce a un menor costo de manejo, conservación y transporte. En cuanto a las aplicaciones, las más interesantes resultan la preparación de ensalada de frutas congelada y como ingredientes para la elaboración de helados, yogurt y pastelería (habiendo en esta última una doble ventaja: buena calidad organoléptica y un reducido contenido de agua que limita el riesgo de impregnación de la masa) (Monzini y Maltini, 1986). En el presente trabajo, se examinaron distintos aspectos vinculados a los parámetros de calidad en las etapas de Deshidratación Osmótica y la posterior congelación de distintos productos frutihortícolas Los objetivos establecidos se detallan a continuación. ∙ Investigar sobre un tema de interés nacional y regional (aprovechamiento de frutas para su valorización en productos elaborados). ∙ Determinar índices de calidad: color, textura y exudado, tanto para la etapa de deshidratación osmótica como para su posterior congelación y evaluar la influencia de dichos parámetros en el proceso de dehidrocongelación. En el presente trabajo se resume, pues, parte de la investigación enmarcada en el Proyecto ALI 113 donde los estudios y determinaciones experimentales realizadas por el Grupo de Investigación contemplaron parámetros cinéticos, de calidad y desarrollos de modelos matemáticos para predecir el comportamiento de diversas frutas. En este artículo se publican los resultados de los parámetros de calidad en distintas matrices vegetales 2- Materiales y métodos La sede donde se llevó a cabo la parte experimental del presente proyecto de investigación fue el Centro de Investigación y Desarrollo en Criotecnología de Alimentos (CIDCA), perteneciente a la Universidad Nacional de La Plata y CONICET, situado en la ciudad de La Plata, Argentina. El CIDCA cuenta con laboratorios y planta piloto que están dotados del equipamiento y material adecuado que permitieron el normal desarrollo del proyecto. 2.1 Materiales 2.1.1 Materia prima Se utilizaron 3 frutas de diferentes características físico químicas y estructurales: peras de la variedad Packham´s Triumph, kiwis de la variedad Hayward y melones de la variedad Honey Dew, compradas en la ciudad de La Plata, Argentina, usando como criterio de selección: nivel de maduración, intensidad de color, tamaño y forma similares, con el fin de obtener muestras relativamente homogéneas en cada tipo de fruta. INVENIO 14 (26) 2011: 117-132 119 Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda 2.1.2 Agente deshidratante Se utilizó sacarosa comercial (Ledesma, Buenos Aires, Argentina) para la preparación de las soluciones hipertónicas. Las concentraciones de sacarosa fueron de 40 y 60ºBrix. 2.2 Métodos 2.2.1 Deshidratación osmótica Las muestras para cada tiempo de deshidratación consistieron en las siguientes frutas: peras: 5 rodajas de 1 cm de espesor, kiwis: 6 rodajas de 1 cm de espesor y melones: 20 esferas de 2,6 cm de diámetro. Las frutas fueron seleccionadas y lavadas en agua corriente para remoción de suciedad superficial. Luego fueron peladas manualmente y cortadas, acorde a cada geometría. Las muestras fueron pesadas y colocadas en vasos de precipitado con la solución hipertónica a 30 ºC, realizando ensayos en ambas concentraciones. La relación muestra:solución utilizada fue de 1:10 (p/p) para garantizar una concentración de solutos prácticamente constante durante todo el proceso. Los ensayos de deshidratación osmótica fueron realizados en un baño termostático, marca FERCA, modelo TT 400 con agitación lineal (110 ciclos por minuto), durante 72 horas con extracción de muestras en tiempos sucesivos correspondientes a: 0, 1, 2, 4, 8, 16, 24 y 72 horas de proceso. Luego del tiempo de inmersión requerido, las muestras fueron drenadas, colocadas sobre papel absorbente para remoción de solución en exceso y pesadas nuevamente para la determinación de pérdida de peso en relación a la masa inicial del producto. 2.2.2 Congelación Luego del proceso de deshidratación osmótica, las muestras fueron congeladas por duplicado en un congelador convectivo de bandejas con flujo de aire horizontal (-35 ºC aproximadamente en el evaporador). El progreso de la congelación fue monitoreado a través de mediciones de temperaturas con termocuplas de cobre-constantan situadas horizontalmente, hasta alcanzar una temperatura en el producto de -18ºC. 2.2.3 Exudado Para evaluar el efecto del pretratamiento osmótico sobre el exudado, se colocaron piezas de fruta congeladas sobre un papel absorbente dentro de recipientes herméticos. Tanto el producto congelado como el papel fueron previamente pesados. Luego se dejó descongelar en un ambiente a 20 ºC, hasta pesada constante (aproximadamente 2 horas). Pasado este período, se pesó nuevamente el papel y se calculó el exudado en base seca acorde a la siguiente ecuación 1: Wt − W0 Ex (%) = * 100 Wm * TS (1) 120 INVENIO 14 (26) 2011: 117-132 Dehidrocongelación de frutas: estudio de los parámetros de calidad Donde: W0 = peso del papel absorbente seco (g); Wt = peso del papel absorbente a tiempo t (g); Wm = peso de la muestra (g); TS = fracción de sólidos totales de la muestra. 2.2.4 Color Las coordenadas cromáticas fueron medidas en un colorímetro Minolta R-300, donde se determinó el color de cada muestra deshidratada y luego descongelada comparando cada corrida con la muestra fresca como referencia. Con el fin de cuantificar los cambios globales de color, se calculó la diferencia de color total, ∆E*, en las muestras deshidratadas y descongeladas con respecto a las frescas de referencia, quedando definida mediante la expresión 2: (2) ∆E* = ∆a *2 +∆b*2 + ∆L*2 (3) Los valores de diferencias correspondientes a ∆L*, ∆a* y ∆b* fueron obtenidos acorde a las siguientes expresiones: ∆L* = L*t - L*0 ∆a* = a*t - a*0 ∆b* = b*t - b*0 Donde el subíndice t representa el valor de L*, a* y b* de la muestra a cada tiempo de deshidratación y 0 de la muestra fresca tomada como referencia. 2.2.5 Textura Las mediciones de textura fueron realizadas empleando un texturómetro Universal Testing Machine, modelo TATX2i, marca Stable Micro Systems. Se realizó un ensayo de compresión uniaxial a altas deformaciones de la muestra, utilizando una celda de compresión de 50 kg, una sonda metálica con plato de compresión de 75 mm de diámetro, a una velocidad de compresión de 0,5 mm/s y hasta 40% de deformación de la muestra. En este caso la primera discontinuidad en el gráfico Fuerza vs. Tiempo fue tomada para caracterizar la resistencia mecánica de las muestras. 3. Resultados y discusión 2.2 Estudio de los parámetros de calidad 2.2.1 Determinación de color Los resultados de las mediciones de color (L*, a*, b* y ΔE) se exhiben en las Figuras 1, 2 y 3. La evaluación de la influencia de este parámetro sobre el proceso de la deshidratación, y posterior congelación-descongelación, es analizada en cada fruta a continuación para cada tiempo de inmersión y en ambas concentraciones de solución hipertónica. INVENIO 14 (26) 2011: 117-132 121 Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda Figura 1. Parámetros de color L*a*b* determinados sobre discos de pera deshidratados y congelados-descongelados con soluciones de sacarosa 40 (color fucsia) y 60°Brix (color celeste) 122 INVENIO 14 (26) 2011: 117-132 Dehidrocongelación de frutas: estudio de los parámetros de calidad Figura 2. Parámetros de color L*a*b* determinados sobre discos de kiwi deshidratados y congelados-descongelados con soluciones de sacarosa de 40 (color fucsia) y 60°Brix (color celeste) INVENIO 14 (26) 2011: 117-132 123 Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda Figura 3. Parámetros de color L*a*b* determinados sobre esferas de melón deshidratadas y congeladas-descongeladas con soluciones de sacarosa de 40 (color fucsia) y 60°Brix (color celeste). 124 INVENIO 14 (26) 2011: 117-132 Dehidrocongelación de frutas: estudio de los parámetros de calidad En cuanto a la variación del color total de la pera (Figura 1), no se observan cambios significativos durante el proceso osmótico en ambas concentraciones con respecto a la muestra fresca sin deshidratar. Si bien durante la etapa de deshidratación osmótica se induce una pérdida de luminosidad, L*, es independiente del tiempo de deshidratación. Respecto de los parámetros a* y b* no se observan grandes cambios. Se considera que la conservación de la calidad en el color de las peras deshidratadas se debió a las condiciones poco desnaturalizantes con las que se trabajó (temperaturas moderadas de 30 °C) y al efecto protector del soluto (sacarosa) que limita las reacciones de oxidación al evitar el contacto de la fruta con el oxígeno e inactiva las enzimas responsables del pardeamiento enzimático (Marani y col., 2001; Krokida y Maroulis, 2000) La muestra fresca, congelada y posteriormente descongelada, revela una disminución significativa en el parámetro L* y un aumento en b*, indicando un importante amarronamiento, respecto de la muestra fresca deshidratada. Respecto a las muestras deshidratadas, congeladas y descongeladas, no existen diferencias significativas en cuanto a la variación del color total en las 2 concentraciones estudiadas, siendo mucho más similares al color inicial de la pera fresca que en la muestra sin deshidratar. En cuanto a las mediciones de color en el kiwi, no se encontraron cambios significativos en la coloración de las muestras deshidratadas con respecto a las frescas, en ambas concentraciones, tal como lo exhibe la Figura 2. Pequeñas variaciones en los parámetros L* y b* se observaron a tiempos largos de inmersión (tenue oscurecimiento de la fruta), viéndose reflejado en la diferencia de color total (ΔE). Un comportamiento similar fue reportado en trabajos efectuados por diversos autores: Talens y col., 2002 y Forni y col., 1990 ambos en kiwis dehidrocongelados. El color verde esmeralda, característico del kiwi, se debe principalmente a la presencia de clorofila. Además esta fruta se caracteriza por tener altos niveles de ácido ascórbico y bajos niveles de taninos y polifenoles, y actividad relativamente baja de polifenoloxidasa. Esta combinación es la causante de la ausencia de oxidación, no siendo el pardeamiento enzimático una limitante en este caso particular. La principal causa de deterioro para el kiwi, podría atribuirse a la degradación de la clorofila en feofitina (pigmento café claro), lo cual podría ser el fundamento del cambio de coloración (Hohlberg y Aguilera, 1988). Luego de la congelación-descongelación, los datos de las experiencias revelaron una pequeña disminución del parámetro L* respecto a las muestras deshidratadas. En la Figura 3 se indican los resultados de las mediciones realizadas en melón para las muestras deshidratadas a 40 y a 60ºBrix. En cuanto a la variación del color total, no se observan cambios significativos durante el proceso osmótico en ambas concentraciones para cada tiempo estipulado. El cambio de color total es superior en el melón deshidratado a 40ºBrix que a 60ºBrix, indicando la marcada influencia de la concentración de la solución sobre el color de las muestras deshidratadas. Respecto de los parámetros a* y b*, no se observan diferencias significativas en las muestras deshidratadas, excepto un leve aumento en ambos para tiempos largos de deshidratación especialmente para las soluciones de 40ºBrix, confirmando lo anteriormente expresado. Las principales causas de la degradación del color en el melón durante tratamientos de secado, se atribuyen al pardeamiento no enzimático y a la pérdida de licopeno (Falade y col. 2007). En cuanto a las muestras de melón descongeladas, las mismas no exhiben cambios importantes de los parámetros L*, a* y b* con respecto a las muestras deshidratadas, indicando que la congelación y posterior descongelación no afectó de manera significativa el color de las muestras en ambas concentraciones. INVENIO 14 (26) 2011: 117-132 125 Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda Maestrelli y col. (2001), realizaron experiencias con 2 variedades de melón, donde comprobaron que el color no fue afectado durante el almacenamiento a -20°C en ambos tipos de cultivo. 2.2.2 Ensayo de textura Los resultados del ensayo de textura de las muestras frescas, deshidratadas y descongeladas, se muestran en las Figuras 4, 5 y 6. En los gráficos siguientes, los valores de textura obtenidos durante el proceso de deshidratación y posterior congelación-descongelación (muestra deshidratada y descongelada: F), fueron normalizados con los correspondientes al blanco en cada fruta (muestra fresca: Fo). 18 16 14 F/Fo 12 10 8 6 4 2 0 0 5 10 15 20 Tiempo de deshidratación (horas) Peras deshidratadas 40ºBrix Peras descongeladas 40ºBrix 25 30 Peras deshidratadas 60ºBrix Peras descongeladas 60ºBrix Figura 4. Ensayo de textura en discos de pera deshidratados y descongelados tratados con soluciones de sacarosa de 40 y 60°Brix, normalizado con los correspondientes valores de la muestra fresca 126 INVENIO 14 (26) 2011: 117-132 Dehidrocongelación de frutas: estudio de los parámetros de calidad 1,2 1 F/Fo 0,8 0,6 0,4 0,2 0 0 5 10 15 20 Tiempo de deshidratación (horas) Kiwi deshidratado 40ºBrix Kiwi descongelado 40º Brix 25 30 Kiwi deshidratado 60ºBrix Kiwi descongelado 60ºBrix Figura 5. Ensayo de textura en discos de kiwi deshidratados y descongelados tratados con soluciones de sacarosa de 40 y 60°Brix, normalizado con los correspondientes valores de la muestra fresca 1,2 1 F/Fo 0,8 0,6 0,4 0,2 0 0 5 10 15 20 25 30 Tiempo de deshidratación (horas) Melon deshidratado 40 Brix Melon deshidratado 60 Brix Figura 6. Ensayo de textura en esferas de melón deshidratadas tratadas con soluciones de sacarosa de 40 y 60°Brix, normalizado con los correspondientes valores de la muestra fresca En la Figura 4 se exhiben los resultados de las mediciones de textura en las muestras de peras en estado fresco, deshidratadas y posteriormente congeladas-descongeladas. Se observa que el proceso de deshidratación aumenta fuertemente la firmeza de las rodajas de pera en las primeras horas, siendo más marcada en la solución más concentrada (60°Brix), luego decrece y se mantiene en un rango estable. INVENIO 14 (26) 2011: 117-132 127 Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda La congelación y posterior descongelación significa un ablandamiento importante. No obstante, las muestras previamente deshidratadas tienen una firmeza del orden del doble que las sin deshidratar en ambas concentraciones. Comportamientos similares fueron reportados por Marani y col. (2007), donde la deshidratación previa con solución de sacarosa realizada en peras afectó la textura de las muestras, las que presentaron un rápido y progresivo descenso en la fuerza de penetración con el tiempo de inmersión. Las mediciones de textura de las rodajas de kiwi fresca, deshidratadas y posteriormente congeladas-descongeladas se muestran en la Figura 5. Para tiempos cortos de procesamiento, las muestras deshidratadas a 60 ºBx fueron las que presentaron mayor firmeza, que luego disminuyeron su valor con el tiempo. Luego de la congelación y descongelación, se observó una firmeza extremadamente baja en los discos de kiwi en largos períodos de tratamiento, en ambas concentraciones. Además hubo una diferencia notable de casi el 15% entre ambas concentraciones, siendo la de 40 ºBx la que presentó mayor firmeza para cada tiempo de tratamiento, comparada con la muestra de 60 ºBx. Este resultado concuerda con el obtenido por Robbers y col. (1997), pudiéndose atribuir a la formación de cristales durante la congelación, los que dañarían la pared celular. En la Figura 6 se representaron las mediciones correspondientes a las muestras de melón deshidratadas solamente, debido a que se hizo dificultoso obtener resultados comparables de las muestras congeladas y luego descongeladas debido a la pérdida de firmeza sufrida por dichas muestras (se desintegraron por completo). Se observó que el proceso de deshidratación osmótica influyó de manera significativa sobre la textura del melón deshidratado, observándose una disminución continua de la firmeza con el tiempo de DO, siendo más marcada a tiempos largos para la solución más concentrada (60°Brix). Los datos correspondientes al proceso de congelación-descongelación en melón no se pudieron medir ya que se hizo dificultoso obtener resultados comparables de textura debido a la pérdida de firmeza sufrida por las muestras (aspecto blando y gomoso). Este comportamiento podría ser ocasionado por el elevado contenido acuoso y a la formación de cristales durante la congelación que dañan la pared celular, causando así una plasticidad en la estructura de la fruta (Robbers y col., 1997) sumada a la pérdida de textura ya sufrida en el proceso de DO. 2.2.3 Determinación de exudado En las siguientes Figuras 7, 8 y 9 se presentan los resultados de las experiencias de exudado, obtenidas durante la descongelación en las tres frutas estudiadas en ambas concentraciones de 40 y 60°Brix. 128 INVENIO 14 (26) 2011: 117-132 Dehidrocongelación de frutas: estudio de los parámetros de calidad 120 Exudado (%) 100 80 60 40 20 0 fresca 1H 2H 4H 8H Muestras deshidratadas 40ºBrix 16H 24H 60ºBrix Figura 7. Exudado durante la descongelación de discos de pera frescos y tratados con soluciones de sacarosa a 40 y 60°Brix. 120 Exudado (%) 100 80 60 40 20 0 fresca 1H 2H 4H 8H 16H 24H Muestras deshidratadas 40ºBrix 60ºBrix Figura 8. Exudado durante la descongelación de discos de kiwi frescos y tratados con soluciones de sacarosa a 40 y 60°Brix. INVENIO 14 (26) 2011: 117-132 129 Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda 450 400 Exudado (%) 350 300 250 200 150 100 50 0 fresca 1H 2H 4H 8H Muestras deshidratadas 40ºBrix 16H 24H 60ºBrix Figura 9. Exudado durante la descongelación de esferas de melón frescas y tratadas con soluciones de sacarosa a 40 y 60°Brix. La Figura 7 reporta los resultados de las pruebas de exudado durante la descongelación de peras sometidas a deshidratación y una posterior congelación, tomando como parámetro de referencia la muestra de pera fresca sin deshidratarse. En la gráfica se observa una tendencia decreciente de exudado a medida que el tiempo de deshidratación aumenta, en las dos condiciones estudiadas. Los valores inferiores corresponden a la concentración de 60ºBrix, debido a que la fruta presenta un mayor contenido de sólidos y menor contenido de agua a iguales tiempos de deshidratación, ocasionando menos daño en la pared celular durante la congelación y mayor capacidad de reabsorción. En la Figura 8 se presentan los resultados de las experiencias de exudado, obtenidos durante la descongelación de rodajas de kiwi tratadas osmóticamente y luego congeladas. En el gráfico, los discos de kiwi exhibieron un constante descenso del exudado en función del tiempo de deshidratación, siendo levemente superior para las muestras de 40 ºBx, consecuencia de un mayor contenido de agua en dichas muestras. Ambos tipos de frutas, pera y kiwi, presentan el mismo comportamiento, observándose un descenso progresivo del exudado en función del tiempo de deshidratación osmótica. Cortos tiempos de pretratamiento (durante las 4 primeras horas de inmersión) arrojaron valores inferiores al 50% respecto de la muestra fresca (referencia). Esto podría ocurrir por la elevada deshidratación que se produjo en ambas concentraciones al inicio del proceso, que condujo a un menor contenido de agua y a una disminución en el daño celular durante la etapa de congelación. Garrote y Bertone, (1989) estudiaron mitades de frutillas deshidratadas en diferentes soluciones de glicerol, glucosa y sacarosa, las cuales presentaron menor exudado comparadas con aquellas muestras sin deshidratar. El mismo comportamiento fue reportado por Spiazzi y col. (1998) en piezas de melón, las que presentaron menor exudado a medida que el tiempo de deshidratación aumentaba. En el caso del melón representado en la Figura 9 y considerando las mediciones de textura anteriores, en donde la estructura de la fruta está totalmente dañada para tiempos lar- 130 INVENIO 14 (26) 2011: 117-132 Dehidrocongelación de frutas: estudio de los parámetros de calidad gos de inmersión, aquí se observó el mismo comportamiento. Se determinó un aumento en la cantidad de exudado en las muestras de melón deshidratadas a partir de 1 hora, aumentando la cantidad de exudado hasta las 4 horas de deshidratación, respecto de las muestras frescas, siendo más notorio en el caso de las muestras deshidratadas a 40°Brix. Este resultado parece contradecir las expectativas del efecto crioprotector del azúcar (Nunes y col., 1996; Talens y col., 2002), pero dicho comportamiento podría explicarse en base al perfil de soluto y de humedad generado durante el proceso osmótico. Durante el período de descongelación, la elevada concentración de azúcar en la superficie de la fruta puede provocar la migración de agua desde el interior, donde la concentración de soluto ha permanecido prácticamente constante. Similar comportamiento fue reportado por Marani y col. (2007) durante la descongelación de frutillas previamente sometidas a deshidratación osmótica; Akbaba e Icier (1998) donde encontraron que la cantidad de exudado de frutillas envasadas cubiertas con azúcar cristalino fue mayor que en frutillas frescas y Ramallo y Mascheroni, (2009) para el caso de la descongelación de ananás. En este caso particular, es mucho más notable la diferencia de exudado en ambas concentraciones, siendo mayor para las muestras deshidratadas con soluciones de 40ºBx. 4. Conclusiones El estudio de los parámetros de calidad, como el color, la textura y el exudado al descongelar, manifestaron comportamientos que no pueden ser generalizados, indicando la influencia de la matriz alimentaria utilizada. La posibilidad de utilizar principalmente peras y kiwis dehidrocongelados es bastante amplia. Un descenso continuo del exudado con el tiempo de inmersión (producto de la pérdida de agua durante las primeras horas de pretratamiento), el efecto protector de la solución sobre el producto que limita las reacciones de pardeamiento y pequeñas variaciones en la textura respecto a las muestras frescas, hacen que el uso de estas frutas sea recomendable. Respecto al melón, si bien los resultados indicaron un descenso en la calidad de esta fruta (siendo los factores limitantes la textura y exudado), no demostraría ser una limitación para su uso, lo que podría destinarse al consumo de un producto congelado tal como un postre helado. El empleo en este tipo de productos cuenta además con la ventaja extra que representa la incorporación de sólidos en la fruta desde la solución osmótica, disminuyendo su punto de congelación. 5. Agradecimientos Los integrantes del proyecto agradecen a CONICET; ANPCyT y en especial a UCEL por el apoyo económico. Además los investigadores agradecen particularmente al CIDCA por haber permitido utilizar el equipamiento y el espacio físico para realizar todas las experiencias; al Ing. Ramiro Arballo y a la Bioq. Ruth Bambicha por transmitirnos sus conocimientos y enseñanza, su predisposición y gentileza; al Ing. Luis Roche por su colaboración durante la realización de las congelaciones. Recibido: 21/04/10. Aceptado: 16/06/10 INVENIO 14 (26) 2011: 117-132 131 Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda BIBLIOGRAFÍA Agnelli, M.E.; Marani, C.M.; and Mascheroni, R.H., Modelling of heat and mass transfer during (osmo) dehydrofreezing of fruits. Journal of Food Engineering, 2005, Vol. 69, 415-424. Akbaba, H.; Icier, F. Effect of sugar treatments on freezing of strawberries. Proceedings of Advances in the Refrigeration Systems, Food Technologies and Cold Chain Commissions B2, C2 & D1-3. Sofia, Bulgarie. International Institute of Refrigeration, 1998, Vol. 6: 570-577. Alzamora, S.M.; Gerschenson, L.N.; Vidales, S.; Nieto, A. 1997. Structural changes in the minimal processing of fruits: Some effects of blanching and sugar impregnation. En: P. Fito, E. Ortega-Rodríguez y G. V. BarbosaCánovas (Ed.). Food engineering . New York, Chapman & Hall, 2000, pp. 117-140. Falade, K.O.; Igbeka, J.C.; Ayanwuyi, F. Kinetics of mass transfer, and colour changes during osmotic dehydration of watermelon. Journal of Food Engineering, 2007, Vol. 80, pp. 979-985. Forni, E.; Torreggiani, D.; Crivelli, G.; Maestrelli, A.; Bertolo, G.; and Santelli, F., Influence of osmosis time on the quality of dehydrofrozen kiwi fruit. In International Symposium of kiwifruit. Acta Horticulturae, Padova.1990, Vol. 282, pp. 425-433. Garrote, R. L.; Bertone, R. A., Osmotic concentration at low temperature of frozen strawberry halves. Effect of glycerol, glucose and sucrose solutions on exudate loss during thawing. Lebensmittel-Wissenschaft und Technologie, 1989, Vol 22, pp. 264–267. Hohlberg A.; Aguilera J. M. Deshidratación de Kiwis. Informe Final, DICTUC, Santiago de Chile, Pontificia Universidad Católica de Chile, 1988. Krokida M; Maroulis Z. Quality changes during drying of foods materials. In: Drying Technology in Agricultural and Food Sciences, Mujumdar, A.S. Ed. Science Publishers, Endfield, 2000, pp 61-106. Maestrelli, L.; Lo Scalzo, D.; Lupi, D.; Bertolo, G.; Torreggiani, D. Partial removal of water before freezing : cultivar and pre-treatments as quality factors of frozen muskmelon (Cucumis melo, CV reticulatus Naud.). Journal of Food Engineering, 2001, Vol. 49, pp. 255-260. Marani, C.M.; Agnelli, M.E. ; Mascheroni, R.H., Osmo-frozen fruits: mass transfer and quality evaluation. Journal of Food Engineering, 2007, Vol. 79, 1122-1130. Marani, C.M.; Agnelli, M.E.; Mascheroni, R.H., Mass transfer and quality evaluation of osmo-frozen pears. VI Congreso Iberoamericano de aire acondicionado y refrigeración, CIAR. 2001. pp 597-604. Monzini A.; Maltini E. Nuovi orientamenti sulla trasformazione degli ortofrutticoli. Deidrocongelazione e trattamento osmotico. Industria Conserve, 1986, Vol. 61, 265-272. Nunes, M.H.; Miguel, M.H.; Kieckbusch, T.G. Influencia dos solutos na conservacao de fatias de manga no processo combinado desidratacao osmotica e congelamento. Anais do VI Congresso Brasileiro de Engenharia e Ciências Térmicas (VI ENCIT) e VI Congreso Latinoamericano de Transferencia de Calor y Materia (LATCYM 96), Florianópolis-SC, Brasil, 1996, Vol. I, 647-650. Ramallo, L.A.; Mascheroni, R.H. Efecto de la congelación sobre la calidad de ananá osmo-deshidratado. Actas del III Congreso Internacional de Ciencia y Tecnología de los Alimentos, 2009, Córdoba, Argentina, (en prensa). Robbers, M.; Singh, R.P.; Cunha, L.M., Osmotic-convective dehydrofreezing process for drying kiwifruit. Journal of Food Science, 1997, 62(5), 1039-1047. Spiazzi, E.; Mascheroni, R. Mass transfer model for osmotic dehydration of foods and vegetables. Journal of Food Engineering, 1997, Vol. 34, 387-410. Spiazzi, E.; Raggio Z.; Bignone K.; Mascheroni R., Experiments in dehydrofreezing of fruits and vegetables: mass transfer and quality factors. IIR proceedings Series “Refrigeration Science and Technology”, Sofia, Bulgaria, 1998. Talens P.; Martínez Navarrete N.; Fito, P.; Chiralt, A. Changes in optical and mechanical properties during osmodehydrofreezing of kiwi fruit. Innovative Food Science and Emerging Technologies, 2001. 3, 191-199. Talens, P.; Martínez-Navarrete, N.; Fito, P.; Chiralt, A. Changes in optical and mechanical properties during osmodehydrofreezing of kiwifruit. Innovative Food Science & Emerging Technologies, 2002, 3(2), 191-199. Torreggiani D. Osmotic dehydration in fruit and vegetable processing. Food Research International 1995, Vol. 26, pp. 59-6. 132 INVENIO 14 (26) 2011: 117-132 DESARROLLO DE UNA PRE-MEZCLA PARA PIZZA A BASE DE HARINA DE GRANO ENTERO DE SORGO Y MIJO Nora Aimaretti - Emilce Llopart - Agustín Codevilla, Carolina Baudino - Adriana Clementz*1 Resumen: En respuesta a las recomendaciones nutricionales y con el fin de aumentar la disponibilidad de productos elaborados a base de harinas de grano entero se molieron sorgo y mijo, con 100% de rendimiento, de modo de obtener harina de grano entero de sorgo (S) y de mijo (M). El análisis de funcionalidad de las harinas mostró que sus propiedades panaderas no son buenas, pese a que sí lo son sus propiedades nutricionales. Por este motivo se ensayaron diferentes formulaciones de harinas, agentes de leudado y otros aditivos con el fin de diseñar una pre-mezcla en polvo, sin TACC, adecuada para la elaboración de pizza casera. Palabras claves: harina de grano entero – sorgo – mijo – pizza – celiaquía ABSTRACT: Pizza premix based on whole grain sorghum and millet flour Sorghum (S) and millet (M) whole grain flours were obtained with a 100% yield in order to increase the availability of products manufactured from whole grain flours which would meet nutritional guidelines. The results of the functional tests run on the flours were poor for bread making although the nutritional properties of both flours were quite good. Therefore, several flour formulas, leavening agents and other additives were tested in order to design a gluten-free powder premix suitable for homemade pizza. Key words: wholegrain flour – sorghum – millet – pizza – celiac diseease * Nora Aimaretti es Bioquímica, Lic. en Biotecnología y Mg. en Ciencia y Tecnología de Alimentos por UNL, Profesora Universitaria por UCEL y Diplomada en Estudios Avanzados por UNED. Es docente e investigadora en la Facultad de Química (UCEL); docente e investigadora en la Facultad de Bioquímica y Ciencias Biológicas (UNL). Su tarea de investigación se desarrolla en el área del diseño de alimentos innovadores y en el área de los biocombustibles, en las cuales ha formado a numerosos estudiantes y graduados. Sus trabajos de investigación son publicados en revistas nacionales e internacionales, como así también en Congresos. Actualmente es Directora de los Proyectos ALI 120 y ALI 121 radicados en UCEL. E-mail: [email protected]. Emilce Llopart es Licenciada en Nutrición y Profesora Universitaria por UCEL.Es docente e investigadsora en la Facultad de Química (UCEL). Su tarea de investigación se desarrolla en el área del diseño de alimentos innovadores en el grupo responsable del Proyecto ALI 120 radicado en UCEL. Agustín Codevilla es alumno de 4° año de la carrera de Ingeniería en Tecnología de los Alimentos y pasante de investigación en el Proyecto ALI 120. Carolina Baudino es Ingeniera en Tecnología de los Alimentos y Profesora Universitaria por UCEL, se desempeña como investigadora en el Proyecto ALI 120. Adriana Clementz es Ingeniera en Tecnología de los Alimentos por UCEL e investigadora del Proyecto ALI 120. Los autores agradecemos los aportes de UCEL en el proyecto de investigación ALI 120: “Desarrollo de alimentos funcionales innovadores a base de grano entero”, en cuyo marco se desarrolló esta investigación. INVENIO 14 (26) 2011: 133-140 133 Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino - Adriana Clementz Fundamento del producto Los hábitos alimenticios de la población argentina reflejan el consumo de una alimentación occidentalizada con predominancia de alto consumo de carne vacuna y bajo en fibra. Los elevados niveles de colesterolemia y de sobrepeso, junto a los altos índices de enfermedades cardiovasculares, originan la necesidad general de reducir la ingesta de energía, grasas saturadas, trans, y colesterol, al tiempo que se incrementa el consumo de fibra. Este perfil de modificaciones concuerdan con las recomendaciones dietéticas de la Estrategia Mundial dirigida a las poblaciones (CODEX, 2006), que a su vez se basan en el incremento del consumo de cereales de grano entero debido a su aporte de fibra dietética, antioxidantes, minerales, vitaminas, lignanos y compuestos fenólicos (Slavin, 2005); y a que además poseen altas concentraciones de vitaminas B (tiamina, niacina, riboflavina y ácido pantoténico), minerales (calcio, magnesio, potasio, fósforo, sodio y hierro), tocoferoles y actividad antioxidante (fitatos y compuestos fenólicos) (Miller, 2002). En consecuencia, estos cereales promueven efectos benéficos para la salud como ser: reducción de los niveles de colesterol en sangre, prevención de algunos tipos de cáncer, diabetes, acción laxante, disminución de enfermedades coronarias y obesidad (Vitali, 2008). Acorde a estas indicaciones hemos realizado un estudio observacional transversal en el mercado argentino advirtiendo que la oferta de alimentos ricos en fibras no es variada y en consecuencia se propuso la elaboración de un polvo para preparar pizzas caseras a base de harinas de granos enteros de sorgo y mijo. La propuesta considera la utilización de cereales que posean menores requerimientos de nutrientes y de agua, como es el caso del sorgo y del mijo, de modo que puedan cultivarse en regiones agroclimáticas diversas (Oramas et al., 2002). De este modo, diversificando la agroindustria regional se aportaría también una solución positiva en lo que refiere a la inclusión social y el mejoramiento de la calidad de vida de las personas celíacas, ya que este sector se ha cuadruplicado en últimos 50 años (Catassi et al., 2007). La elección de la pizza como variante de alimento se fundamenta en que es un producto consumido masivamente, en todos los sectores de la sociedad, por personas de todas las edades. Además es un alimento muy utilizado como menú en las fiestas informales, lo que lo convierte en una alternativa muy adecuada para los festejos de grupos de personas en los cuales se incluye una persona celíaca. Por su parte, si este producto se ofrece como premezcla en polvo se le suma, a todas las ventajas mencionadas anteriormente, el hecho de que sea fácil de comercializar y de manipular en el hogar, permitiendo además la incorporación de los secretos de todos los chefs hogareños, con el fin de lograr la mejor pizza. Introducción Los cereales y sus productos derivados constituyen el aporte más importante de la elipse de distribución alimentaria de nuestro país y se recomienda un consumo diario de seis a once porciones, de las cuales por lo menos tres sean de cereales integrales o de grano entero debido a su aporte en fibras dietáreas y de componentes bioactivos. Aunque los cereales son una fuente popular de alimento en América Latina, la mayor parte del cereal consumido es refinado, siendo el consumo promedio de cereal integral, de sólo una porción diaria. Por este motivo es necesario implementar estrategias que permitan incrementar la ingesta de cereales integrales para ayudar a combatir el problema creciente de enfermedades crónico degenera- 134 INVENIO 14 (26) 2011: 133-140 Desarrollo de una pre-mezcla para pizza a base de harina de grano entero de sorgo y mijo tivas, así como también la obesidad (Slavin, 2005). Un grano de cereal intacto puede ser considerado como un complejo aglomerado de nutrientes, que pueden diferir marcadamente en su composición física, pero todos comparten la misma anatomía básica: una capa externa de salvado, el germen y un endospermo rico en almidón. Si durante la molienda, los componentes del salvado, del germen y del endospermo se mantienen en las mismas proporciones en las que existen en el grano intacto, el producto obtenido se clasifica como “Harina de grano entero” (Richardson, 2003). De este modo, cuando estas harinas son utilizadas en la elaboración de alimentos, éstos pueden reconocerse como funcionales, debido a que contienen componentes bioactivos en concentraciones cuantificables, capaces de ejercer un efecto positivo sobre la salud más allá de su capacidad de nutrir, al ser consumidos como parte de la dieta habitual (Robertfroid, 2000; Robertfroid, 2002; IFT, 2005). En el caso de los derivados de cereales de grano entero se traduce en: reducción de los niveles de colesterol en sangre, prevención de algunos tipos de cáncer, diabetes, acción laxante, disminución de enfermedades coronarias, enfermedad celíaca y obesidad (Vitali, 2008). El sorgo y el mijo son la fuente principal de energía, proteínas, vitaminas y minerales para millones de habitantes de las regiones más pobres, como Asia y África, debido a que ambos se cultivan en ambientes duros, donde otros cultivos dan poco rendimiento. Si bien no suelen ser objeto de comercio internacional y no se venden en los mercados locales de muchos países (Oramas, et al, 2002), sus propiedades nutritivas los transforman en una alternativa para desarrollar alimentos libres de trigo, avena, cebada o centeno, que puedan ser consumidos por personas celíacas. La enfermedad celíaca es una enfermedad poli-sintomática producida por el daño en las vellosidades del intestino delgado cuando las personas susceptibles ingieren gluten, término utilizado para describir proteínas contenidas en el trigo, centeno, cebada y avena. Específicamente, éstas corresponden a las prolaminas denominadas gliadinas en el trigo, hordeínas en la cebada, secalinas en el centeno y aveninas en la avena (Shewry, 2002). Esta población es cuatro veces mayor en la actualidad de lo que lo era hace 50 años, dado que se han reconocido formas atípicas que permitieron mejorar la pesquisa (Catassi, 2007). Pese a sus variantes, en todos los casos se requiere de un tratamiento inmediato que permita recuperar la estructura y las funciones de las vellosidades intestinales para disminuir sus complicaciones (American Gastroenterological Association, 2006). Sin embargo, mantener este tipo de alimentación presenta una serie de dificultades, por su elevado costo y por la falta de comercialización de alimentos sin TACC. Esto se debe principalmente a que las harinas sin gluten (arroz, maíz, papa, mandioca) tienen un mayor costo, y requieren controles de calidad que aseguren la ausencia de estas proteínas (Méndez, 2005). De lo expuesto anteriormente se desprende la necesidad de ofrecer nuevos alimentos funcionales sin TACC, a base de harinas de granos enteros, como podrían ser las de sorgo y mijo, que además de no contener gluten y de propiciar una alimentación variada, agreguen al producto otras propiedades funcionales y nutritivas, como mayor contenido de minerales (calcio, magnesio, potasio, fósforo, sodio y hierro), vitaminas (tiamina, niacina, riboflavina y ácido pantoténico), lignanos y niveles elevados de tocoferoles, fitatos y compuestos fenólicos que son responsables por la alta actividad antioxidante de los alimentos a base de cereal integral. (Miller, 2002; Slavin, 2005; Vitali, 2008). Sumado a lo anterior la utilización de sorgo y mijo como materia prima permitiría además obtener productos de menor precio. En un estudio anterior realizado por Aimaretti et al. (2010), se evaluó la calidad tecnológica de estas harinas mediante el perfil de capacidad de retención de solventes (SRC), debido a INVENIO 14 (26) 2011: 133-140 135 Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino - Adriana Clementz que este test permite evaluar la funcionalidad tecnológica de las harinas. En el mismo se relacionan cuatro tipos de solventes con los distintos componentes de la harina, arrojando valores independientes, y de la combinación de ellos se establece un perfil práctico de calidad y funcionalidad de harinas, usado para predecir el comportamiento durante el horneado (AACC, 2000). Los resultados obtenidos indicaron que si bien el sorgo y el mijo poseen reconocida calidad nutricional, no poseen buena calidad panadera. Sin embargo, al ensayar formulaciones de harinas en las cuales se combinaron las harinas de grano entero de sorgo y de mijo, con almidón de maíz y almidón de maíz modificado, se permitió un acercamiento significativo a los valores de SRC recomendados para harinas utilizadas en la elaboración de galletitas. Esto se refleja en ventajas tecnológicas que permiten obtener productos de panificación de buena calidad, siempre que en estos no se pretenda un buen desarrollo del volumen o de alveolado, como es el caso de la pizza. La aparición y desarrollo de nuevos alimentos funcionales en el país sigue la tendencia internacional de un crecimiento sostenido, aunque aquí, en forma lenta. Sin embargo, las propiedades sensoriales de estos productos constituyen aún un desafío para la industria debido a que influyen en los consumidores, más que la biodisponibilidad de sus nutrientes (Slavin et al., 2000). Por ello, los alimentos desarrollados deben ser sometidos a evaluaciones sensoriales subjetivas de aceptación que permitirán direccionar las modificaciones a realizar sobre los mismos. Objetivo El objetivo de este trabajo fue mejorar las propiedades panáreas de las harinas de grano entero de sorgo y mijo, a fin de desarrollar un alimento funcional innovador, de fácil elaboración, sensorialmente aceptable y que a su vez pueda ser consumido por personas celíacas, como lo es una pre-mezcla para la elaboración de pizzas. Metodología Materias primas: El sorgo (Sorghum sp.) y mijo perla (Pennisetum glaucum), fueron obtenidos directamente de productores santafesinos y conservados a temperatura ambiente (humedad <14%). La molienda se realizó en molino a cuchillas (Analyzer Molino MC-I) hasta tamaño de partícula < 500 µm y las correspondientes harinas finas de grano entero de sorgo (S) y de mijo (M) fueron mantenidas a temperatura ambiente, en envase cerrado. El almidón resistente PROMITOR fue gentilmente cedido por su representante. La fécula de mandioca (Kapac) y almidón de maíz (Maizena) fueron adquiridas en locales comerciales. Determinaciones analíticas: Humedad: Método 44-19 (AACC 2000). Proteína: El contenido de nitrógeno fue determinado por el método Kjeldhal (AACC 2000). El contenido proteico fue calculado como N x 6,25 para S (Codex Standard 173-1989) y N x 5,7 para M (Codex Stan 170-1989). Lípidos: Por extracción intermitente en equipo Soxhlet, utilizando hexano como solvente. Elaboración de las pizzas: La pre-mezcla se preparó con los siguientes ingredientes: 100 g de harina (distintas variantes), 1 g de sal, 2 g de azúcar y el agente leudante indicado. Durante la preparación, a la pre-mezcla se le adicionan 10 ml de aceite alto oleico y se mezclan los ingredientes con la cantidad de agua necesaria para la formación de la masa, se bate con batidora durante 5 min. La masa formada se deja leudar en un recipiente tapado en una zona con temperatura moderada durante 30 min. Luego se estira la masa y se coloca en el horno 180 °C. Evaluación sensorial: Se llevó a cabo mediante pruebas afectivas utilizando un panel 136 INVENIO 14 (26) 2011: 133-140 Desarrollo de una pre-mezcla para pizza a base de harina de grano entero de sorgo y mijo de 20 individuos no entrenados de ambos sexos, sanos, aleatoriamente seleccionados dentro del ámbito académico, de entre 15 y 65 años de edad. A cada uno de ellos se les presentan las muestras en orden aleatorio junto a una planilla para volcar los datos y se les explicó las implicancias de cada uno de los atributos sensoriales a evaluar. El nivel de agrado o desagrado se evalúa mediante una escala hedónica estructurada de 5 puntos: 5-me gusta mucho, 4-me gusta, 3-no me gusta ni me disgusta, 2-me disgusta y 1-me disgusta mucho, para los atributos: apariencia, aroma, color, sabor y textura. Finalmente las categorías descriptivas seleccionadas por cada panelista se convirtieron en scores y se analizaron estadísticamente. Resultados El comportamiento de una masa durante su procesamiento y la calidad de los productos finales dependen fundamentalmente de los ingredientes y del tipo de proceso de elaboración que se aplique. Es decir que variando los ingredientes o sus proporciones se pueden obtener una gran variedad de productos, siendo en este caso la harina sin gluten el ingrediente de mayor influencia en el desarrollo de nuevos productos panificados. Por este motivo, en función de experiencias anteriores, se tomó como harina de prueba inicial (harina 1) a la mezcla indicada en la Tabla 1, dado que fue la formulación que presentó mejores propiedades tecnológicas. Tabla 1: Composición porcentual de la harina 1. % 32 32 32 4 S M Almidón Almidón resistente Selección del agente leudante En virtud de que la harina propuesta no posee gluten, fue imprescindible seleccionar un agente leudante que mediante la producción de gases permita mejorar el desarrollo de alvéolos, dando características de esponjosidad y suavidad a la masa. Con este fin se prepararon pre-mezclas para elaborar pizzas, en las cuales se modificó el tipo de agente leudante (todos sin TACC) y su concentración. Los agentes leudantes ensayados fueron levaduras biológicas secas en gránulos (LEVEX) y leudante químico (ROYAL), que se agregaron a la formulación estándar de las premezclas en las proporciones porcentuales indicadas en la Tabla 2 y luego se elaboraron las pizzas siguiendo la metodología descripta. Tabla 2: Cantidad (g) de agente leudante utilizado cada 100g de harina. MUESTRA Levadura seca (g) Leudante químico (g) L1 5 L2 10 L3 15 Q1 Q2 Q3 0,5 1 2 El análisis visual y sensorial de las pizzas obtenidas con estas muestras, permitió advertir que al utilizar levaduras biológicas como agente leudante es posible mejorar, respecto de las muestras con leudante químico, la consistencia, el alveolado y la textura de la masa, sin que se modifiquen el sabor, el color y el olor de la mismas. Por su parte también pudo observarse que INVENIO 14 (26) 2011: 133-140 137 Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino - Adriana Clementz en L1 el desarrollo de la masa no fue completo, mientras que L2 y L3 no presentaron diferencias percibidas con estos métodos de evaluación. En consecuencia, se optó por utilizar como agente leudante levaduras biológicas seca en gránulos en proporción del 10% del peso de la harina usada en la pre-mezcla (muestra L2). Selección mejoradores de masa Hoy en día, en la industria de panificados se cuenta con una gran variedad de aditivos que permiten mejorar los atributos sensoriales de las masas, principalmente cuando éstas se elaboran con harinas de baja calidad panadera. Por este motivo se evaluó el comportamiento de la pre-mezcla L2 al ser aditivada con: un agente oxidante como el ácido ascórbico que favorece la formación de puentes disulfuros y así aumenta la tenacidad; y con agentes espesantes, gelificantes y estabilizantes, como la carboximetilcelulosa (CMC) y la goma xántica. En la Tabla 3 se muestra la cantidad de aditivo adicionado a la pre-mezcla por cada 100g de harina utilizada para formar la pre-mezcla L2. Tabla 3: Cantidad de aditivo utilizado para mejorar la masa, cada 100g de harina L2. MUESTRA Acido ascórbico (g) CMC (g) Goma xántica (g) A 1 B 1 2 C 1 2 Estas muestras se prepararon y se evaluaron como en los ensayos anteriores, siendo la muestra B la que presentó mejores atributos sensoriales logrando un aspecto general, textura y consistencia, similares a los correspondientes para una pizza elaborada con harina de trigo. En lo que respecta a su aptitud para la formación de masa, esta muestra se destacó por ser menos pegajosa y más cohesiva, logrando además un mejor comportamiento durante el horneado, que se manifiesta en notables diferencias de esponjosidad y de calidad global en el producto obtenido. Selección de la harina Con el fin de optimizar el producto obtenido, respecto de los atributos sensoriales comúnmente observados en este tipo de alimentos, se ensayaron dos formulaciones de harinas, las cuales se describen en la Tabla 4. Con cada una de estas harinas se prepararon pre-mezclas a las cuales se les agregó el agente de leudado y los aditivos ya seleccionados en los ensayos anteriores. Tabla 4: Proporción de cada componente en la formulación de Harinas. S (%) M (%) Almidón (%) Almidón resistente (%) Almidón de mandioca (%) Harina 1 32 32 32 4 Harina 2 25 25 35 5 10 La pre-mezcla formulada con la harina 2 presentó mejor comportamiento durante el amasado, siendo relativamente extensible y suficientemente cohesiva, aportando características tecnológicas próximas a las de una harina con gluten. Esto permitió además que durante el horneado se formen pequeños alvéolos capaces de retener aire, los cuales dieron suavidad y esponjosidad a la masa. 138 INVENIO 14 (26) 2011: 133-140 Desarrollo de una pre-mezcla para pizza a base de harina de grano entero de sorgo y mijo Evaluación sensorial de pizzas elaboradas con la pre-mezcla seleccionada En síntesis, la pre-mezcla seleccionada para la elaboración de pizzas caseras se preparó con: 100g de harina 2, 1g de sal, 2g de azúcar, 10g de levadura biológica granulada, 1g de ácido ascórbico, 2g de goma xántica y 2g de CMC; y las instrucciones de preparación de las pizzas no se modificaron. La calidad de las pizzas elaboradas con esta pre-mezcla se evaluó subjetivamente mediante un análisis sensorial afectivo y los resultados se muestran en la Tabla 5. En la misma puede observarse que en todos los parámetros se manifiesta la aceptación del producto final, siendo los valores más bajos los correspondientes a los atributos notablemente modificados por el tipo de harinas utilizado. Esto se debe a que los consumidores tienden a comparar un producto innovador con algún producto que tengan incorporado en su vida cotidiana, lo que en este caso sería la pizza elaborada con harina de trigo. Tabla 5: Promedio y SD de los scores sensoriales de cada atributo (n=20). SABOR 7.5 ± 1,1 AROMA 6,3 ± 1,6 COLOR 7.1 ± 1,4 APARIENCIA TEXTURA 8,7 ± 0,4 8 ± 0,6 Selección del envase Dado que el producto consiste en una pre-mezcla en polvo, no se requiere un envase de características particulares. Por este motivo se decidió utilizar como envase primario una bolsa de polietileno de baja densidad de 20 micrones, sin fuelles y capacidad para 200 g de producto, que es la cantidad suficiente para la elaboración de una pizza. Además de esta bolsa sellada al calor, se propone comercializar el producto en una caja de cartón con ventana de PVC, como envase secundario. Esta ventana permite exhibir el producto, de modo de mostrar su diferencia con el resto de los productos similares, ya conocidos por los consumidores. El color es uno de los elementos visuales con mayor carga, por esto, entre los colores elegidos para el envase secundario, predomina el marrón porque con él se representa a la madre Tierra, dando idea de estabilidad, realismo, cautela y fertilidad. De este modo es posible diferenciar el producto del resto de los de su segmento y al mismo tiempo da idea de un alimento natural. En la Tabla 6 se muestra la Información Nutricional con el formato establecido por la Legislación vigente en el CAA. Tabla 6: Información nutricional del alimento. INFORMACIÓN NUTRICIONAL Porción: 40g Porciones por envase: 5 aprox. Cantidad Cantidad por % VDR (*) por por 100g porción porción Energía 202.5 g 81g 6 Carbohidratos 63.5 g 25.5 g 4 Proteína 8.0 g 3.2 g 2 Grasas totales 2.3 g 0.9 g 1 Grasas saturadas 0.4 g 0.2 g Grasas trans no contiene Fibra 8.1 g 3.2 g 6 Sodio 202.5 mg 81.0 mg (*) % Valores Diarios con base a una dieta de 2.000 kcal u 8.400 kJ. Sus valores diarios pueden ser mayores o menores dependiendo de sus necesidades energéticas. INVENIO 14 (26) 2011: 133-140 139 Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino - Adriana Clementz Conclusiones Combinando las harinas de grano entero de sorgo y de mijo con almidones y aditivos fue posible mejorar sus propiedades panaderas y así desarrollar una formulación en polvo apta para preparar pizzas caseras a base de harinas de grano entero de sorgo y de mijo. De este modo se contribuye a aumentar la disponibilidad de alimentos sin TACC con propiedades funcionales, de elevado valor nutricional y sensorialmente aceptables. Recibido: 01/09/10. Aceptado: 03/12/10 BIBLIOGRAFÍA AACC International. (2000). Approved Methods of the American Association of Cereal Chemists, 12th. The Association: St. Paul, MN. Aimaretti, N., Llopart, E., Baudino, C., Codevilla, A., Clementz, A. Improvement of the quality of sorghum and millet whole grain flours. Journal of Food Science and Technology. (en proceso de referato). American Gastroenterological Association. 2006. The American Gastroenterological Association (AGA) Institute technical review on the diagnosis and management of celiac disease. Gastroenterology, 131: 1981-2002. Catassi C, Kryszak D, Louis-Jaques O, Duerkesen Dr, Hill I, Crowe Se et al. 2007. Detection of Celiac disease in primary care: a multicenter case-finding study in North America. Am J Gastroenterol, 102: 1461-3. CODEX . 2006. Solicitud de observaciones sobre el proyecto de plan de acción para la aplicación de la estrategia mundial sobre régimen alimentario, actividad física y salud. CL 2006/44-CAC. IFT 2005. Expert Report: Functional foods: opportunities and challenges. Méndez E, Vela C, Immer U, Janssen FW. 2005. Report of a collaborative trial to investigate the performance of the R5 enzyme linked immunoassay to determine gliadin in gluten-free food. Eur J Gastroenterol Hepatol, 17: 1053-63. Miller G, Prakash A, Decker E. Whole-grain micronutients. 2002. In: Whole Grain Foods in Health and Disease, Marquart L, Slavin JL, Fulcher RG, Eds, Eagan Press, St. Paul, MN, pag 243-260. Oramas, Valdés, Hernández, Queri, García, Sánchez, González, 2002. Obtención de variedades de sorgo (Sorgum bicolor) de doble propósito a través del método de selección progenie por surco. Agrotecnia de Cuba, 28 (1):39. Richardson, D. 2003. Wholegrain health claims in Europe. Proceedings of the Nutrition Society, 62: 161-169. Robertfroid M.B. 2000. Defining functional foods, Chpt. 1, in “Functional foods. Concept to product”. Edited by Glenn R. Gibson and Christine M. Williams, pag 9-25. CRC Press, Washinngton DC. Robertfroid M.B. 2002. Global view of functional foods: European Perspectives. British Journal of Nutrition, Vol 88, Supplement 2. Proceedings of an international Symposium 17-19 october 2001 in Paris, organized by ILSI Europe. S133-S138. Shewry PR, Halford NG. 2002. Cereal seed storage proteins: structures, properties and role in grain utilization. J Exp Biol, 53: 947-958. Slavin J. 2005. Dietary fiber and body weight. Nutrition, 21:411-418. Slavin, J, Jacobs D, Marquardt L, 2000. Grain processing and nutrition. Critical Reviews in Food Science and Nutrition, 4: 309–326. Vitali D, Vedrina Dragojevié I, Sebecic B. 2008. Bioaccessibilility of Ca, Mg, Mn and Cu from whole grain tea-biscuits: Impact of proteins, phytic acid and polyphenols. Food Chemistry, 110: 62-68. 140 INVENIO 14 (26) 2011: 133-140 variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición soportados en alúmina, para su utilización en reacciones catalíticas que involucren adsorción de gases Ignacio Daniel Coria*1 RESUMEN: Existe muy poca información actualmente sobre el comportamiento de superficies como los óxidos de metales de transición cuando se los somete a temperaturas entre 600 y 1000ºC, temperaturas a las que se trabaja normalmente en la industria. En este proyecto se utilizaron óxidos de metales como Vanadio, Cromo, Manganeso, Hierro, Cobalto, Molibdeno y Níquel. Estos sólidos deben caracterizarse antes y después de su utilización a distintas temperaturas. La caracterización implica la determinación de Superficie BET, Difracción de Rayos X (XRD), análisis químicos por AAS y Espectroscopía Fotoelectrónica de Rayos X (XPS). Se exponen aquí los resultados obtenidos. Palabras clave: Superficie BET - Espectroscopía Fotoelectrónica de Rayos X (XPS) - Difracción de Rayos X (XRD) - Espectroscopía de Absorción Atómica (AAS) ABSTRACT: Study on the variation of surface properties at high temperatures of transition metal oxides on an alumina support for their use in catalytic reactions involving gas adsorption At present, there is very little information about the behavior of surfaces such as transition metal oxides under temperatures between 600 ºC and 1000 ºC, which are very common in industrial processes. In these project, metal oxides like Vanadium, Chrome, Manganese, Iron, Cobalt, Molybdenum and Nickel. These solids must be characterized before and after use at different temperatures. The characterization implies Surface BET determination, X-Ray Diffraction (XRD), chemical analysis by AAS and X-Ray Photo-electronic Spectroscopy (XPS). The results obtained in the above mentioned project are presented here. Keywords: BET Surface - XRD - XPS - AAS. * Ignacio Daniel Coria es Doctor en Ciencias Químicas por la Universidad Nacional de Educación a Distancia (UNED, España) y Especialista en Recuperación de Suelos Contaminados por la Universidad Politécnica de Cataluña. Se ha desempeñado como docente universitario durante treinta años. En la actualidad es Decano de la Facultad de Química de la Universidad del Centro Educativo Latinoamericano (UCEL) e investigador y profesor titular en distintas cátedras de su área específica en carreras de grado y posgrado en la Universidad Católica Argentina (UCA) y en la UCEL. Dicta cursos de especialización y conferencias en carreras de posgrado, además de cursos de capacitación. E-mail: [email protected] INVENIO 14 (26) 2011: 141-154 141 Ignacio Daniel Coria Introducción Se distinguen dos tipos de adsorción, una física (Van der Waals) y otra química (quimisorción). En el caso de la adsorción física ésta depende muy poco de la naturaleza química del sólido. En cambio en la adsorción química intervienen enlaces electrónicos bien definidos entre la sustancia adsorbida y la superficie. Como toda reacción química, la adsorción química es un fenómeno muy específico que depende de la naturaleza de la sustancia adsorbida y del adsorbente. Podemos considerar a la formación de un centro activo de superficie como una fractura de un cristal de un sólido. En este proceso las uniones covalentes entre átomos se rompen y así cada átomo superficial deberá poseer una o dos valencias libres. El número y tipos de estas valencias dependen de las uniones entre átomos en el sólido completo y el ángulo que la fractura tomó a través del cristal. Una forma de adsorción ocurre como resultado de la interacción de las moléculas de gas con esas valencias libres; esto debe ser considerado como una reacción química donde existen reordenamientos, a veces drásticos, de los electrones dentro de la molécula. La adsorción es química. En los sólidos iónicos existe también un desbalance de fuerzas debido a que cada ión está rodeado por menos que el número propio de iones de carga opuesta. La quimisorción sobre tales superficies intenta ratificar esta situación, y en consecuencia ésta es a menudo iónica o al menos fuertemente polar. Las moléculas cuyos electrones no son fácilmente polarizables son adsorbidas débilmente sobre sólidos iónicos. La capacidad máxima de una superficie para una adsorción química resulta mucho menor que la cantidad de adsorbato que necesitaría para formar una capa mono molecular. Por el contrario, mediante la adsorción de Van der Waals es posible adsorber cantidades mucho mayores, que llegan a formar capas cuyo espesor es de varias moléculas. Como las variaciones de energía que acompañan la formación de enlaces químicos son más grandes, las variaciones de entalpía que acompañan a la adsorción química son valores fuertemente negativos, que se encuentran en el orden de –10 a –100 kcal/mol. La variación de entalpía de la adsorción de Van der Waals es del mismo orden de magnitud que el calor de condensación, es decir del orden de –5 a –10 kcal/mol. En consecuencia el efecto de la temperatura de disminuir la cantidad de adsorbato es mayor en el caso de la adsorción activada que para la adsorción física. La entalpía de adsorción depende de la extensión de la superficie cubierta, principalmente porque las partículas adsorbidas interactúan. Si las partículas se repelen mutuamente la entalpía de adsorción resulta menos exotérmica al aumentar el recubrimiento. Además, los estudios de difracción de electrones de baja energía muestran que si las partículas de adsorbato se repelen entre si se sitúan de un modo desordenado sobre la superficie hasta que las exigencias del empaquetamiento requieren orden, en cambio si se atraen tienden a agruparse en islas. Una diferencia muy general y significativa entre ambas adsorciones se encuentra en la velocidad con que se alcanza el equilibrio. La adsorción química requiere un valor bien definido de energía de activación que corresponde a un proceso lento, es decir de velocidades de adsorción lentas, que en general son fuertemente afectadas por variaciones de temperatura, como sucede con las reacciones químicas. Aunque se puede considerar que la adsorción de Van der Waals requiere cierta energía de activación, su valor es tan bajo que en general se puede suponer que el equilibrio es alcanzado en forma instantánea en la interfase y que las velocidades de adsorción física observadas se deben en gran parte a los fenómenos de difusión que acompañan a la adsorción. 142 INVENIO 14 (26) 2011: 141-154 Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición En un mismo sistema se pueden encontrar ambos tipos de adsorción, aunque es frecuente que la temperatura para la cual cada tipo resulta sea diferente. En general, la adsorción de Van der Waals se reduce mucho a temperaturas que no son muy superiores a la temperatura crítica de la sustancia adsorbida. Al mismo tiempo, se necesitan en general temperaturas mucho mayores para que la adsorción activada se produzca a una velocidad significativa. Para un mismo componente se ha observado que existe más de un tipo de adsorción activada simultánea sobre una misma superficie, presumiblemente debido a la existencia de diversos tipos de centros activos. Estos diferentes tipos de adsorción activada pueden tener eficiencias diferentes en diferentes intervalos de temperatura. Por lo tanto, la adsorción de Van der Waals se caracteriza por tener altas velocidades de adsorción a temperaturas bajas, grandes cantidades de material adsorbido, calor de formación pequeño y un grado de especificidad relativamente bajo. Por otra parte, la adsorción activada o química se caracteriza por tener velocidades de adsorción bajas, energías de activación altas, pequeñas cantidades de material adsorbido, calor de formación elevado y un alto grado de especificidad. La extensión y naturaleza de su superficie son de fundamental importancia para la eficiencia del sólido. En general es deseable que posea una gran superficie por unidad de masa o de volumen y que esa superficie sea relativamente accesible a la masa del adsorbato circulante, mediante poros o aberturas. Se puede aumentar la eficiencia del material adsorbente depositándolo sobre una superficie soporte de forma apropiada y gran superficie específica. El material adsorbente puede depositarse por impregnación con una solución, seguida por secada y calcinación. La alúmina activada se usa ampliamente como soporte. Descripción del proyecto y objetivos Los catalizadores son de amplia aplicación industrial. El relativamente bajo costo de los óxidos empleados, su alta estabilidad térmica y su posibilidad de reutilización por desorción con aire a altas temperaturas hace que estos materiales tengan interés industrial en reacciones a altas temperaturas donde debe aumentarse la eficiencia del catalizador, su vida útil y versatilidad. Existe muy poca información actualmente sobre el comportamiento de superficies como los óxidos de metales de transición del primer período cuando se los somete a temperaturas entre 600 ºC y 1000 ºC, temperaturas a las que se trabaja normalmente en la industria, y se los pretende utilizar como catalizadores en reacciones de interés industrial. La propuesta de utilizar óxidos de metales como Vanadio (V), Cromo (Cr), Manganeso (Mn), Hierro (Fe), Níquel (Ni), Cobalto (Co) y Molibdeno (Mo) se basa en su resistencia térmica y en sus diferentes propiedades en reacciones ácido-base y redox superficiales, además de las posibles sinergias entre ellas. Se incorpora el Molibdeno, del segundo período, a los fines de establecer una comparación. La capacidad de adsorción de los óxidos metálicos depende de la fortaleza de distintos tipos de centros básicos y del número de ellos que haya en la superficie. Esta capacidad de adsorción de gases es función también de la temperatura, del tipo de gas que circula y del flujo. Para determinar esta capacidad, estos sólidos, luego de prepararse, deben caracterizarse antes y luego de su utilización a distintas temperaturas para evaluar las diferencias superficiales existentes provocadas por la exposición a altas temperaturas y distintos tiempos. Esto permite concluir para cada óxido las mejores condiciones de utilización en reacciones catalíticas que INVENIO 14 (26) 2011: 141-154 143 Ignacio Daniel Coria impliquen adsorción de gases como etapa previa. La caracterización implica la determinación de Superficie BET, Difracción de Rayos X (DRX), análisis químicos por AAS para determinar la cantidad de metal presente y Espectroscopía Fotoelectrónica de Rayos X (XPS). Los objetivos del proyecto fueron los siguientes: Objetivo general: - Determinar la influencia de altas temperaturas sobre la actividad superficial de óxidos de metales de transición soportados. Objetivos específicos: - Determinar las variaciones en el área superficial de los distintos óxidos soportados (Isoterma BET). - Analizar cómo afecta la temperatura a la estructura cristalina de los óxidos analizados (DRX). - Verificar variaciones en la energía de enlace metal – oxígeno para los óxidos soportados sometidos a diferentes temperaturas (XPS). Metodología. Preparación y caracterización de catalizadores Luego de la búsqueda bibliográfica, comenzaron las tareas de laboratorio en los meses de octubre y noviembre de 2007, durante los cuales los estudiantes pesaron las sales correspondientes a los distintos metales de transición, calcinaron las sales obteniendo los óxidos, y calcinaron la g-alúmina en todos los casos a 600 ºC. Los óxidos obtenidos, soportados sobre alúmina, fueron enviados para análisis. Los óxidos preparados son los de V, Cr, Mn, Fe, Ni, Co y Mo debido a su resistencia térmica, ya que se los somete a las temperaturas con las que se trabaja normalmente en la industria. Se incorporó el Mo, que es del segundo período de transición, a efectos comparativos respecto al resto, que son del primer período. La capacidad de adsorción de gases por la superficie de los óxidos es función de la temperatura, del tipo de gas que circula y del flujo. Para determinar esta capacidad, estos sólidos deben caracterizarse antes y después de su utilización a distintas temperaturas para evaluar las diferencias superficiales. La caracterización implica la determinación de superficie BET, Difracción de Rayos X (DRX), análisis químicos para determinar la cantidad de metal presente (absorción atómica, AAS) y Espectroscopía Fotoelectrónica de Rayos X (XPS). La Difracción de Rayos X consiste en el estudio de las estructuras cristalinas, mientras que el análisis de superficie BET es la medición de la superficie específica de cada óxido. La Espectroscopía Fotoelectrónica de Rayos X (XPS), por su parte, consiste en incidir con radiación X sobre la muestra. Esta radiación es transferida a los electrones internos de los átomos presentes como energía cinética. Cuando los electrones son emitidos, esta energía cinética es medida por el equipo sabiéndose así las diferentes clases de átomos presentes en la muestra (análisis cualitativo). El área bajo la curva en el proceso de deconvolución de los picos obtenidos en el espectro nos brinda la relación cuantitativa entre las diferentes clases de átomos existentes en la superficie. Los análisis de superficie BET y Difracción de Rayos X se realizaron en los laboratorios de la Facultad de Ingeniería Química de la Universidad Nacional del Litoral (Santa Fe, Argentina), mientras que los de Espectroscopía Fotoelectrónica de Rayos X y Espectroscopía de Absorción Atómica, en el laboratorio de la Facultad de Ciencias de la Universidad Nacional de Educación a Distancia (Madrid, España). 144 INVENIO 14 (26) 2011: 141-154 Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición Resultados de volumen de poro, distribución de tamaño de poro y superficie BET de los óxidos preparados Para la determinación del área de superficie BET es deseable que los óxidos preparados tengan una alta superficie específica, la cual puede alcanzarse haciendo el tamaño de partícula muy pequeño y empleando material poroso, formando un gran número de canales muy finos o poros a través de las partículas. Para poros cilíndricos uniformes no intersectados, la relación entre el área superficial interna (S), el volumen del poro (Vp) y el radio de los poros (r) está dado por S = 2 Vp/rp; los poros se dividen en tres grupos sobre la base de su medida: los superiores a 50 mm son macroporos, aquellos entre 2 y 50 mm son mesoporos y los menores que 2 mm son microporos. El método estándar para la determinación del área de superficie interna de un material poroso con áreas de superficies mayores a 1–2 m2/g se basa en la adsorción de N2 a la temperatura del N2 líquido (77 K). Cada molécula adsorbida ocupa un área comparable a su proyección en un plano (16,2 Ä2). Al aumentar la presión, primero aumenta rápidamente la adsorción de N2 y se estabiliza en una región en la cual ocurre la cobertura de monocapa y luego a presiones relativamente altas de N2 ocurre el cubrimiento de nuevas capas por la condensación de N2 líquido en los poros (isoterma típica de adsorción). Se determinó la superficie específica por el método BET sobre muestras en el equipo volumétrico MICROMERITICS ASAP 2000. El gas de análisis utilizado fue nitrógeno. Las muestras de (0,5-0,7) g se desgasificaron a 200ºC durante 20–72 h en corriente de helio. La superficie BET se determinó tomando datos a presiones relativas comprendidas entre 0,05 y 0,250. Resumen de resultados de óxidos tratados a 600ºC Distribución del tamaño de poro Óxido de Cobalto (Co3O4) INVENIO 14 (26) 2011: 141-154 145 Ignacio Daniel Coria Comparación de superficie específica y diámetro medio de poro Comparación de distribución de tamaño de poro 0,0055 Comparación de Distribución de Tamaños de Poros 0,005 GAMMA ALUMINA 0,0045 Ox V/Al2O3 0,004 Ox Mn/Al2O3 dV/dD (mL/g Å) 0,0035 Ox Fe/Al2O3 0,003 Ox Co/Al2O3 0,0025 Ox Ni/Al2O3 0,002 Ox Mo/Al2O3 0,0015 0,001 0,0005 0 0 50 100 150 200 250 300 Diámetros (Å) Comparación de superficie específica, diámetro de poro y volumen de poro 146 INVENIO 14 (26) 2011: 141-154 Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición Análisis de Difracción de Rayos X Esta técnica sirve para el estudio de las diferentes transformaciones de fase, así como para la determinación de las distintas estructuras cristalinas y el tamaño medio de cristal obtenido. La forma de los datos de Difracción de Rayos X que se obtienen de los polvos sometidos a estudio depende de la estructura que los cristales adopten. Esta estructura está definida por el tipo de celda, clase de cristal y la distribución de los diversos tipos de iones y moléculas que forman la celda unitaria. El número y posiciones, en términos de 2q, de las reflexiones dependientes de los parámetros celulares, clase de cristal, tipo de estructura de la celda y longitud de onda usada para colectar los datos, mientras que la intensidad de los picos depende del tipo de átomos presentes y sus posiciones. Como resultado de una enorme variación de diferentes estructuras que adoptan los materiales, casi todos los sólidos cristalinos tienen un único patrón de difracción en términos de las posiciones de las reflexiones observadas y el pico intensidad. La efectividad de la Difracción de Rayos X la ha transformado en la técnica más usada para la caracterización de sólidos inorgánicos policristalinos. La caracterización por Difracción de Rayos X de las muestras de óxido de cobalto, óxido de cromo, óxido de hierro, óxido de manganeso, óxido de molibdeno, óxido de níquel y óxido de vanadio se realizó en un equipo marca Shimadzu con radiación CuKa (l = 1,542Ǻ), voltaje de 30 kV y corriente de 40 mA. Se utilizó el modo de escaneo continuo con un tiempo prefijado de 1.0 segundo (1 muestreo por segundo). La técnica utilizada fue la siguiente: - se preparó una pastilla del óxido sobre un portamuestras de vidrio con una ventana circular de vidrio rugoso donde se forma la pastilla con ayuda de una espátula, - se escanea la muestra con una velocidad de barrido de 4º por minuto entre 10º y 100º (ángulo 2q), - se identifica la zona donde se encuentran los picos principales y se realiza un barrido en dicha zona con una velocidad de 2º por minuto, - se procesa el difractograma obtenido para determinar los d (distancia interplanar de los cristales) característicos de un compuesto y su intensidad relativa, - se compararon el difractograma de la muestra con cartas patrones de difracción de los compuestos halladas en bibliografía, a fin de identificar la muestra usando los picos principales. Análisis de muestras sometidas a 600ºC Óxido de cromo INVENIO 14 (26) 2011: 141-154 147 Ignacio Daniel Coria Análisis de muestras sometidas a 700ºC Óxido de cromo Análisis de muestras sometidas a 900ºC Óxido de cromo Análisis químico por Espectroscopía de Absorción Atómica (AAS) El estudio espectroscópico de átomos o de iones elementales con radiación ultravioleta y visible sólo se puede hacer en fase gaseosa, que es donde los átomos se encuentran bien separados entre sí. Por eso el primer paso en todos los procesos espectroscópicos atómicos es la atomización, proceso por el cual la muestra se volatiliza y descompone de forma que produce un gas atómico. La AAS se basa en la atomización por llama: la radiación, emitida en rayas, procedente de un tipo especial de fuente externa atraviesa el cono interior de la llama, en la cual se encuentran las especies atómicas existentes resultantes de la volatilización de la muestra, pasa a través de un monocromador y llega a la superficie de un detector de radiación. Se usan fuentes que emiten rayas de radiación, de la misma longitud de onda que el pico de absorción del analito. Típicamente, el espectro de absorción de la radiación procedente de la fuente externa por las especies atómicas existentes en la llama presenta la forma de una serie de picos estrechos (líneas o rayas) que resultan de transiciones de un electrón desde el estado fundamental a un nivel energético superior. Los espectros de absorción de los átomos de metales alcalinos son mucho más sencillos que los de elementos con varios electrones externos. Los 148 INVENIO 14 (26) 2011: 141-154 Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición espectros metálicos de los metales de transición se caracterizan por tener muchas rayas, que en algunos elementos pueden llegar a miles. La absorción de radiación visible por los 18 elementos de las dos primeras series de transición se debe a transiciones de electrones entre orbitales d llenos y vacíos. Las diferencias de energía entre los orbitales d (y por lo tanto la posición correspondiente de los picos de absorción) depende del estado de oxidación del elemento y de su posición en la tabla periódica. Las líneas de absorción son típicas para cada átomo. Por tanto, esta técnica da información sobre la identidad y concentración de átomos en una muestra, independientemente de cómo están combinados. La AAS es una técnica que permite determinar cuantitativamente la composición atómica. Análisis por XPS Consiste en incidir con radiación X sobre la muestra. Esta radiación es transferida a los electrones internos de los átomos presentes como energía cinética. Cuando los electrones son emitidos, esta energía cinética es medida por el equipo sabiéndose así las diferentes clases de átomos presentes en la muestra (análisis cualitativo). El área bajo la curva en el proceso de deconvolución de los picos obtenidos en el espectro nos brinda la relación cuantitativa entre las diferentes clases de átomos existentes en la superficie. La técnica XPS permite detectar cuali- y cuantitativamente qué átomos y cuántos hay en una superficie y el estado de oxidación de los mismos. Es el método de caracterización de superficies más utilizado en la actualidad. La razón es que esta técnica genera un alto contenido de información y es flexible para ser utilizada en una gran variedad de muestras. Permite la identificación de todos los elementos presentes, con excepción del hidrógeno y el helio. La técnica está basada en el efecto fotoelectrónico, el cual consiste en la emisión de electrones de la superficie de un sólido. En 1954, el Prof. Siegbahn propuso el primer espectrómetro electrónico de alta resolución para determinar electrones irradiando la superficie de un sólido con Rayos X. En 1969, se realizó en Estados Unidos el primer instrumento XPS monocromático comercial. XPS también es una técnica útil para caracterizar los enlaces químicos y cuantificar la contaminación superficial generada en los procesos de fabricación. Análisis de muestras sometidas a 600ºC Catalizador sin utilizar. Óxido de cromo soportado. Barrido de todo el espectro INVENIO 14 (26) 2011: 141-154 149 Ignacio Daniel Coria Óxido de cromo. O1s Análisis de muestras sometidas a 700ºC Aclaración: Dado el alto costo de realización de los análisis por XPS, se decidió trabajar solamente sobre el óxido de cromo (a 700ºC y 900ºC), ya que de la bibliografía se desprende que es el que tiene mejores aptitudes para su uso como retenedor de gases. La energía de unión para el cromo en Cr2O3 es de 576,6 eV y para el O2, en la misma sustancia, 530,2 eV (National Institute of Standards and Technology)1. Óxido de cromo. O1s (véase Anexo 3, XPS 700C, Archivo 1) 150 INVENIO 14 (26) 2011: 141-154 Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición Análisis de muestras sometidas a 900ºC Óxido de cromo. O1s Conclusiones - En la siguiente tabla se sintetizan los resultados obtenidos en la caracterización de los óxidos soportados: Óxido soportado Vanadio V2O5 Estructura cristalina Orto-rómbica BET (600ºC) 168,94 m2/g 7,79 % (como V) Cromo 7,62 % (como Cr) Cr2O3 Romboédrica 165,00 m2/g Manganeso Hierro Níquel Cobalto Molibdeno g-alúmina 9,91% (como Mn) 8,49 % (como Fe) 9,87 % (como Ni) 10,40 % (como Co) 11,5 % (como Mo) Mn2O3 Fe2O3 NiO Co3O4 MoO3 Al2O3 Cúbica Romboédrica Cúbica Cúbica Orto-rómbica Cúbica 164,35 m2/g 146,63 m2/g 171,34 m2/g 158,47 m2/g 117,72 m2/g 195,09 m2/g AAS DRX BET (otras temperaturas) 800ºC: 149 m2/g 900ºC: 124 m2/g - La superficie específica del óxido de cromo se reduce significativamente cuando se incrementa la temperatura y el tiempo de exposición a la misma (véase tabla en el apartado 3.1.2., p. 12). No se pudo comprobar si ese comportamiento es general para los otros óxidos por las razones que se exponen en el apartado 6. - El análisis por AAS de los óxidos preparados indican que el porcentaje de metal obtenido en el óxido está dentro de lo esperado (aproximadamente 10 %). - En la siguiente tabla se sintetizan los resultados obtenidos por DRX: INVENIO 14 (26) 2011: 141-154 151 Ignacio Daniel Coria Óxido soportado Cobalto Hierro Cromo Manganeso Níquel Molibdeno g-alúmina Temperatura (en ºC) 700 900 700 900 700 900 700 900 700 900 700 900 700 900 Cristalinidad (%) 81,5 96,3 82,0 94,4 85,0 97,2 93,2 95,9 84,2 93,8 81,7 84,4 67,9 74,8 - El análisis por DRX indica que a medida que se incrementa la temperatura de tratamiento aumenta el porcentaje de cristalinidad para todos los óxidos. - El análisis XPS muestra que existe un incremento en la energía de enlace para el O1s del óxido a medida que aumenta la temperatura de tratamiento (531 eV a 600ºC y 537 eV a 900ºC). Algo similar ocurre con el Cr2p (577eV a 600ºC y 583 eV a 900ºC). Esto indica que es probable que haya dos especies, Cr2O3 y CrO3, en diferentes proporciones a medida que se incrementa la temperatura, lo cual podría deberse a una oxidación del cromo desde +3 hasta +6 en superficie. Esto podría explicar la diferencia que existe en el DRX del óxido de cromo a 600ºC con el de 700ºC y 900ºC, atribuible a la presencia de más de un óxido a mayores temperaturas. - Los óxidos de metales de transición soportados en alúmina disminuyen su capacidad para retener gases a medida que la temperatura se incrementa entre 600ºC y 900ºC y aumenta el tiempo de tratamiento, dado que disminuye su superficie específica y existe reducción en el tamaño de poros por cristalización, lo que disminuye la capacidad de adsorción de los óxidos por fisisorción. Reconocimiento El autor agradece la participación de los alumnos Román V. Aríngoli, Romina N. Astrada, Carolina Blanco, Julieta Delmoro, María Eugenia Di Vito, Evelina G. Forcadell, Celina Gamerro, Evangelina M. Gómez, María F. Magadán, Rodrigo Maldonado Fernández, Jorgelina Montesanto, Agustina Leda Torné. Los mismos durante el ciclo lectivo 2007 cursaron tercer año de Ingeniería en Tecnología de los Alimentos, aprobaron el curso de Metodología de la Investigación y se desempeñaron como asistentes de investigación, participando activamente en las tareas de laboratorio y en todas las que el proyecto requirió. Recibido: 24/06/10. Aceptado: 23/11/10 152 INVENIO 14 (26) 2011: 141-154 Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición NOTAS 1 Resultados de experiencias realizadas en 2009 en el Laboratorio de la Facultad de Ciencias de la UNED, Madrid. Bibliografía Anacleto, Nathaniel; Ostrovski, Oleg. “Solid-State Reduction of Chromium Oxide by Methane-Containing Gas”, en Metallurgical and Materials Transactions B, August 2004, Vol. 35, nº 4, pp. 609-615. Balint, Ioan; Miyazaki, Akane; Aika, Ken-Ichi. “The relevance of Ru nanoparticles morphology and oxidation state to the partial oxidation of methane”, en Journal of Catalysis, November 2003, Vol. 220, nº 1, 15, pp. 74-83. Chen, C.-L.; Wang, C.-H.; Weng, H.-S. “Supported transition-metal oxide catalysts for reduction of sulfur dioxide with hydrogen to elemental sulfur”, en Chemosphere, August 2004, Vol. 56, nº 5, pp. 425-431. Dunn, Joseph P.; Stenger, Harvey G.; Wachs, Israel E. “Oxidation of SO2 over Supported Metal Oxide Catalysts”, en Journal of Catalysis, January 1999, Vol. 181, nº 2, pp. 233-243. Academic Press. Dunn, Joseph P.; Stenger Jr, Harvey G.; Wachs, Israel E. “Oxidation of sulfur dioxide over supported vanadia catalysts: molecular structure – reactivity relationships and reaction kinetics”, en Catalysis Today, June 1999, Vol. 51, nº 2, pp. 301-318. Hartmann, N.; Biener, J.; Madix, R.J. “Monitoring the interaction of sulfur dioxide with a TiO2(110) surface at 300 K by scanning tunneling microscopy”, en Surface Science, May 2002, Vol. 505, nº 1-3, pp. 81-93. Flytzani-Stephanopoulos, Maria; Tianli Zhu; Yue Li. “Ceria-based catalysts for the recovery of elemental sulfur from SO2-laden gas streams”, en Catalysis Today, November 2000, Vol. 62, nº 2-3, pp. 145-158. Laperdrixa, E.; Sahibed-Dinec, A.; Costentinb, G.; Saura, O.; Bensitelc, M.; Nédezd, C.; Mohamed Saade, A. B.; Lavalley, J. C.. “Reduction of sulfate species by H2S on different metal oxides and promoted aluminas”, en Applied Catalysis B: Environmental, April 2000, Vol. 26, nº 2, pp. 71-80. Mowery, Deborah L.; McCormick, Robert L.. “Deactivation of alumina supported and unsupported PdO methane oxidation catalyst: the effect of water on sulfate poisoning”, en Applied Catalysis B: Environmental, November 2001, Vol. 34, nº 4, 28, pp. 287-297. Paik, Sang Cheol; Chung Jong Shik. “Selective catalytic reduction of sulfur dioxide with hydrogen to elemental sulfur over Co---Mo/Al2O3”, en Applied Catalysis B: Environmental, February 1995, Vol. 5, nº 3, pp. 233-243. Paik, Sang Cheol; Chung, Jong Shik. “Selective hydrogenation of SO2 to elemental sulfur over transition metal sulfides supported on Al2O3”, en Applied Catalysis B: Environmental, May 1996, Vol. 8, nº 3, pp. 267-279. Smirnov, M.Y.; Kalinkin A.V.; Pashis A.V.; Sorokin A.M.; Noskov A.S.; Bukhtiyarov V.I.; Kharas K.C.; Rodkin M. A. “Comparative XPS Study of Al2O3 and CeO2 Sulfation in Reactions with SO2, SO2 + O2, SO2 + H2O, and SO2 + O2 + H2O”, en Kinetics and Catalysis, July 2003, Vol. 44, nº 4, pp. 575-583. Solymosi, F.; Raskób, J.; Pappb, E.; Oszkób, A.; Bánságib, T. “Catalytic decomposition and oxidation of CH3Cl on Cr2O3-doped SnO2”, en Applied Catalysis A: General, October 1995, Vol. 131, nº 1, pp. 55-72. Tsyrulnikovb, P. G.; Kovalenkob, O. N.; Goginb, L. L.; Starostinab, T. G.; Noskova, A. S.; Kalinkinb, A. V.; Krukovab, G. N.; Tsybulyab, S. V.; Kudryab, E. N.; Bubnovb, A. V. “Behavior of some deep oxidation catalysts under extreme conditions. 1. Comparison of resistance to thermal shock and SO2 poisoning”, en Applied Catalysis A: General, February 1998, Vol. 167, nº 1, pp. 31-37. Wang, C.-H.; Lin, S.-S. “Study on Catalytic Incineration of Methane Using Cr2O3/gamma-Al2O3 as the Catalyst”, en Journal of Environmental Science and Health Part A: Toxic Hazardous Substances and Environmental Engineering, 2004, Vol. 39, nº 6, pp. 1631-1642. Wang, Ching-Huei; Lin, Shiow-Shyung; Sung, Pei-Chang; Weng, Hung-Shan: “Catalytic reduction of SO2 over supported transition-metal oxide catalysts with C2H4 as a reducing agent”, en Applied Catalysis B: Environmental, February 2003, Vol. 40, nº 4, pp. 331-345. Waqifa, M.; Pieplua, A.; Saura, O.; Lavalleya, J. C.; Blanchardb, G. “Use of CeO2---Al2O3 as a SO2 sorbent”, en Solid State Ionics, February 1997, Vol. 95, nº 1-2, pp. 163-167. Watson, Junko M.; Ozkan, Umit S. “Spectroscopic characterization of surface species in deactivation of sol–gel Gd–Pd catalysts in NO reduction with CH4 in the presence of SO2”, en Journal of Catalysis, July 2003, Vol. 217, nº 1, pp. 1-11. Wang, Xiang; Xie, You-Chang: “Total oxidation of CH4 on Sn-Cr composite oxide catalysts”, en Applied Catalysis B: Environmental, December 2001, Vol. 35, nº 2, pp. 85-94. INVENIO 14 (26) 2011: 141-154 153 Ignacio Daniel Coria Xiao, L.; Sun, K.; Yang, Y.; Xu, X. “Low-Temperature Combustion of CH4 over CeO2–MOx Solid Solution (M = Zr4+, La3+, Ca2+, or Mg2+”, en Catalysis letters, June 2004, Vol. 95, nº 3-4, pp. 151-155. Zhangl, Xunli; Hayward, David O.; Lee, Colleen; Mingos, D. M. P.. “Microwave assisted catalytic reduction of sulfur dioxide with methane over MoS2 catalysts”, en Applied Catalysis B: Environmental, September 2001, Vol. 33, nº 2, pp. 137-148. Zhu, Tianli; Kundakovic, Ljijana; Dreher, Andreas; Flytzani-Stephanopoulos, Maria. “Redox chemistry over CeO2-based catalysts: SO2 reduction by CO or CH4”, en Catalysis Today, April 1999, Vol. 50, nº 2, pp. 381-397. Zhu, Tianli; Dreher; Andreas; Flytzani-Stephanopoulos, Maria. “Direct reduction of SO2 to elemental sulfur by methane over ceria-based catalysts”, en Applied Catalysis B: Environmental, June 1999, Vol. 21, nº 2, pp. 103120. 154 INVENIO 14 (26) 2011: 141-154 RESEÑA BIBLIOGRÁFICA GAGLIARDI, RAÚL. Gestión de la educación técnica profesional. Formación de competencias profesionales. Capacitación directiva para la formación de jóvenes autónomos. Buenos Aires – México, NOVEDUC, 2008. En este libro, el Dr. Gagliardi, centra su atención en los cambios requeridos en las escuelas técnicas y de formación profesional para mejorar la formación apuntando a facilitar la inserción laboral y profesional en el mercado de trabajo de los graduados; como así también su capacidad para generar emprendimientos propios. El autor manifiesta su preocupación al abordar el tema de hallar un modo en el que los estudiantes se apropien de los conocimientos fundamentales y desarrollen las competencias que necesiten para generar autonomía e insertarse en el mercado de trabajo, capitalizando el máximo de sus recursos personales para mejorar su calidad de vida y contribuyendo a la intención de constituirse en mejores ciudadanos. El libro hace referencia a lo que Gagliardi considera un fenómeno que podría provocar graves problemas sociales: la inadecuación entre la oferta de trabajo y la oferta de empleo, como así también la incapacidad de los sistemas de formación técnica profesional para lograr el acceso de los graduados a empleos actuales y a los futuros cambios en las empresas (a las nuevas condiciones de producción, y nuevas técnicas) y el mercado laboral. Subraya la importancia de la formación de los jóvenes sin empleo ni estudios para evitar que se desarrollen en una “cultura de la miseria”, la cual conlleva a la caída de los jóvenes en la violencia y adicciones. Propone como actividad sistemática y organizada en las escuelas, investigar las concepciones y los estilos de aprendizaje de los estudiantes para favorecer la enseñanza y mejorar la calidad del aprendizaje. Enfatiza la importancia de tomar en cuenta la capacidad de los directores, administradores y profesores de las escuelas técnicas para obtener la información adecuada acerca del mercado de empleo y los problemas que padecen los estudiantes. Destaca la figura del director, como líder del personal de la escuela y de los diferentes objetivos y diversos niveles de necesidades de la misma; dejando en claro que liderar no implica mandar, sino orientar, guiar, apoyar a cada miembro del personal. En sus páginas, el autor hace mención a la escuela técnica como un sistema abierto en permanente intercambio y adaptación al entorno social, económico y cultural, acentuando el importante rol social de la misma como alternativa para los jóvenes de la comunidad en la que se encuentra inserta y como elemento para el desarrollo y disminución de la pobreza en la misma. Por otra parte, menciona algunos de los métodos que existen para determinar las competencias profesionales y el modo de desarrollarse en los ámbitos educativos técnicos como así también se analizan las competencias de comportamiento. Finalmente aborda los modelos pedagógicos que pueden seguirse en una escuela técnica y profesional como así también, las competencias generales de los profesores y ofrece dos propuestas de autoevaluación que podrían funcionar como herramientas de reflexión y planificación del proyecto institucional y del trabajo desarrollado en el aula. María Verónica López Romorini. Becaria doctoral. IRICE-CONICET. [email protected] INVENIO 14 (26) 2011: 163 155 156 PENSAMIENTOS DE JOHN WESLEY Iniciador del Movimiento Metodista Qué es ser completamente cristiano1 “Si se pregunta: ¿Qué… se requiere para ser completamente cristiano?, respondo: En primer lugar, amar a Dios. Porque así dice su Palabra: Amarás al Señor tu Dios con todo tu corazón, y con toda tu alma, y con toda tu mente y con todas tus fuerzas” (Mr. 12,30). Tal amor de Dios hinche el corazón: se posesiona de todos los afectos, llena el alma a plenitud, y emplea todas sus facultades hasta el máximo. La segunda señal del verdadero cristiano es el amor al prójimo. Porque así lo dice el Señor en las siguientes palabras: “Amarás a tu prójimo como a ti mismo” (Mt. 22,39). Si alguien pregunta ¿Quién es mi prójimo?”, le respondemos: “Toda persona en este mundo: todo hijo del Padre de los espíritus y de toda carne” (He. 12,9). Hay todavía una cosa más que se requiere para ser completamente cristiano. Esta merece consideración aparte, aunque en realidad no puede separarse de lo que antecede. Se trata del fundamento de todo, la fe… Esta es la victoria que vence al mundo, nuestra fe (I Jn 5.4). Sí, el Señor mismo declara que el que cree en el Hijo tiene la vida eterna (Jn, 3.36) y no vendrá a condenación, mas ha pasado de la muerte a la vida (Jn. 5.24). En esto que nadie engañe a su propia alma. Ha de notarse que la fe que no produce arrepentimiento, amor y buenas obras no es la fe viva y verdadera de que hablamos aquí sino una fe muerta y diabólica… Porque hasta los demonios creen que Cristo nació de una virgen, que hizo toda suerte de milagros, declarando que era Dios mismo. Utilizando el lenguaje de nuestra propia Iglesia, la correcta y verdadera fe cristiana no consiste sólo en creer que las Sagradas Escrituras y los Artículos de Fe dicen verdad, sino también en tener una plena seguridad y completa certeza de que Cristo nos salva de la condenación eterna. Es la plena seguridad y completa certeza que alguien tiene de que por los méritos de Cristo sus pecados son perdonados, y uno es reconciliado con Dios. Y de ello surge un corazón amante dispuesto a obedecer sus mandamientos. Ahora bien, no es casi, sino completamente cristiano todo aquel que tenga esta fe que purifica el corazón (Hch. 15, 9) y que obra por amor (1 Jn. 1,9). ¿Tienes escrito en tu corazón el mandamiento: “El que ama a Dios, ame también a su hermano”? ¿Amas entonces a tu prójimo como a ti mismo? ¿Amas a todos como a tu propia alma, inclusive a tus enemigos y hasta los enemigos de Dios? ¿Les amas como Cristo te amó? Sí, ¿crees que Cristo te amó a ti, y que se entregó a sí mismo por ti? Citado de WESLEY, J. Obras. Franklin (Tennessee), Providence House Publisher, 1996, Tomo I, pp. 46-51. INVENIO 14 (26) 2011: 157 157 UNIVERSIDAD DEL CENTRO EDUCATIVO LATINOAMERICANO UCEL FACULTAD DE CIENCIAS ECONÓMICAS Y EMPRESARIALES Contador Público. Duración: 4 años. Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Administración de Empresas. Licenciatura en Administración de Empresas. Duración: 4 años. Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Administración de Empresas. Licenciatura en Economía. Duración: 4 años. Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Administración de Empresas. Licenciatura en Relaciones Laborales. Duración: 4 años. Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Relaciones Laborales. Licenciatura en Comercialización. Duración: 4 años. Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Comercialización. Licenciatura en Administración Hotelera. Duración: 4 años. FACULTAD DE QUÍMICA Ingeniería en Tecnología de los Alimentos: Duración: 5 años. Al finalizar el tercer año se obtiene el título de Técnico Universitario en Alimentos Licenciatura en Nutrición. Duración: 5 años. Al finalizar el tercer año se obtiene el título de Técnico Universitario en Nutrición. Ingeniería en Sistemas. Duración: 5 años Al finalizar el tercer año se obtiene el título de Analista Universitario en Sistemas. FACULTAD DE CIENCIAS JURÍDICAS Y SOCIALES Derecho. Abogado. Duración: 5 años. Licenciatura en Lengua y Literatura Inglesas. Duración: 4 años. Martillero Público. Duración: 3 años. PROFESORADO DOCENTE UNIVERSITARIO en la especialidad. Duración: 1 año MAESTRÍA en Relaciones Laborales y en Recursos Humanos. Duración: 2 años. 158 INVENIO NORMAS PARA LA PRESENTACIÓN DE COLABORACIONES 1. Todos los trabajos deben ser inéditos, salvo caso de excepción aprobada por el Consejo de Redacción de INVENIO, y mediando la autorización del anterior editor, con constancia a la vista presentada al Secretario de Redacción de INVENIO, teléfono: 54–341-4499292 o al 54–341–4261241; e-mail: [email protected] o bien a: [email protected] 2. Las colaboraciones serán sometidas a una evaluación preliminar por parte del Consejo de Redacción, el cual designará los evaluadores anónimos, expertos en el tema. Todo original será sometido al proceso de dictamen por pares académicos (especialistas), preferentemente bajo la modalidad doble ciego. La evaluación tendrá en cuenta la relevancia del tema, la calidad de la argumentación o prueba si fuese el caso, y la adecuación de la bibliografía citada. Los evaluadores se expresarán críticamente mediante un dictamen que expresará la sugerencia de la publicación sin modificaciones, o bien con modificaciones a criterio del autor del artículo o del dictaminador; o bien como no publicable. 3. El Consejo de Redacción de INVENIO, realizada la evaluación anónima de asesores académicos, se reserva el derecho de aprobar los trabajos para su publicación o rechazarlos y de determinar en qué número y sección habrán de publicarse. El Consejo, una vez en posesión de las respectivas evaluaciones, procederá a confeccionar el informe final sobre el cual se fundamentarán las decisiones por tomar: a) aprobación; b) solicitar modificaciones al/los autor/es; c) rechazo. Si la colaboración fuese rechazada, el autor recibirá el informe que produjo tal decisión. En ese caso, el autor podrá apelar la medida fundamentando su disconformidad. 4. La publicación, una vez aprobada por la Dirección y por el arbitraje anónimo de pares asesores, se realizará sin cargo para los autores; cada autor recibirá gratuitamente 3 (tres) ejemplares de la revista donde aparece su artículo. Los autores ceden el derecho de autor por el hecho mismo de que se haya publicado en INVENIO. 5. Las colaboraciones deben ser entregadas conjuntamente en soporte papel y soporte informático, ambos con las siguientes condiciones: a) Texto del artículo (incluyendo notas y bibliografía) impreso en hojas tamaño A4 simple faz, insertando los gráficos, mapas, tablas y cuadros si los hubiere, en lo posible en Word, Times New Roman, punto 12, interlineado sencillo. Los materiales entregados por los autores no serán devueltos. Los artículos no deberían superar las 15 páginas. b) Resumen o compendio del artículo, con un máximo de cien (100) palabras, después del título del artículo y del nombre del autor. Se agradecerá el aporte de la terminología técnica de la disciplina en idioma inglés para facilitar la tarea de traducción del abstract. c) Currículum del autor o autores, cien (100) palabras como máximo por cada uno, impreso en hoja tamaño A4 simple faz y aparte. 6. La bibliografía (referida a Internet, artículos y libros) se redactará siguiendo estos ejemplos: - García, Walter. “Equivocidad de la autonomía y los fines de la educación” en Thèmes (Burdeos, Francia), revista (o página) on line: http://perso.wanadoo.fr/b.p.c./ Année 2002, VII, (10/12/04) - Miles, Simon. “Charles Darwin and Asa Gray Discuss. Teleology and Design” en Perspectives on Science and Christian Faith. 2001, Vol. 53, nº 3, p. 197. (En la bibliografía final, se cita el inicio y final de páginas del artículo: pp. 197-233). - Darwin, Charles. The Correspondence of Charles Darwin. Cambridge, University Press, 1993. Secretaría de Redacción de INVENIO 159 Consejo Editorial Académico (continúa) Dra. Denise Giacomo Dr. Roberto A. Miranda Dra. María de los Ángeles Sagastizabal Nutricionista. Doctora en Salud Pública. Catedrática e Investigadora. UNIMEP, Brasil. Catedrático e Investigador. UNR. CONICET. Investigadora CONICET. Dra. Ana M. Romano Carrâo Doctora en Ciencias Sociales. Magister en Administración. Piracicaba, Brasil. Dr. Ernesto Gore Doctor por la UBA. Master of Sciences (Oregon, EE.UU). Profesor visitante de Harvard University y en el ESCP y AEP de París. Catedrático en la UdeSA. Dra. Vênia Leandro Merhi Mg. André Sathler Guimarâes Dr. Santiago Gastaldi Nutricionista. Doctora en Ciencias Médicas. Catedrática e Investigadora en la Universidad Metodista de Piracicaba, Brasil. Economista. Magister en Gerenciamiento de Sistemas. UNIMEP, Brasil. Economista. Catedrático UNRC. Mg. Emilio A. Amstalden Maestría en Administración de Recursos Humanos. Universidad Metodista. Piracicaba. Brasil. Dr. Rodolfo Rossi Dr. en Ciencias Económicas. Ex presidente del Banco Central. Argentina. ESEADE. Dra. Teresa Cauzzi Doctora en Historia. Investigadora. Directora de Centros de Investigación. Dr. Ivo Sarjanovic Economista. Vicepresidente de World Trading Unit (Cargill International). Ginebra. Suiza. Dr. Mario Saccone Doctor en Jurisprudencia. Director de Carrera de Posgrado: Facultad de Derecho (UNR). Miembro de la International Fiscal Association. Dra. Cristina Elgue Ex Decana de la Escuela de Lenguas, UNC. Directora de posgrado. Dra. Claudia R. Cavaglieri Doctorada en Ciencias, Sâo Paulo, Brasil. Posdoctorado en Southampton, Inglaterra. CPN Enrique Lingua Contador Público Nacional (UNR). Coordinador del Comité Impositivo-Previsional y Asesor Impositivo de la Bolsa de Comercio de Rosario. Dr. Gustavo Romero Doctor en Física. Investigador del CONICET. Presidente de la Asociación Argentina de Astronomía 160 La Universidad del Centro Educativo La­tinoa­me­ricano integra una Institución Evan­gé­lica Metodista al servicio de la comunidad desde 1875. La UCEL tiene su origen en la iniciativa del Pastor Tho- ISSN 0329-3475 Rosario • Argentina • Año 14 Nº 26 •JUNIO 2011 UCEL - GRADUACIÓN 2010 REVISTA DE INVESTIGACIÓN ACADÉMICA UNIVERSIDAD DEL CENTRO EDUCATIVO LATINOAMERICANO Rosario • Argentina • Año 14 • Nº 26 • JUNIO 2011 mas B. Wood, destacado educador y ministro de la Iglesia Metodista en la Argentina, quien se propuso fundar una escuela moderna hacia 1871. La misma abrió sus puertas el 28 de mayo de 1875 conducida por las maestras Louise Denning y Jennis Chapin, con el respaldo activo del Pastor Wood, y así se inició el actual Centro Educativo Latinoa­mericano. Por más de un siglo la institución fue creciendo y en el año 1993 inauguró sus cursos la Universidad. UCEL es una universidad joven pero sus raíces se nutren en una tradición y procura brindar a sus estudiantes la mejor vía y las más actuales herramientas para encarar con seriedad y solvencia los desafíos que se vislumbran, ante el vértigo de los cambios extraordinarios en la tecnología aplicada al desarrollo de los pueblos. La misión consiste en abrir, recorrer y enseñar las buenas sendas que llevan hacia un futuro promisorio. Universidad del Centro Educativo Latinoamericano con autorización definitiva otorgada por el decreto Nº 979/06 de acuerdo con la Ley 24.521 de Educación Superior Av. Pellegrini 1332 - S2000BUM Rosario - Argentina Internet: www.ucel.edu.ar / e-mail: [email protected] INVENIO historia educacional de prestigio. UCEL trata de hacer honor a esa El gran diseño Consumo de fibra alimentaria El derecho como ciencia Circularidad, arbitrariedad y regreso infinito de razones Una mirada argentina a la economía brasileña La creatina en la performance deportiva La “batalla de las monedas” Difusión de tics en las pymes Dehidrocongelación de frutas Pizzas con harina de grano entero de sorgo y mijo Variación de las propiedades superficiales a altas temperaturas