Subido por Santiago Caputi

Resumenes HPE

Anuncio
Fecha límite: 25/06
Textos:
1. Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del Pensamiento
Económico”, Oxford Univesity Press. Introducción. pag 13 a 25. Diego
2. DEANE, Phyllis (1993): "El Estado y el sistema económico. Introducción a la historia de la
economía política", Editorial Crítica, Barcelona, Capítulo 3: La búsqueda de principios
científicos, pp. 45-61 y Capítulo 4: Los creadores del sistema, pp. 62-83 Deborah cap 3 OK
Rosario cap 4
3. Roncaglia, A. (2006). La riqueza de las ideas. Cap. 4. pp. 124-130. Valentina
4. Roncaglia, Alessandro (2006): “La riqueza de las ideas : una historia del pensamiento
económico”. Traducción de Jordi Pascual Escutia. Zaragoza : Prensas Universitarias de
Zaragoza. Cap 5 Matias P
5. Roncaglia, Alessandro (2006): cap.7 pags. 245-267 (Ricardo); cap 6 217-225 (Malthus)
Bruno Arezo y Rossina Primavera
6. Backhouse, Roger (2002). The Penguin History of Economics. Penguin Books. p. 156 a
164. Sofi E
7. Paul Sweezy (1973[1942]). Teoría del Desarrollo Capitalista. Fondo de Cultura
Económica: México. p.33-84. Juan Cruz y Mag
8. Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza Editorial, pp. 19 a
29. Joaquin
9. Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del Pensamiento
Económico”, Oxford Univesity Press. Cap 5 – 6. Joaquina
10. Enciclopedia Británica: a) https://www.britannica.com/topic/logical-positivism
b) https://www.britannica.com/topic/Vienna-Circle. Valentina DC
11. Perdices de Blas, Luis (2003): “Historia del Pensamiento Económico”. Luis Perdices de
Blas editor. Editorial Síntesis. Cap. 11. Nico y Arihana
12. Landreth y Colander (2002): Historia del Pensamiento Económico. Cap 16. El desarrollo
de la econometría y los métodos empíricos en economía. Flo.A
13. Barber, William (1967): “Historia del Pensamiento Económico”. Alianza Editorial. Cap 8.
Aldana
14. Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del Pensamiento
Económico”, Oxford Univesity Press. Cap 9. Romina
15. Friedman, M. (1956). La metodología de la economía positiva. En: Revista de Economía
Política, IX (23), p. 355-396. Montse
16. Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza Editorial, pp.
115-134. Violeta
17. Mankiw, Gregory (2006). “El macroeconomista como científico y como ingeniero”.
Originalmente publicado como "The macroeconomist as Scientist and Engineer", Journal of
Economic Perspectives, vol. 20, num. 4, Fall 2006. Matias
18. Snowdon, Brian; Vane, Howard(2005): “Modern Macroeconomics. Its Origins,
Development and Current State” cap 1. Pags 1-35 y cap 12 pags 695-707. Alfonso K
19. Rutherford, M. (2001). “La economía institucional: antes y ahora” Publicado
originalmente en: Journal of Economic Perspectives, Vol. 15, No. 3, 2001. Versión en
Español de Analisis Economico, XVIII segundo cuatrimestre, 13-39. Thiago
20. Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza Editorial, pp. 48 a
75. Lu G
21. Davis J. (2011). “Individuals and identity in Economics”. Cambridge University Press.
Introducción y páginas 95 a 118. Dèborah y Magela
22. Azar P. (2021). Diferencias de género en el comportamiento económico En Espino A.,
Amarante V., Azar P., Machado A., Salvador S. y Tenenbaum V. “Las desigualdades de
género y la ciencia económica. La perspectiva de la economía feminista. Udelar,
Montevideo.
Disponible
en:
https://www.cse.udelar.edu.uy/wp-content/uploads/2021/07/DesigualdadesFinal.pdf.
Mickaela
23. Backhouse, R. E, y Cherrier, B. (2017). The age of the applied economist: the
transformation of economics since the 1970s. History of Political Economy, 49(Supplement),
1-33. Victor
Texto 1: Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del
Pensamiento Económico”, Oxford Univesity Press. Introducción.
ÉPOCAS DE TEORÍA ECONÓMICA:El autor sostiene que la evolución de las ideas económicas
ocurre en ciclos de revolución y consolidación. Estos ciclos se caracterizan por épocas de
innovación y ruptura con la tradición, seguidas de debates y confusión de lenguas. Después de
estas fases caóticas, surge la necesidad de una nueva síntesis que finalmente se alcanza y da
lugar a una situación clásica. Durante esta etapa, la economía política se convierte en una profesión
estable y se centra en la elegancia, la generalidad y la resolución de problemas. Se producen
manuales, mejoras, generalizaciones y diversas aplicaciones.
El primer ciclo se sitúa entre 1750 y 1780, marcado por la obra "La Riqueza de las naciones" de
Adam Smith, que representa una ruptura con el mercantilismo y establece el credo del laissez faire.
Después de un periodo de estancamiento, surge el segundo ciclo entre 1815 y 1845, que fue una
época de crisis y diversidad teórica con corrientes como la ricardiana, la socialista y la reacción
anti-ricardiana. A pesar de las diferencias, esta época generó semillas que influirían en épocas
posteriores.
El tercer ciclo, de 1870 a 1890, es la época de la revolución marginalista, encabezada por Menger,
Jevons y Walras, y concluida por Fisher y Marshall. Esta etapa estuvo marcada por la lucha entre
diferentes corrientes teóricas, el renacimiento del pensamiento socialista y el surgimiento de la
escuela histórica alemana.
El cuarto ciclo se desarrolla en las décadas de 1920 y 1930, conocido como la era de la alta teoría,
que produjo varias innovaciones teóricas fundamentales y modificó la orientación de la ciencia
económica. Las teorías del ciclo, del desarrollo, del equilibrio general, de la empresa, del dinero,
entre otras, surgieron en esta época.
El autor menciona que en las décadas de 1950 y 1960 se alcanzó una nueva situación clásica con
la síntesis neoclásica, que combinó elementos keynesianos con la teoría marginalista. Esta síntesis
se convirtió en una ortodoxia dominante que orientó la investigación y la política económica. Sin
embargo, en las décadas de 1970 y 1980 surgió un nuevo ciclo de confusión de lenguas con una
variedad de nuevas teorías y enfoques, como la nueva macroeconomía clásica, las teorías
post-keynesianas, el neo-institucionalismo, entre otros. Estas dos décadas representan una época
de competencia y búsqueda de síntesis teóricas alternativas.
En resumen, a lo largo de más de doscientos años de historia del pensamiento económico, se han
producido cuatro ciclos de revolución y consolidación de ideas económicas. Actualmente, nos
encontramos inmersos en un quinto ciclo caracterizado por una diversidad de teorías en
competencia.
PLURALIDAD DE INTERPRETACIONES La naturaleza subjetiva de los criterios para determinar
qué es innovador u ortodoxo en el pensamiento económico es inevitable. La periodificación basada
en estos criterios es cualitativa. La autoridad de Schumpeter no es suficiente para resolver este
problema. Se plantea la pregunta de cómo explicar el fenómeno de la evolución no progresiva sino
a través de saltos en el pensamiento económico.
Una posición inicial es el enfoque incrementalista, que compara el progreso de las ciencias con una
bola de nieve que crece al rodar por una montaña. Este enfoque supone la separación de los
fundamentos metafísicos de la ciencia económica y su análisis se limita a las teorías. Desde esta
perspectiva, la historia del pensamiento económico es vista como un aumento continuo del
conocimiento. Algunos economistas neoclásicos defienden esta visión.
Sin embargo, esta visión no permite la idea de que la historia del pensamiento económico avance a
través de saltos y revoluciones. Las crisis y estancamientos son considerados como efectos
negativos de los fundamentos metafísicos y las limitaciones psicológicas de las teorías. En este
enfoque, la historia del pensamiento económico se ve como una historia de errores.
Por otro lado, se encuentra el enfoque catastrofista o discontinuista, que se basa en las tesis de
Kuhn sobre la estructura de las revoluciones científicas. Sin embargo, aplicar estas ideas a la
historia del pensamiento económico ha sido problemático debido a la imprecisión de la definición de
paradigma de Kuhn y su origen en las ciencias naturales. Aunque se ha reconocido la revolución
keynesiana como un ejemplo de este enfoque, su aplicación a otros cambios importantes en el
pensamiento económico ha sido más controvertida.
Recientemente, se han intentado aplicar los programas de investigación científica de Lakatos a la
historia del pensamiento económico. Según este enfoque, un programa de investigación es exitoso
si es teóricamente progresivo y empíricamente confirmado. Se abandona cuando se vuelve
degenerativo y hay un programa "mejor" con más contenido empírico. Sin embargo, este enfoque
no ha tenido resultados significativos en la historia del pensamiento económico.
Un enfoque crítico hacia los enfoques incrementalista y catastrofista se basa en considerar la
historia de las ideas económicas en relación con los contextos socioeconómicos en los que
surgieron. Este enfoque, denominado relativista o mesológico, sostiene que la estructura económica
y los cambios en esta son los determinantes últimos del pensamiento económico. Estudiosos
institucionalistas, historicistas y marxistas han adoptado este enfoque, argumentando que la teoría
económica refleja la realidad socioeconómica en la que se desarrolla.
En resumen, existen diferentes enfoques para estudiar la historia del pensamiento económico,
desde el incrementalista y el catastrofista hasta el mesológico. Cada enfoque tiene sus propias
premisas y limitaciones. El enfoque mesológico, que considera la relación entre teoría económica y
contexto socioeconómico, ha sido adoptado por muchos estudiosos, pero su fundamentación
epistemológica.
NUESTRO PUNTO DE VISTA Este panorama de la historia del pensamiento económico no busca
ser una historia de personajes ilustres ni una historia sistemática de los errores que han llevado al
avance del conocimiento científico. El enfoque es que la economía no es una disciplina darwiniana,
donde el último desarrollo contiene todos los desarrollos anteriores y no pueden ser olvidados o
superados. Aunque se reconoce la evolución en el proceso histórico del cambio de ideas
económicas, se niega que sea un desarrollo unidireccional, homogéneo o único, y se niega que las
teorías populares sean necesariamente la clave para entender el proceso.
Se evita caer en ingenuidades y simplificaciones "mesológicas" al producir historias del
pensamiento económico basadas en retratos o al tratar la evolución de las ideas económicas como
apéndice de los hechos económicos. Se reconoce que la realidad estudiada por los economistas no
es inmutable como en las ciencias naturales, ya que los hechos económicos cambian en el tiempo y
el espacio, lo que hace que los problemas cruciales en un período puedan ser irrelevantes en otro.
Se enfatiza que las sociedades en su conjunto determinan el clima cultural que limita las opciones
de los científicos y deciden la importancia de los problemas, las direcciones de búsqueda de
soluciones y qué teorías son correctas.
Se señala que la sociedad no es un sujeto homogéneo en las ciencias sociales, ya que existen
diferencias de clase, cultura y nacionalidad, y las relaciones entre los sujetos pueden ser
conflictivas. Las sociedades no siempre son imparciales ni tienen claridad en lo que quieren, lo que
lleva a diferentes teorías económicas basadas en diferentes actitudes hacia los problemas, como el
desempleo. Además, los criterios con los que la sociedad determina qué teorías son correctas son
efímeros y parciales, lo que implica que la pluralidad de visiones y soluciones generadas por la
sociedad a menudo se suprimen en favor de una sola teoría.
Se destaca la importancia de las tradiciones en la formación del pensamiento económico, ya sea en
el contexto nacional, en escuelas de pensamiento académicas o en influencias políticas. Estas
tradiciones influyen en la actividad científica y contribuyen a la evolución del pensamiento
económico junto con las orientaciones de base. En ciertos períodos históricos, las orientaciones de
base sobre cuestiones teóricas fundamentales y las tradiciones se combinan para formar sistemas
teóricos que intentan ofrecer respuestas coherentes y completas a los problemas de investigación
en un campo específico.
Se menciona el ejemplo del sistema neoclásico, que se formó a mediados del siglo XIX y alcanzó
su organización sistemática a finales del siglo XIX y mediados del siglo XX. Este sistema se basó
en orientaciones de base como la teoría subjetivista del valor, la teoría microeconómica de la
distribución y la teoría armonista del equilibrio, todas organizadas en torno al principio de
maximización bajo ciertos objetivos para los agentes económicos individuales.
Texto 2: Deane, Phyllis (1993): “El Estado y el sistema económico, Introducción a la
historia de la economía política” Editorial Crítica, Barcelon
Capítulo 3: La búsqueda de principios científicos, pp. 45-61
Frecuentemente, en la historia de las ideas, el siglo XVIII es presentado como el Siglo de las Luces.
El legado más significativo de la Revolución científica no fue el contenido teórico o factual de la
nueva visión de mundo, el nuevo paradigma que ésta estableció para la ciencia natural, sino los
horizontes sin límites que abrió para el entendimiento humano en general. Así la comunidad
intelectual europea heredó una confianza sin precedentes en la habilidad del hombre moderno para
descubrir los secretos del proyecto de Dios para el universo, simplemente ampliando sus poderes
de observación y razonamiento a un estudio objetivo del mundo que le rodea, tanto el mundo social
como el mundo natural.
Fue Isaac Newton, el científico mayormente responsable de la confianza intelectual de los
pensadores del Siglo XVIII.
● No era difícil creer que un orden similar divinamente regulado debía (o debería) prevalecer
en las relaciones humanas como en los cielos y que adoptando el método de investigación
newtoniano, experimental e inductivo -llegando incluso a identificar analogías metafísicas
con el poderoso concepto físico de la gravedad-, proporcionaría a los filósofos sociales la
llave del plan de Dios para el mundo moral y político.
● La mayoría de los pensadores del siglo XVII -o principios del XVIII- que intentaron analizar
las cuestiones sociales y políticas con un espíritu deliberadamente científico destacaron su
imparcialidad u objetividad, su buena disposición a someter sus hallazgos a una crítica
informada y su profundo respeto por la evidencia factual positiva. Estos eran los elementos
distintivos reconocidos de los científicos de la Royal Society.
○ Contrastaban con la actitud cartesiana continental, que suponía que el Arquitecto
Divino ya había programado la mente humana de las ideas innatas y los poderes
infalibles de razonamiento que guiarían al pensador racional hasta la auténtica
verdad.
○ La tesis newtoniana de investigación científica tenía implicaciones ideológicas que
encajaban bien con la tradición pragmática epistemológica inglesa.
La identificación de una analogía entre un sistema solar autorregulado y una economía
autorregulada hubo de esperar a que los filósofos concibieran teorías o predecir un comportamiento
humano en el mercado aprendido para separar el concepto de un sistema económico -una
economía en el sentido moderno de la palabra- de la comunidad política en que surgieron los
problemas económicos contemporáneos. Mientras tanto, el incremento de la escala de la
complejidad del comercio y de la industria y el aumento asociado de sus dimensiones nacionales e
internacionales estimularon una corriente cada vez mayor sobre cuestiones de política económica.
La mayoría de ellos fueron escritos con la intención de prescribir a favor o en contra de formas
específicas de intervención legislativa en los mercados de dinero, de bienes o de trabajo. Buscaban
cada vez más la justificación de sus preceptos sobre bases científicas en términos de “leyes
naturales”, evidentes en sí mismas, que presuntamente el Divino Legislador había impuesto para
mantener el orden civil en la sociedad y que eran análogas a las leyes físicas, que en aquel
entonces eran objeto de consenso entre aquellos científicos que investigaban el mundo material.
Efectivamente, lo que buscaban eran las leyes y regularidades económicas que, evidentemente,
coordinaban las actividades de una multitud de individuos que operaban en los mercados en parte
coincidentes de dinero, bienes y trabajo.
- Muchos escritores que trataban cuestiones económicas habían empezado ya a razonar
sobre el tema en términos de fuerzas impersonales que tendían a estimular y posteriormente
estabilizar el cambio económico, y que ellos asociaban con los problemas políticos de
reconciliar con los conflictos económicos entre el interés propio personal y el interés público.
- El supuesto de un mecanismo naturalmente autoequilibrador, inherente en todos los
mercados libres, concordaba con las actitudes políticas antiautoritarias comunes en la
Inglaterra posterior a la Revolución, y los conceptos de contrapeso y equilibrio y de flujos
autorreversibles en los canales de circulación se hicieron cada vez más familiares en las
discusiones sobre comercio internacional y pagos sobre la formación de los precios y la
circulación de dinero.
- El desempleo era considerado como el primer problema político, puesto que era relevante
tanto para el mantenimiento de actividad económica nacional como para un orden social
estable, que, evidentemente, corría peligro cuando la distribución de las rentas entre ricos y
pobres se movía en direcciones inaceptables. Los observadores del siglo XVII (Locke, por
ejemplo) ya habían articulado una relación entre la cantidad de dinero en circulación, por
una parte, y los niveles de precios de las mercancías y de los tipos de interés o el volumen
de negocio y de empleo, por otra. Lo que Locke no había conseguido explicar era el
mecanismo de interacción entre dichas variables.
Comunidad Intelectual
● Una de las características más interesantes de la comunidad intelectual que puso los
cimientos de una disciplina distinta de economía política era su calidad cosmopolita.
● Más importante todavía en la elaboración de sus preceptos económicos de alguno de ellos
fue el hecho de que asesoraban a políticos económicos que operaban en sistemas mucho
más dirigistas y autoritarios en ideología y estructura política que el sistema surgido de la
Revolución inglesa de 16881.
1
Básicamente se acotaron los poderes del monarca.
●
John Law, Richard Cantillon y sir James Steuart son tres casos opuestos a contrastar.
La principal contribución de Law2 al desarrollo del pensamiento económico procedía no tanto de su
análisis publicado como de las consecuencias de su extraordinario éxito en persuadir al regente
francés para que adoptara lo que los contemporáneos denominaron su sistema. La esencia de Law
-los principales argumentos desarrollados en Money Considered, escritos cuando asesoraba al
gobierno escocés- consistía en reemplazar el dinero metálico convencional por un papel moneda
controlado (emitido por un banco central y garantizado por el gobierno central). La finalidad del
sistema que expuso al gobierno francés era la de ampliar la oferta del dinero en la medida suficiente
para estimular una explosión económica en Francia, impulsada por los recursos naturales
disponibles en su enorme colonia norteamericana de Luisiana.
Había dos cosas que Law comprendía con mayor claridad que sus contemporáneos:
1) En una economía con recursos de trabajo desempleados, una expansión en la oferta de
dinero podría dar lugar a un virtuoso círculo de prosperidad al aumentar la demanda del
consumidor y adelantar a los productores los fondos de inversión que necesitaban para
incrementar la producción con mayor rapidez que el consumo doméstico o los precios,
generando, así, exportaciones adicionales y garantizando una balanza comercial favorable
(o evitando, en cualquier caso, una balanza desfavorable).
2) El valor del dinero depende enormemente de la confianza de aquellos que lo utilizaban para
cambiarlo por mercancías y que un papel moneda pudiera, en principio, ser expandido o
contraído en estricta relación con la demanda del mismo era menos susceptible de provocar
fluctuaciones perturbadoras de los precios y del empleo que una moneda puramente
metálica, cuya oferta dependía de la balanza comercial o de la producción minera.
- Sin embargo, la confianza es una variable más volátil de lo que la simple lógica
económica pueda justificar y flaquea fácilmente tanto por la ineptitud (real o
imaginada) de aquellos que ejecutan la política económica como por los
acontecimientos económicos inesperados. El error fundamental del sistema de Law
fue que estaba basado en una teoría que simplificaba en exceso el papel del dinero,
tratándolo como nada más que una ficha de intercambio. El dinero -afirmó- no es el
valor por el cual son intercambiadas las mercancías, sino el valor mediante el cual
son intercambiadas, y en su determinación de proporcionar compradores y
vendedores una moneda que nunca tuvieran la intención de atesorar, ignoró la
función3 de depósito de valor qué tan efectivamente cumplía la moneda de oro o
plata.
John Law fue un economista escocés inventor del papel moneda en Europa. Su idea económica central era que el dinero es un medio de
intercambio y no constituye una riqueza en sí mismo, y que la riqueza nacional depende del comercio. Wikipedia
2
Nacimiento: 16 de abril de 1671, Edimburgo, Reino Unido
Fallecimiento: 21 de marzo de 1729, Venecia, Italia
3
Las funciones del dinero
El dinero cumple tres funciones básicas:
● Medio de cambio, porque es intercambiable por otros bienes y servicios. Esta función es la principal y anula el
trueque.
● Unidad de cuenta, porque determina el precio de cualquier bien en función de una cantidad de dinero.
● Depósito de valor, debido a que podemos ahorrar dinero para conservar riqueza.
Richard Cantillon4 y sir James Steuart5 compartían su preocupación por hacer el uso más
4
Richard Cantillon ​fue un economista franco-irlandés, autor del "Essai sur la Nature du Commerce en Général". Fue considerado por
William Stanley Jevons como "la cuna de la Economía política".​
Nacimiento: 1680, Ballyheigue, Irlanda
Fallecimiento: 1734, Londres, Reino Unido
Sir James Steuart, 3.º Baronete de Goodtrees e posteriormente 7.º Baronete de Coltness; mais tarde Sir James Steuart
Denham, também chamado de Sir James Denham Steuart ( /ˈstuːərt,_ˈstjuːʔ/; 21 de outubro de 1713, Edimburgo – 26 de
novembro de 1780, Coltness, Lanarkshire) foi um famoso jacobita e autor do "provável primeiro tratado sistemático escrito em
5
[1]
inglês sobre economia"
e o primeiro livro em inglês com 'política economica' no título.
—-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Cap 5 : El individuo en la teoría de juegos: desde puntos fijos a Experimentos
5.1 El comodín de la teoría de juegos
En el capítulo 5.1, se explora la incorporación de la interacción estratégica en la teoría de juegos y
cómo afecta la concepción del individuo en la economía. En la teoría de juegos no cooperativos, los
individuos interactúan directamente y sus decisiones dependen de las acciones de los demás. Esto
contrasta con la visión estándar en la que la interacción es indirecta y las elecciones son
independientes. Hay dos enfoques polarizados en la teoría de juegos contemporánea: uno enfatiza
los juegos no cooperativos de un solo juego y el otro se centra en los juegos de repetición
indefinida. El primer enfoque argumenta que la interacción no marca una gran diferencia en la
concepción individual estándar, mientras que el segundo sostiene que la interacción puede ser
significativa. Se plantea que agregar la interacción en la explicación de los individuos es como un
"comodín" que cambia nuestra forma de pensar sobre ellos.
El capítulo también señala que la teoría de juegos ha influido en la economía desde la década de
1980 y ha desafiado la concepción tradicional del Homo economicus. Los juegos no cooperativos
de un solo juego se utilizaron ampliamente para examinar cuestiones fundamentales en economía,
pero surgieron limitaciones en el marco de la teoría de juegos clásica de Nash, lo que condujo al
desarrollo de conceptos de solución más fuertes. Por otro lado, los juegos de repetición indefinida
presentan desafíos adicionales debido a su propensión a comportamientos cooperativos y han
llevado a la realización de experimentos para determinar los resultados de equilibrio.
En la sección 5.2 se discute la concepción del individuo en el programa de refinamiento
Nash-Harsanyi-Aumann, que busca establecer equilibrios en juegos de información incompleta. Se
compara esta visión con la concepción estándar de preferencias subjetivas del individuo y se
argumenta que están relacionadas. En la sección 5.3 se evalúa la concepción de individuo en
juegos de información incompleta y se concluye que está en línea con la concepción estándar,
limitando la contribución de la interacción estratégica para repensar al individuo.
La sección 5.4 se centra en los juegos de repetición indefinida y los experimentos realizados en la
Universidad de Michigan, y se plantea la cuestión sobre el papel del experimentador en la
construcción de los individuos y la validez externa de los experimentos. Se destaca que la
exploración de los juegos de repetición indefinida ha tenido implicaciones importantes para la
economía y el marco de juegos no cooperativos de un solo juego.
En la sección 5.5 se discute qué concepción del individuo surge en un marco de interacción
experimentalista y se concluye que, aunque muchos investigadores siguen aferrados al Homo
economicus, no descartan otras visiones alternativas.
El capítulo concluye en la sección 5.6 señalando las limitaciones de enfatizar únicamente la
interacción como una forma de explicar a los individuos y planteando la posibilidad de un cambio de
paradigma en la economía estándar hacia un enfoque más interaccionista sobre la naturaleza de
los individuos.
5.2 El programa Nash-Harsanyi-Aumann: identidad de punto fijo
En el programa Nash-Harsanyi-Aumann, se aborda la concepción del individuo en el contexto de los
juegos estratégicos. La demostración de Nash sobre la existencia de equilibrios en estos juegos
proporcionan una base formal para explicar la existencia de los individuos que participan en ellos.
El programa se basa en el teorema del punto fijo de Brouwer-Kakutani, que establece que una
transformación que mapea cada punto de un conjunto a otro punto dentro del mismo conjunto tiene
un punto fijo, es decir, un punto que se mapea en sí mismo. Este teorema demuestra la existencia
de relaciones consistentes al anclar el sistema en una relación auto-idéntica.
Si aplicamos esta comprensión a los individuos en los juegos, podemos considerarlos como
sistemas consistentes de relaciones. Cada individuo, compuesto por múltiples puntos que lo
representan, se transformaría en sí mismo a través de la relación auto-idéntica. Esto implica que la
existencia de cada individuo depende de esta relación auto-idéntica, similar a cómo se explica la
identidad personal en filosofía.
Para caracterizar formalmente a un individuo en términos económicos, se requiere que un punto fijo
se transforme en sí mismo, lo cual implica que debe ser reflexivo. Los individuos son reflexivos en el
sentido de que, en todas las transformaciones posibles, se reproduce constantemente una relación
auto-idéntica si el individuo existe como un sistema de relaciones único. En la teoría de la utilidad
estándar, los individuos son reflexivos en este sentido, ya que sus preferencias auto-idénticas se
reproducen en todas las transformaciones.
Sin embargo, surge un problema debido a la naturaleza privada y subjetiva de las preferencias. Al
ser subjetivas, se basan en las "propias" preferencias del individuo y presuponen su existencia en
lugar de proporcionar una explicación para ella. Esto plantea una diferencia importante entre la
teoría estándar de la utilidad y la teoría de juegos del programa Nash-Harsanyi-Aumann.
En la teoría de juegos, especialmente en juegos de información completa, todas las preferencias de
los individuos son conocidas por todos los jugadores, lo que fundamenta su subjetividad en la
interacción del juego en lugar de ser exclusivamente "propias". Esto permite tratar las preferencias
auto-idénticas de los individuos como la fuente de una relación auto-idéntica en la que el individuo
se reproduce constantemente.
En resumen, el programa Nash-Harsanyi-Aumann aborda la concepción del individuo en términos
de relaciones auto-idénticas y reflexividad. A través del teorema del punto fijo y la interpretación de
las preferencias en el contexto de juegos de información completa, se proporciona una base formal
para explicar la existencia de los individuos y su participación en los juegos.
5.2.1 Juegos con información completa
El programa de refinamiento Nash-Harsanyi-Aumann aborda la concepción del individuo en el
contexto de la teoría de juegos, utilizando el teorema del punto fijo de Brouwer-Kakutani como base
para explicar la existencia de individuos en los juegos. En los juegos de información completa, los
jugadores necesitan conocer las reglas del juego, las ganancias de utilidad de los demás jugadores
y jugar de manera racional. La conciencia mutua y el conocimiento común son requisitos
fundamentales para el equilibrio de Nash. A diferencia del modelo estándar de utilidad, que enfatiza
las preferencias privadas e independientes, en la teoría de juegos se considera el conocimiento
mutuo y el conocimiento común, lo que organiza las preferencias individuales en una estructura
transparente y reflexiva. Las preferencias individuales siguen siendo subjetivas, pero se enmarcan
en un contexto intersubjetivo de interacción en los juegos. En este marco, los individuos se
consideran sistemas de relaciones organizados en torno a una relación auto-identificada que se
reproduce constantemente. Por lo tanto, la identidad y la existencia del individuo se determinan en
términos de estas preferencias auto-idénticas, pero en el contexto interactivo de los juegos,
adquieren un significado diferente, incorporando la individualidad en la sociedad.
5.2.2 Juegos con información incompleta
Los argumentos de Harsanyi abordan dos problemas relacionados con los juegos de información
incompleta. En primer lugar, el marco de equilibrio de Nash requiere información completa, pero la
mayoría de los juegos son juegos de información incompleta. En segundo lugar, las estrategias
mixtas (combinación de diferentes estrategias puras con probabilidades) son necesarias para
justificar los equilibrios de Nash en muchos juegos, pero las estrategias mixtas carecen de
plausibilidad en la toma de decisiones del mundo real. Harsanyi propone una solución al utilizar
estrategias puras que se presentan como estrategias mixtas a través de las conjeturas o
suposiciones de otros jugadores sobre las estrategias puras que están siendo jugadas. Esto permite
analizar los juegos de información incompleta como si se estuvieran jugando estrategias mixtas.
Aumann extiende la doctrina de Harsanyi al argumentar que, si los individuos comparten creencias
iniciales y actualizan sus creencias de manera bayesiana cuando se enfrentan a diferencias de
información, las diferencias de información se eliminan y las probabilidades posteriores se vuelven
iguales. Esto se debe a que el conocimiento común prevalece sobre la información asimétrica, lo
que implica que los jugadores no pueden estar de acuerdo en estar en desacuerdo.
Harsanyi propone que los juegos de información incompleta se formulan considerando los tipos de
jugadores en lugar de los jugadores individuales. Los jugadores se representan como tipos que
poseen ciertas características, y las evaluaciones de probabilidad se basan en las características
conocidas por todos los jugadores. Cada jugador estima las probabilidades de que otros jugadores
sean de ciertos tipos y actúa asumiendo que los demás harán lo mismo. La evaluación de los tipos
de los jugadores se realiza condicionada al conocimiento de su propio tipo. La ganancia esperada
de cada jugador depende de las estrategias de todos los oponentes potenciales, lo que implica que
los tipos de jugadores son los "verdaderos jugadores" y sus funciones de ganancia son las
"verdaderas funciones de ganancia". De esta manera, se puede definir fácilmente el equilibrio de
Nash en el juego construido.
En resumen, los argumentos de Harsanyi resuelven los problemas de información incompleta y
justificación de estrategias mixtas al considerar los juegos como si fueran juegos de información
completa y utilizar tipos de jugadores como los "verdaderos jugadores" en el análisis del equilibrio
de Nash.
5.3 Conocer tu propia identidad
El argumento planteado es que los juegos de información completa sustituyen la concepción
subjetiva de las preferencias individuales por una concepción objetiva del juego, lo que representa
un avance en la forma de pensar sobre el individuo. Sin embargo, en los juegos de información
incompleta, el marco de Harsanyi-Aumann reintroduce el concepto problemático de preferencias
privadas de la teoría de utilidad estándar. En estos juegos, los jugadores conocen sus propios tipos
con certeza, pero solo tienen información probabilística sobre los tipos de los demás jugadores.
Esto implica que los jugadores tienen un acceso especial a sus propias preferencias, lo que
contradice la estructura intersubjetiva del juego. En consecuencia, se vuelve al enfoque de utilidad
subjetiva estándar, que resulta circular y vacío, y no proporciona una concepción adecuada del
individuo en un contexto de información incompleta.
Aunque el marco de Harsanyi-Aumann se ha utilizado ampliamente en la economía para analizar
juegos de información incompleta, el concepto de preferencias individuales no desempeña un papel
funcional en dicho análisis. El enfoque se centra en la naturaleza de la interacción entre los
jugadores, asumiendo que los tipos de los jugadores son dados y descartando la posibilidad de que
la interacción estratégica cambie la naturaleza de los jugadores. Sin embargo, es razonable
considerar que los individuos pueden cambiar sus tipos y otras características como resultado de la
interacción estratégica. La teoría evolutiva de juegos aborda explícitamente esta cuestión al
investigar cómo la interacción endogeneizar a los jugadores a lo largo de las trayectorias de pagos.
En resumen, el análisis de los juegos de información incompleta de Harsanyi-Aumann restablece el
concepto de preferencias privadas, lo cual es problemático en términos de una concepción
adecuada del individuo en el contexto de la teoría de juegos. Sin embargo, la investigación
experimental de juegos repetidos y la teoría evolutiva de juegos ofrecen oportunidades para
desarrollar una concepción más dinámica del individuo en la interacción estratégica.
5.4 Principio del formulario
Juegos repetidos y experimentos
Los juegos finitamente repetidos se asemejan a los juegos de una sola jugada en el sentido de que
los jugadores pueden utilizar la inducción hacia atrás para jugar en la primera ronda de un juego de
múltiples rondas lo que jugarían en la ronda final. En contraste, en los juegos de juego repetido
indefinidamente, en los que los jugadores no prevén un final del juego, este razonamiento se
desmorona y existen un número infinito de estrategias de equilibrio. Esta diferencia plantea la
cuestión de la naturaleza del individuo en la interacción estratégica.
La investigación experimental en juegos de juego repetidos indefinidamente ha desafiado la
concepción del Homo economicus, mostrando que los individuos a menudo cooperan en lugar de
solo buscar sus propios pagos. Esto plantea la pregunta de si este tipo de comportamiento también
se aplica a los juegos de una sola jugada y de repetición finita en el mundo real. Sin embargo,
muchos teóricos de juegos todavía buscan "refinar" nuestra comprensión de los juegos de una sola
jugada y de repetición finita, asumiendo que la concepción estándar del individuo es esencialmente
correcta y ampliando los principios consistentes con el equilibrio de Nash.
La investigación experimental en teoría de juegos ha desempeñado un papel importante en el
desarrollo del pensamiento sobre los juegos de juego repetidos indefinidamente. La variedad de
soluciones y enfoques experimentales disponibles crea diferentes formas de entender la relación
entre la interacción y la naturaleza de los individuos. Además, el diseño del experimento influye en
la interacción entre los participantes y puede endogenizar la concepción del individuo.
En resumen, la investigación experimental en teoría de juegos ha cuestionado la concepción del
Homo economicus al demostrar comportamientos de cooperación en juegos de juego repetido
indefinidamente. El diseño del experimento puede influir en la forma en que se endogeniza la
concepción del individuo en la interacción. Esto plantea la pregunta de cómo la interacción
determina la naturaleza de los individuos en el contexto de los juegos.
5.4.1 Juegos repetidos indefinidamente
Los juegos de juego repetido indefinido han sido objeto de debate en la teoría de juegos. Algunos
consideran que son menos importantes en comparación con los juegos de una sola jugada,
mientras que otros argumentan que podrían ser un modelo para todo comportamiento estratégico.
La cuestión del ajuste entre la teoría de juegos y el mundo real ha sido fundamental en la
investigación de los juegos de juego repetidos. Los experimentos iniciales de Robert Axelrod,
conocidos como el Torneo de Dilema del Prisionero Computarizado, fueron influyentes en este
campo. Axelrod invitó a expertos en teoría de juegos a diseñar programas de computadora que
compitieron en una secuencia de juegos del dilema del prisionero. El programa victorioso en ambos
torneos fue TIT FOR TAT, que adopta una estrategia de cooperación inicial seguida de la acción del
oponente en cada ronda. Estos experimentos destacaron la importancia de la cooperación y la
reciprocidad en la interacción estratégica. El enfoque en el diseño experimental también surgió en
este contexto, ya que se reconoció que los resultados podrían depender de cómo se construyeran
los experimentos. Además, se observó una variedad de resultados experimentales que desafiaban
la teoría estándar y reforzaban la idea de que el comportamiento individual depende del diseño de
la interacción. En general, el experimentalismo en la teoría de juegos ha llevado a cuestionar la
concepción fija del individuo y a reconocer que lo que las personas son se ve influenciado por cómo
se diseñan las interacciones.
5.4.2 Experimentalismo y Diseño de Mecanismos
En resumen, el texto discute los problemas relacionados con el diseño experimental en juegos y la
validez externa de los resultados obtenidos en laboratorios. Se plantea que los juegos pueden ser
vistos como interacciones continuas en lugar de intercambios aislados, lo que puede llevar a que
los sujetos experimentales se comporten de acuerdo a lo que creen que se espera de ellos, incluso
si entienden la interacción de manera diferente.
El texto también destaca que el entorno del laboratorio es artificial y puede presentar dificultades
para representar el mundo real. Se argumenta que la validez externa se ve afectada por la falta de
contextos reales y la eliminación de señales contextuales en los experimentos controlados.
Además, se menciona que los sujetos experimentales son conscientes de que participan en un
experimento, lo que puede influir en su comportamiento.
Se plantea la cuestión de si los sujetos experimentales se preocupan por la utilidad del
experimentador y si los protocolos del experimento funcionan como señales contextuales que
indican cómo se debe jugar el juego. Se sugiere que la identificación social y las señales
contextuales pueden influir en el comportamiento de los sujetos experimentales.
El texto concluye que la validez externa de los experimentos es problemática debido al metajuego
en el que el investigador está incluido. Se argumenta que no hay un punto de referencia externo
para evaluar la validez externa y que la idea misma de validez externa pierde su significado.
Se menciona el enfoque de la teoría del diseño de mecanismos, que utiliza los resultados eficientes
de Nash como base para las políticas o los protocolos de experimentación. También se menciona el
enfoque de los paternalistas libertarios, quienes reconocen que las personas no siempre se
comportan como el Homo economicus y que las reformas institucionales pueden no producir
siempre dicho comportamiento.
En general, el texto sugiere que los individuos pueden ser influenciados por el entorno
experimental, pero que su comportamiento puede variar y no siempre seguirá las predicciones de la
teoría de juegos estándar.
5.5 Ambigüedad y construcción
En resumen, el autor sugiere que los juegos de repetición indefinida inicialmente eran menos
propicios para el análisis formal en la teoría de juegos en comparación con los juegos de una sola
jugada y los juegos de repetición finita. Sin embargo, la investigación empírica de los juegos de
repetición indefinida ha impulsado la teoría de juegos experimental, desplazando en gran medida a
la teoría de juegos clásica. Esta investigación ha llevado a una reevaluación de la concepción del
individuo en la teoría de juegos.
En primer lugar, la investigación experimental ha generado una consideración activa de los
individuos en interacción. La variedad de soluciones y enfoques experimentales en los juegos de
repetición indefinida ha ampliado la comprensión de la interacción y su impacto en los individuos. La
visión convencional del individuo como caso general ha dado paso a una visión en la que el
comportamiento no convencional se considera más común. Aunque la visión convencional todavía
se defiende en economía, ahora necesita ser respaldada con evidencia empírica.
En segundo lugar, la interacción estratégica plantea preguntas sobre los límites de la concepción
del individuo. La teoría de juegos no ha abordado de manera exhaustiva los límites y la
reconfiguración de lo que implica ser un individuo en interacción. La concepción del individuo en la
teoría de juegos es ambigua, ya que existen múltiples posibilidades y poca orientación sobre cómo
abordar esta cuestión.
Además, se plantea la idea de que los investigadores experimentales pueden construir o influir en la
identidad de los sujetos experimentales. Los sujetos experimentales ejercen una capacidad
reflexiva para adoptar o rechazar la identidad deseada por el investigador. Esta capacidad de
construcción de identidad amplía la descripción del experimento e implica una relación entre el
investigador y los sujetos experimentales.
En conclusión, la teoría de juegos ha influido en el pensamiento económico sobre la concepción del
individuo. La investigación experimental ha llevado a una consideración activa de los individuos en
interacción, pero los límites y la reconfiguración de la concepción del individuo aún no se han
abordado completamente. Además, la capacidad de construir identidades en los entornos
experimentales destaca la naturaleza relacional de la identidad del individuo.
5.6 Problemas y límites
En resumen, este capítulo analiza dos áreas principales en la teoría de juegos: el programa de
refinamiento del equilibrio de Nash-Harsanyi-Aumann y los juegos indefinidamente repetidos desde
una perspectiva experimental. Se argumenta que el programa de Nash-Harsanyi-Aumann no logra
escapar de las limitaciones subjetivas del enfoque estándar y ofrece una descripción de los
individuos como paquetes de estrategias arbitrariamente determinados. Por otro lado, la
investigación experimental de los juegos indefinidamente repetidos plantea preguntas sobre la
naturaleza de los individuos, aunque aún no se ha llegado a conclusiones definitivas. El siguiente
capítulo se centrará en explicaciones racionales de los individuos en dos dominios diferentes: los
equipos y la neuroeconomía. Se destaca la importancia de abordar los límites sub personales y
supra-personales de la individualidad para una comprensión más completa de los individuos en la
economía
—----------------------------------------------------------------------------------------------------------------------------Texto 22: Azar P. (2021). Diferencias de género en el comportamiento económico
En la teoría económica neoclásica, la racionalidad es uno de los supuestos principales, en donde
comportamientos basados en altruismo, arte y belleza, solidaridad, etc. quedan excluidos de la
motivación de la acción humana en el aspecto económico.
La economía feminista ha realizado esfuerzos por revisar los modelos neoclásicos para incorporar
incentivos y comportamientos que no se ajustan a la racionalidad económica que dichos modelos
suponen. Existen diferencias en el vínculo tradicional de hombres y mujeres con el mercado y éstas
los llevan a tener preferencias y realizar elecciones distintas, incluso ante idénticas situaciones.
En base a experimentos realizados a un grupo de estudiantes teniendo en cuenta el “competir” o
“cooperar” se arrojaron los siguientes resultados: Los análisis parten del supuesto de que hombres
y mujeres reaccionarán diferente frente a la competencia: por lo tanto, se espera que su
comportamiento diverge cuando se introducen cambios en el entorno.
Efectivamente, en Gneezy, Niederle y Rustichini (2003), el cambio de un desafío personal a uno en
competencia implicó una mejora del desempeño de los hombres que se atribuye únicamente a la
postura favorable a la competencia que presentan los varones, a diferencia de las mujeres. Aún
más, de acuerdo a Niederle y Vesterlund (2007), varones y mujeres difieren en su evaluación
acerca del desempeño que tienen en el grupo, y por lo tanto estiman diferente sus oportunidades de
éxito, más allá de los resultados reales que obtienen. Ello puede incidir en su actitud frente a la
competencia.
En el mismo sentido, el trabajo de Niederle y Yestrumskas (2008) enfatiza la disímil percepción de
hombres y mujeres de sus capacidades para desempeñarse. Vinculan el resultado a que las
mujeres no solo muestran más incertidumbre acerca de sus capacidades, sino que se inclinan
menos a explorar y probarlas. En cambio, los hombres presentan una sobreconfianza y más
atracción hacia los desafíos, lo que podría explicar la mayor inclinación masculina a la competencia
encontrada en el experimento. Las autoras señalan que estas diferencias en la actitud de unas y
otros podrían explicar, en parte, la subrepresentación de mujeres en actividades de alto perfil,
aunque no existan diferencias de género en la capacidad para realizarlas.
¿Son las mujeres más aversas al riesgo?
En la literatura económica, una mayor aversión al riesgo se interpreta directamente como un
defecto. Se asocia con una menor habilidad para tomar decisiones “racionales” en juegos de
probabilidad, con falta de ambición o con escasa capacidad para avanzar en la pirámide
ocupacional o en las jerarquías empresariales. Si las mujeres fueran más adversas al riesgo que
sus pares varones, se esperaría que
dejaran pasar con más frecuencia oportunidades de lucro, solo por evitar la incertidumbre.
El hallazgo más habitual en estos estudios es que, en promedio, las mujeres muestran una mayor
aversión al riesgo que los varones. Para ellos, las situaciones de riesgo son un desafío que los
convoca a participar. Para ellas, son amenazas que es preferible evitar.
Más allá de los experimentos reseñados, también es cierto que cuando se trabaja con muestras de
población con calificaciones específicas, por ejemplo gerentes y profesionales activos, las
diferencias de género en las preferencias por el riesgo se reducen o desaparecen. Tal es el caso del
estudio de Atkinson, Baird y Frye (2003) sobre el comportamiento inversor de hombres y mujeres
gerentes de fondos mutuales de inversión. Las diferencias en el desempeño se atribuyen a
conocimiento de la
materia y a restricciones en el nivel de riqueza que se maneja en los portafolios, pero no al género.
¿Las mujeres se preocupan más que los hombres por el bienestar del resto?
Ortmann y Tichy (1999) diseñan un juego basado en el dilema del prisionero usando las
recompensas percibidas por cada elección para analizar diferencias de género en la manera de
tomar decisiones estratégicas a través de diferentes rondas. Encuentran que en las primeras
rondas, las mujeres optan por cooperar con más frecuencia que los hombres (41 % vs. 30 %). Sin
embargo, en las rondas siguientes, el nivel de cooperación baja y la diferencia entre hombres y
mujeres se reduce. Es decir, la cooperación o el engaño a través de las rondas lleva a un
aprendizaje sobre el comportamiento esperado que es similar para varones y mujeres. Por lo tanto,
aunque en las primeras rondas las mujeres se aproximen al juego de manera más cooperativa que
los hombres, con la experiencia alinean sus comportamientos.
A priori, parecería encontrarse una predisposición diferente a la negociación en los varones y
mujeres que participan de los experimentos. Ellas parecerían sentirse menos cómodas con la
negociación o mejorar su desempeño solo cuando negocian por los demás, es decir cuando son
responsables de velar por los intereses de otras personas. Además, parecerían tender a adoptar
comportamientos que las conducen a reducir las probabilidades de obtener mejores condiciones
laborales o mayores reconocimientos (como en el caso de la académica). Sin embargo, las
diferencias psicológicas por género que parecen detectarse también parecen diluirse con la
experiencia.
¿Cuánto explica la biología y cuánto la cultura las diferencias de comportamiento entre hombres y
mujeres?
Los seres humanos somos producto de la evolución, por lo cual es posible que ésta tenga un rol
importante para configurar las preferencias de hombres y mujeres en función de qué actitud les ha
sido más efectiva para preservarse en el entorno desde tiempos remotos. Desde esta perspectiva,
la mayor predisposición hacia la competencia de los varones respecto a las mujeres podría tener su
origen en la necesidad de asegurarse el éxito reproductivo. Dado que los hombres pueden tener
más hijos que las mujeres, tienen más que ganar de la competencia frente a otros hombres, desde
el punto de vista reproductivo.
Por otra parte, es cierto que existen diferencias biológicas entre hombres y mujeres, con
implicancias directas para el desempeño económico de cada uno (por ejemplo, la fuerza física
habilita a ocupar ciertos puestos de trabajo o las tareas asociadas al nacimiento pueden afectar la
inserción laboral de las madres).
A su vez, desde el punto de vista de la cultura o la socialización de género; los roles de género no
son innatos, sino aprendizajes de nociones socialmente construidas. En este sentido, el
comportamiento de hombres y mujeres bien podría derivarse de normas construidas socialmente.
Comportarse de acuerdo a estas expectativas puede reflejar la voluntad de actuar según lo que se
espera de la pertenencia a una determinada categoría social. Se espera que hombres y mujeres
tengan diferentes roles en las sociedades y así son entrenados desde la niñez.
Varios experimentos demuestran que para el caso de la mujeres, el haber tenido profesores de su
mismo sexo mejoraría su desempeño educativo posterior; no así en el caso de los hombres para los
cuales es indiferente. Entonces ¿cuál es la explicación? Más que elegir una u otra línea de
argumentos, es probable que ambas se complementen.
—----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Texto 23. Backhouse, R. E, y Cherrier, B. (2017). The age of the applied
economist: the transformation of economics since the 1970s. History of
Political Economy, 49(Supplement), 1-33.
El texto empieza con una frase de Angus Deaton (2007) que dice: “Si la tesis típica de los ochenta
era una elaborada pieza de teoría de precios estimada por máximos no lineales basada un número
muy reducido de observaciones, la tesis típica de hoy utiliza poca o ninguna teoría, una
econometría mucho más simple y cientos de miles de observaciones”. Dicha afirmación demuestra
el cambio a lo largo del tiempo que tuvo el tratamiento de los problemas económicos dado por los
economistas, que al inicio se basaba prácticamente en teoría y muy pocas observaciones, para
ahora, un uso reducido de teoría y una extrema importancia aplicada a las observaciones.
Una crítica común del pasado era que los economistas, en lugar de comprometerse con el mundo
real, formulaban supuestos que les permitían sacar sus conclusiones preferidas. La transformación
de la economía en las últimas décadas del siglo XX se ha denominado cada vez más un "giro
empírico". El autor menciona que desde los años 80 se produjo un gran crecimiento de la
investigación empírica y al mismo tiempo un declinio de la investigación teórica. Sobre esta base,
se anuncian conclusiones como "la muerte de la teoría" o al menos un "cambio de paradigma".
Muestra que se ha producido un cambio dirigido al trabajo empírico en tres de las principales
revistas, que los trabajos empíricos han adquirido más prestigio.
El autor menciona que existen varias razones de por qué se fue dando este cambio. Una de ellas es
la ya mencionada arriba, el prestigio del trabajo económico empírico. Otras son el surgimiento de
nuevas técnicas, como la contabilidad nacional, los índices del coste de vida, el análisis
input-output, el análisis coste-beneficio y la evolución de las finanzas supusieron el desarrollo de
nuevos conceptos y herramientas, así como grandes proyectos para recopilar, registrar y dar
sentido a los datos.
De la tabla presente en la página 3 del texto que muestra la metodología usada en la publicación
del “American Economic Review” desde 1963 hasta 2011 se pueden sacar 3 conclusiones
fundamentales: En primer lugar, el período en el que la teoría, tal y como se entiende ahora el
término, dominó el trabajo empírico, que duró unos treinta años, fue interludio excepcional. En
segundo lugar, se ha producido un cambio en la relación entre el trabajo teórico y empírico, pero el
trabajo empírico no se ha desconectado completamente de la teoría. En tercer lugar, el descenso
más significativo es el de los artículos exclusivamente teóricos.
Como afirmó Dani Rodrik (2015): "Hoy en día, es prácticamente imposible publicar en las mejores
revistas …de desarrollo y economía internacional sin incluir algún análisis empírico serio. ... Las
normas de la profesión exigen ahora mucha más atención a la calidad de los datos, a la inferencia
causal a partir de pruebas y a una serie de trampas estadísticas. En general, este giro empírico ha
sido bueno para la profesión.”
La importancia concedida a la "teoría aplicada" y al análisis político es un claro indicio de que lo que
ha ocurrido recientemente no sólo se refiere al trabajo empírico, sino que abarca la relevancia de la
teoría y la política. Esto sugiere que la economía no ha pasado realmente "de la teoría a los datos",
sino que ha experimentado una profunda redefinición de la relación entre el trabajo teórico y el
empírico.
El autor afirma que el término “aplicada” de economía aplicada tiene un efecto ambiguo pero, en
realidad lo hace mejor y no peor para lo que pretende explicar. Dice que se necesita un término que
englobe un conjunto grande de identidades y prácticas que aquellos que se acompasan dentro del
término “empírico”. Como sostiene Erickson, la "aplicación" se refiere a menudo a la capacidad de
una teoría para producir padrones innovadores de colaboración, no sólo su capacidad para predecir
o describir resultados.
En resumen, este volumen trata de cómo el periodo en el que ser teoricista era la actividad más
prestigiosa para un economista evolucionó hasta la situación actual en que los economistas se
enorgullecen de ser aplicados, ya sean teóricos aplicados o economistas empíricos que abordan
problemas de política.
El texto también aborda detalladamente la relación entre estudiantes de economía, los profesores y
la importancia que se daba a diversos temas a lo largo de los años 40/50 hasta el 2000. Y comó se
fueron observando esos diversos cambios. Se puede ver un ejemplo cuando menciona que la
creciente complejidad de la relación entre teoría y aplicación quedó ilustrada por los premios de los
años 60 y principios de los 70, cada uno de los cuales implicaba una relación diferente entre teoría
y aplicación. También menciona algunas ramificaciones políticas, por ejemplo: a principios de la
década de 1970 se sucedieron varios ataques en discursos presidenciales contra la economía por
ser demasiado teórica y alejada de la realidad.
Una primera explicación del giro aplicado en economía es el surgimiento de nuevas y diversas
técnicas para confrontar los modelos con los datos. Otra técnica cada vez más utilizada era la
economía experimental. El período en que la economía experimental se afianzó firmemente
coincide con el desarrollo de un conjunto de diversas técnicas. Otras técnicas difuminaron la
demarcación entre teoría y trabajo aplicado, construyendo objetos económicos en el mundo real en
vez de solamente estudiarlos. Una segunda explicación del reciente giro aplicado es la "revolución
de los datos". Aunque la reciente explosión de bases de datos digitales multivariables a gran escala
y en tiempo real es alucinante y tiene el atractivo de una revolución, la disponibilidad de datos
económicos también ha evolucionado constantemente desde la Segunda Guerra Mundial. Más que
una revolución en los años ochenta o en cualquier otra década, la historia de la economía parece
ser una de constante adaptación a nuevos tipos de datos. En 1970, por ejemplo, Jorgenson explicó
que "la base de datos para la investigación econométrica se está expandiendo mucho más
rápidamente que la propia investigación econométrica". La espectacular mejora en la recopilación y
el almacenamiento de datos ha sido posible gracias a la mejora de la tecnología informática.
Normalmente considerado como el factor más importante detrás del giro aplicado, el ordenador ha
influido en mucho más que solamente los datos económicos. No era inevitable que los ordenadores
irían favorecer trabajo empírico sobre la teoría: de hecho, uno de los principales usos de los
ordenadores era la simulación, una técnica (o quizá una familia de técnicas) que difuminaba la
distinción entre teoría y trabajo aplicado.
Uno de los puntos que afirman Blackhouse y Cherrier es que las simulaciones desdibujan la
distinción entre teoría y aplicación. A lo largo de la posguerra, los economistas han afirmado
repetidamente que la disponibilidad de nuevos conjuntos de datos y la potencia informática para
analizarlos han transformado diversos campos.
Sin embargo, en todas las historias mencionadas en este texto, la diversidad de las prácticas de
economía aplicada es el resultado no sólo de combinaciones idiosincrásicas de técnicas de
modelización, conjuntos de datos, de técnicas de modelización, software y hardware; también fue
consecuencia de una variedad de sitios, antiguos y nuevos, en los que se practicaba la economía
aplicada, y de las cambiantes demandas que patrones y clientes imponían a los economistas. Esto,
por supuesto, está relacionado con la orientación política del giro aplicado. Un ejemplo del texto: los
economistas se enfrentaron con exigencias diversas, a veces contradictorias, que crearon nuevas
formas de hacer un trabajo "aplicado" y capas adicionales de complejidad en las relaciones de
estas prácticas con el trabajo teórico. (Esto es importante para la conceptualización de lo que le
ocurrió a la economía en aquel "plan macroeconómico"
se dejó de pensar en metas y objetivos para pasar a comprender métodos y técnicas que se
concibieron independientemente.)
Todo esto sugiere que el giro hacia la economía aplicada, que implicó cambios tanto en las
prácticas de los economistas como en la percepción de su identidad, fue cambiado, en cierta
medida, por las exigencias políticas y las instituciones que las mediaron.
Conclusión: Las décadas de 1950 y 1960 podrían describirse como la era del economista teorista.
La teoría ocupaba un lugar destacado en las principales revistas y fue estructurando cada vez más
la forma en que los economistas pensaban sobre problemas económicos.
Como hemos mostrado, la situación cambió gradualmente, a medida que nuevas técnicas y nuevas
fuentes de datos permitieron obtener resultados que los economistas consideraban más sólidos. Se
consideraba que el trabajo aplicado necesitaba una base teórica, y la econometría se utilizaba para
probar hipótesis teóricas formalmente especificadas. Pero al mismo tiempo, el giro hacia la teoría
de juegos y el desarrollo de teorías de información imperfecta y asimétrica ampliaban enormemente
las herramientas teóricas a disposición de los economistas, proporcionando teorías formales de
fenómenos sobre los que antes los economistas sólo podían hablar de manera informal. A medida
completo posible de los recursos nacionales como primer objetivo de la política económica.
También vivieron y escribieron en un contexto continental europeo donde las monarquías absolutas
constituían la norma y donde la intervención del gobierno en los asuntos económicos era más
típicamente aceptable de lo que era habitual en la Gran Bretaña del siglo XVIII.
- Sin embargo, diferían de Law en que sus escritos estaban basados más en un interés
esencialmente científico por comprender cómo funcionaba la economía de mercado que en
un deseo de promover propuestas de política económica altamente específicas.
- Contribuyeron más directamente al nacimiento de una particular tradición analítica, una
nueva disciplina, que la multitud de polemistas y persuasores que hacían aportaciones a la
corriente de folletos económicos de la primera mitad del siglo XVIII.
El concepto de economía como un sistema separado del sistema político y, por consiguiente, el
desarrollo de una disciplina de la economía política tomó forma bastante gradualmente en el
discurso argumentativo del siglo XVIII.
Había TRES ASPECTOS de la teorización económica a considerar antes de que ésta pudiera
generar un nuevo programa de investigación científica.
1. El primero era el aspecto dinámico, la idea de que una cosa conduce a otra y de que las
vinculaciones regularmente observadas entre las variables o los acontecimientos comportan
implicaciones causales capaces de justificar predicciones.
2. El segundo era el aspecto de la interdependencia, la idea de que en un sistema todo
depende de todo lo demás y de que hacer un seguimiento de los efectos de acontecimientos
o políticas económicas concretos requería asesoramiento sobre la naturaleza y grados de
dependencia entre las variables relacionadas.
3. Y el tercero era la idea del cambio estructural, de que los efectos del cambio social y político
o económico sobre el comportamiento del mercado dependen no sólo de las direcciones de
causalidad y de las estructuras de dependencia, sino también de cómo se redistribuyen las
rentas y los gastos entre los agentes económicos, grupos sociales, sectores industriales o
nacionales.
El aspecto dinámico se introdujo progresivamente en el análisis económico a principios del siglo
XVIII: apareció como ejemplo en los argumentos de Law.
Los aspectos de la interdependencia y del cambio estructural eran más complejos y más difíciles de
manejar con las simples técnicas de explicación o justificación de la demanda y de la oferta que,
para entonces, eran herramientas familiares utilizadas en las discusiones sistemáticas de política
económica. Dichos aspectos precisaban de herramientas técnicas análiticas más poderosas y
desafíaban a los teóricos a desarrollar niveles más altos de abstracción.
que esto sucedía, el papel de la teoría cambió. Ya no era posible poner fe en una única teoría
general que lo abarcara todo: en su lugar, lo mejor que podían esperar los economistas era una
serie de teorías, cada una de las cuales podía utilizarse en diferentes circunstancias. Este es el
antecedente del creciente uso del término teoría aplicada. Los crecientes y complejos vínculos con
los responsables políticos y una variedad de clientes también hicieron más difícil aplicar la teoría de
forma estandarizada. Las demandas públicas y privadas empujaron a los economistas a adaptar las
teorías y herramientas a usos específicos, modificándolas profundamente en el proceso. Pero ésta
fue sólo una dimensión de la importancia de la economía aplicada. A medida que los gobiernos se
volcaron a soluciones del mercado para problemas económicos, aumentó el alcance del trabajo
aplicado. Se había vuelto la era del economista aplicado.
Cantillon en su Essai sur la nature du commerce en gènèral, sembró las semillas de una visión de
una economía como un sistema cíclico autorregulado.
● Lo que diferenciaba a Essai era su postura metodológica.
● Al centrar Essai en la “Naturaleza del comercio en general”, estaba intentando echar los
cimientos de una teoría general del proceso de mercado y derivar de ella las leyes naturales
que rigen el comportamiento y los valores económicos.
● Empezó con un informe histórico generalizado de la evolución de la estructura de la clase
socioeconómica, identificó las clases económicas cuyos singulares patrones de
comportamiento les atribuían un papel especial en el flujo circular de productos y gastos (por
ej, terratenientes, granjeros, comerciantes y artesanos u hombres de negocios -es decir,
empresarios- y asalariados), y procedió a desarrollar una teoría de lo que economistas
posteriores denominarían “El Valor Natural” (distinto del valor de mercado), una teoría que
dependía de la proposición de que “El precio y el valor intrínseco de una cosa en general es
la medida de la tierra y del trabajo que intervienen en su producción”.
○ Dicha proposición era ya una característica habitual de los escritos económicos
(publicados o que circulaban en privado) disponibles para los estudiosos de la
economía de la primera mitad del siglo XVIII.
El legado intelectual más obvio y directo de Cantillon lo recibieron los FISIÓCRATAS FRANCESES,
cuyo análisis sistemático del proceso económico constituyó la base lógica de la primera escuela del
pensamiento económico.
● Por ejemplo, las frecuentes referencia de Cantillon a la circulación de dinero y de las
mercancías, se convirtió en manos de Francois Quesnay, el médico, en una analogía directa
con la circulación de la sangre en el cuerpo humano
● y el análisis de la interdependencia de las rentas, gastos y producciones de las clases
económicas fundamentales del primero precisaba meramente un salto imaginativo para
sugerir el famoso Tableau Économique del segundo.
● También, había un vínculo obvio entre la doctrina fisiocrática y el énfasis de Cantillon en la
importancia del excedente agrario en la determinaciòn del nivel global de actividad
económica o en la importancia de la tierra como clave de los valores intrínsecos de las
mercancías, puesto que estos eran los supuestos que constituían el centro del modelo
descrito por Tableau Economique y que dieron una base lógica a las prescripciones políticas
características de los fisiócratas.
● Aunque las ideas de Cantillon hayan inspirado a los fisiócratas, no quiere decir que se
mantuvieron todas las ideas. Hubo alguna distorsión.
Así, a mediados del siglo XVIII el estudio de la economía política había empezado a desarrollar una
literatura deliberadamente objetiva, cuyos autores se consideraban a sí mismos comprometidos con
la búsqueda de una verdad consensual, comprometidos con un programa de investigación
científica. El informe de sir James Steuart sobre los Principles of Political Economy, por ejemplo, se
abstraía deliberadamente de las cuestiones de moral individual al anunciar que el interés propio era
el principio regente de su materia. La idea de que los problemas morales estaban fuera del alcance
del teórico económico estaba siendo generalmente aceptada.
● Según Steuart, el Estado tiene un papel indispensable en una economía de mercado
●
cambiante. Para él, la comunidad política y la económica eran un todo indivisible, el buen
estadista era el guardián del interés público en una sociedad económica.
En resumen, Steuart concebía una autoridad central protectora comprometida con la
intervención continua y planificada en la economía de libre mercado con arreglo a normas
generalmente aceptadas y objetivos que reflejan el interés público.
○
Dichas normas implicaban el reconocimiento del derecho natural por parte de los
agentes económicos individuales para conseguir su propio interés personal en todo
momento, sujeto únicamente a las necesidades del interés público.
○ Los objetivos de la economía incluían empleo para todos, un crecimiento económico
estable y una distribución socialmente aceptable de las rentas.
○ “Un gobierno debe estar continuamente en acción”.
Sin embargo, Steuart había pagado por su activa participación en la rebelión jacobita de 1745,
estando obligado a mantener un bajo perfil en la comunidad intelectual hasta que fue formalmente
perdonado en 1771.
El espíritu de la época estaba preparado para abrazar la visión de Adam Smith de la economía
como un sistema naturalmente armonioso y autorregulado en el cual la intervención directa del
gobierno era más susceptible a reducir el nivel nacional de actividad económica que de aumentarlo.
Capítulo 4. Los creadores del sistema
Un sistema es una máquina imaginaria inventada
para conectar en la fantasía aquellos movimientos y
efectos diferentes que se dan en la realidad.
Adam Smith
Los filósofos morales que analizaban el orden social a principios del siglo XVIII adoptaron métodos
de investigación de los filósofos naturales de la Revolución científica. Es el caso de Francis
Hutcheson que intentó basar una nueva ciencia de la ética en regularidades observadas en la
naturaleza humana. O David Hume, que buscó introducir el razonamiento en lo moral, y aceptó la
introspección y la experiencia humana como fuente de experimentos mentales de los cuales deducir
las leyes del comportamiento humano, comparables en su simplicidad y estabilidad a las leyes del
movimiento de Newton.
Los fisiócratas franceses también siguieron los pasos de los filósofos naturales, pero con mayor
tradición cartesiana (de Descartes) que newtoniana. Fueron los primeros estudiosos del
comportamiento humano que vieron la economía como un proceso integrado de transacciones de
mercado causalmente relacionadas y medibles que podía ser explicado en términos de una teoría
general lógica y coherente.
Quesnay por ejemplo intentó representar gráficamente el sistema de leyes naturales que presumía
debían gobernar el orden económico natural.
Los economistas de hoy reconocen dos leyes económicas: las normativas “reglas de juego”, el
cómo deberían comportarse los sujetos; y las regularidades positivas del comportamiento
económico, el predecir o el cómo podría esperarse que se comporten producciones, ingresos,
precios y gastos frente a decisiones institucionales o políticas. Los fisiócratas usaban el “droit
natural” para referirse a ello, pero además agregaban un tercer concepto: las reglas establecidas
por la divina providencia (de Descartes). Los fisiócratas verían el “orden natural” de lo económico
como una situación óptima, donde sus reglas daban criterios útiles para guiar el accionar de los
individuos para maximizar sus intereses.
La mayoría de las escuelas del pensamiento económico parten del supuesto inicial de que la
riqueza de la nación viene de sus recursos naturales: la tierra, fuente de todo (Cantillon).
Hacían una simplificación de la estructura de Cantillon, identificando tres clases principales en la
sociedad económica:
1) Los granjeros, extraían el producto del suelo.
2) los dueños de la tierra, flujo circular de las rentas.
3)El resto de los agentes del mercado, fabricantes y comerciantes, son improductivos en el proceso
económico.
Los fisiócratas ponen al sistema de producción al frente del análisis dando nuevas perspectivas a
los procesos del crecimiento económico. Y de la distribución de las rentas.
Quesnay, por ejemplo, notó claramente la trascendencia de la inversión del capital en el aumento
de la productividad de la agricultura. Argumentó también que en un libre mercado los productos
agrícolas disminuirían de precio gracias a la competencia, lo cual sería beneficioso para la
comunidad en su conjunto.
La principal conclusión política de los fisiócratas fue que, como la prosperidad nacional dependía
del excedente económico era importante liberar al sector productivo de la economía (agricultores)
de toda presión sobre sus operaciones de comercialización y de toda disuasión de las inversiones
destinadas a incrementar su productividad. Defendieron bajar barreras al comercio internacional y
también las medidas de redistribución de la renta a los más pobres y a los sin hogar, todo con el fin
de ampliar su mercado e incrementar la demanda de productos primarios franceses.
Los fisiócratas no escribieron ningún tratado defendiendo su doctrina económica. Su principal
exponente Quesnay sólo publicó artículos. Pero sorprendieron con su Tableau Économique, y sus
versiones, donde Quesnay con su colaborador Mirabeau explicaban de un modo matemático, el
flujo circular de rentas y gastos que vinculaba las tres clases básicas de la sociedad económica
(terratenientes, agricultores y agentes “improductivos”). Fue un instrumento analítico que permitía
visualizar con valores numéricos (aunque no reales) “toda la maquinaria de la circulación” y ver
cuales podían ser las consecuencias de cambios adversos en la distribución de las rentas entre
clases. Mirabeau decía que con el Tableau era fácil ver los posibles desequilibrios que podría
provocar una política pública, si se desviaban recursos del sector agrícola, provocando una caída
del excedente económico.
Por su coherencia lógica y complejidad analítica, economistas del siglo XX han comparado el
Tabeau Économique con una moderna tabla de input-output (instrumento econométrico). Allí se
describe la economía de mercado como un sistema coordinado de transacciones medibles
interconectadas.
La metodología matemática aplicada en el Tableau daba credibilidad de que los fisiócratas habían
encontrado el camino hacia un conocimiento económico totalmente válido, para los cartesianos.
Pero hubo un alejamiento de ése racionalismo con influencia de filósofos de la Ilustración como
Voltaire.
En Inglaterra una idea basada en que la agricultura era el único sector productivo no hubiera tenido
seguidores como sí sucedió en Francia, pues los fisiócratas pudieron conceptualizar un sistema
económico y describirlo en un marco analítico preciso donde la política económica era explicada y
justificada. Ello inspiró a Adam Smith a desarrollar un modelo distinto de sistema económico más
acorde a los políticos liberales de fines del siglo XVIII y principios del XIX.
Adam Smith (1723-1790) fue un académico más que hombre de negocios o activista político. Entró
a la Universidad de Glasgow con 14 años y se licenció con 17. En 1746 vuelve a Escocia.
En 1748-1749 fue invitado a dar clases de retórica y literatura en la Universidad de Edimburgo
donde sus clases tuvieron éxito y le dieron una reputación académica, y gracias a ello fue
nombrado profesor de lógica en la Universidad de Glasgow en 1751 y de filosofía en 1752. Dió
clases de teología, ética y jurisprudencia, y a finales de 1763 aceptó ser tutor del joven duque de
Buccleuch. Esto lo llevó a Francia, a acercarse a los fisiócratas y a continuar con sus propias
investigaciones económicas que culminaron con la publicación de su “Investigación sobre la
naturaleza y causa de la riqueza de las naciones”(1776). Habiendo publicado anteriormente el
tratado de ética “The Theory of Moral Sentiments”(1759).
Sus clases sobre cuestiones económicas y su amplio informe sobre la naturaleza y las causas de la
riqueza nacional eran tan solo una parte de un programa de investigación mucho más amplio que
no pudo completar. Se publicaron varias ediciones de sus dos principales obras, pero en 1790 aún
revisaba el “The Theory of Moral Sentiments”, año en que falleció. Aunque para él, las
contribuciones al progreso económico no fueron tan importantes, es reconocido por los
historiadores del pensamiento económico por haber establecido los cimientos de la disciplina de la
economía política. Y aún más, por haber establecido un paradigma para el análisis económico
moderno que aún perdura. Fue muy influyente en su época en la élite instruida, pero hoy día se
sigue un programa de investigación que él lanzó, y justificó un paquete de prescripciones políticas
que hoy están siendo justificadas.
Smith dejó claro que estaba comprometido con un programa de investigación en una rama del
conocimiento, buscando dar consejo útil a los políticos y reconstruir radicalmente el marco analítico
económico sobre el cual argumentaban los escritores de la época. Se refería a la política
económica con dos objetivos: permitir que la gente procure subsistencia, y proporcionar al Estado
ingresos suficientes para los gastos públicos. Busco explicar el “ sistema del comercio” o “ sistema
mercantil, lo que fuera más adelante el mercantilismo, dedicándole cuarta parte de “La riqueza de
las naciones”, y “el sistema de la agricultura”, que atribuía a los fisiócratas, al que dedicó un solo
capítulo. Siempre desde la crítica intentaba transmitir que había un orden subyacente a la economía
capitalista de mercado que tenía una tendencia natural a enriquecer a la gente. Los gobiernos
preocupados por la riqueza nacional deberían trabajar dentro de ese orden en lugar de fuera de él,
de modo que le permitiera ejercer toda su beneficiosa fuerza. Creía en un sistema económico
autorregulado. Pero no se explica allí su éxito frente a los intelectuales, ya que no planteaba
novedades analíticas ni conceptuales, ni nuevas ideas filosóficas ni nuevas observaciones
empíricas; pero supo aplicar a la ciencia del hombre una metodología científica, a lo que se suma
su habilidad para justificar el comportamiento de los individuos en el mercado o la experiencia del
crecimiento comparativo de las naciones basándose en unas pocas leyes generales o axiomas.
Ideas plasmadas con “orden y conexión correctas” (Steward, su discípulo). Ilustraba sus teorías con
datos comparativos o históricos bien documentados o comprobables. Se centraba en la política
económica y en los conflictos de interés, con optimismo acerca del potencial de una economía
comercial para conseguir mejoras en la calidad y contenido material de los niveles de vida
humanos.
Pero, para los políticos, la característica más atractiva de “La riqueza de las naciones” de Adam
Smith era que daba credenciales científicas al liberalismo económico.
Hasta qué punto Smith realmente aplicó un método científico newtoniano a su investigación sobre la
naturaleza y las causas de la riqueza de las naciones puede ser debatido. Aceptó una visión
newtoniana del mundo e intentó usar un método científico newtoniano para estudiar el sistema
económico. Partía de dos axiomas o artículos de fé sobre el mundo real: 1) se basaba en
uniformidades y constancias lo suficientemente regulares como para tener la fuerza de leyes de la
naturaleza; y 2) que había sido diseñado y guiado por un creador inteligente. Ambas implican una
armonía sistemática otorgada por un Dios en el funcionamiento del universo. Y que el científico
social debía establecer aquellos principios constantes de la naturaleza humana que eran lo
suficientemente poderosos en sus efectos sobre el comportamiento individual como para constituir
un punto de partida efectivo para un razonamiento deductivo en cadena.
El estudioso de la sociedad podía tomar prestadas las analogías mecánicas desarrolladas por los
científicos físicos para hallar una intencional coherencia en el rompecabezas de pautas del
comportamiento y de los acontecimientos. Como dijo Adam Smith en su “Theory of Moral
Sentiments”: “ La sociedad humana, bajo cierta luz abstracta y filosófica, se nos aparece como una
máquina grande e inmensa cuyos movimientos regulares y armoniosos producen mil efectos
agradables”. Además de la ventaja que el científico social tenía sobre el natural, la no necesidad de
telescopios o laboratorio para confirmar sus teorías de causa y efecto. Las experiencias personales
e históricas están al alcance del estudioso.
El principio fundamental de la naturaleza humana en que Smith basó su modelo del sistema
económico era el principio del interés propio.
El objetivo principal es maximizar las sus propias ganancias de comercio, lo cual generó nuevas
ideas para el liberalismo económico.
Los gobiernos intervienen con frecuencia en los procesos productivos, comerciales perjudicando la
libertad económica.
SMITH insistía en que el empresario capitalista que estaba naturalmente motivado a maximizar sus
beneficios tenía un incentivo permanente a aumentar la producción.
El individuo busca su propio beneficio y no el de la sociedad, haciendo que todo individuo trabaje
para darle a la sociedad un ingreso anual tan grande como se pueda. Esto se asemeja al ejemplo
de la mano invisible donde se favorece un final que no formaba parte de su intención.
Al buscar promover el desarrollo económico nacional se aumentaba el nivel de la renta nacional per
cápita de la población. Definiendo con esto el foco central del análisis económico.
Smith clasificaba las variables económicas por factor de producción -tierra, trabajo y capital- cuyos
componentes individuales eran actores pertenecientes a la economía de mercado capitalista y
cuyas rentas se suman al valor del producto nacional.
Considero necesario elaborar una teoría que no solo explicará el mecanismo por el cual las
mercancías adquirían su precio de mercado, sino también la justicia teológica de los resultados.
Para investigar cuáles eran los principios que regulan el valor intercambiable de las mercancías,
primero tomó como punto de partida la medida real del valor de las mercancías. En segundo lugar,
cuáles son las partes que lo componen y por último cuáles son las diferentes circunstancias que
hace que su precio se eleve o disminuya.
La respuesta al primer interrogante fue que el precio real es el que la mercancía adopta de manera
natural, cuando el mercado está en un equilibrio competitivo a largo plazo, dado que los
productores suministren la misma cantidad que los consumidores están dispuestos a comprar. A la
segunda contestó diciendo que ni más ni menos que lo suficiente iba a ser el coste. Y para
contestar a la última interrogante explico cambios accidentales en las condiciones de la oferta y la
demanda. Como por ejemplo regulaciones políticas, monopolio, entre otras. Haciendo que el precio
de mercado se mantenga por encima de lo regular.
La característica fundamental de la teoría del valor de Smith era que asociaba un mercado
libremente competitivo con los beneficios de minimizar los precios para los consumidores y
maximizar las ganancias para los productores. Permitiendo que la mano invisible produjera sus
efectos sin ser obstaculizada por la intervención del gobierno o los monopolios.
Smith fue capaz de integrar una teoría del valor con una teoría del crecimiento y utilizar ambas para
apoyar su defensa del liberalismo económico.
Las perspectivas para continuar las mejoras de la producción dependían según Smith de diferentes
interacciones. En primer lugar, la especialización daba lugar a un aumento de la productividad del
trabajo, al incrementar la destreza del trabajador y ahorrar tiempo entre operaciones, conduciendo a
crecientes beneficios, dando más oportunidades de empleo y un mayor alcance de la división del
trabajo. Smith afirmaba que para lograr esto el producto per cápita creciera con mayor
rapidez que el consumo per cápita. Y a su vez acepta la existencia de límites del crecimiento
debido a la escasez de recursos naturales.
Smith logró justificar una visión general de la economía nacional como un sistema autorregulado y
la asoció a una doctrina relativa al papel del estado en dicho sistema.
Aseguraba que había un orden natural en el sistema social. Y eso era lo que quería darles a
entender a los políticos, con el fin de poder asesorar a los futuros gobiernos.
Texto 3. Roncaglia, A. (2006). La riqueza de las ideas. Cap. 4. pp. 124-130.
Las motivaciones y consecuencias de las acciones humanas
Los principales científicos sociales del mundo han emprendido el análisis del comportamiento
humano y del funcionamiento de la sociedad a partir de dos preguntas clave:
1- Sobre los impulsos que dirigen las acciones humanas
2- Consecuencias de las motivaciones que no van dirigidas al buen funcionamiento de la sociedad o
al bienestar colectivo.
La importancia de la primera pregunta recae en que el análisis pasa de ‘lo que debe ser’ a ‘lo que
es’. Hasta la Edad Media, la idea predominante era que el comportamiento humano se guiaba por
fines divinos y que toda acción contraria debía erradicarse. Con esto, ‘lo que es’ significaba
legitimar comportamientos que no se ajustan a la ética religiosa.
Maquiavelo abandonó la postura medieval, mientras que la Reforma Protestante eligió una posición
intermedia que Weber consideró fundamental para el nacimiento del capitalismo. El punto fuerte de
la visión protestante reside en el hecho de que evitaba la oposición entre los intereses individuales y
colectivos, conciliando el reconocimiento del papel de los intereses individuales como fuerza para la
acción constructiva y la conservación de un principio de juicio moral. Ésta era una solución
semejante a la que Smith iba a proponer con su defensa simultánea del mercado y de la «moral de
simpatía».
Los motivos de la acción humana se resumen en dos términos, pasiones e intereses. La distinción
apunta a la presencia simultánea, en el comportamiento humano, de elementos instintivos o de
costumbre y de elementos que implican elecciones razonadas, pero que ciertamente no pueden
reducirse a una simple cuestión de maximizar la riqueza o la renta.
Con respecto a la segunda pregunta, relativa a las consecuencias de un comportamiento individual
motivado por las pasiones e intereses individuales. Estas, bajo ciertas condiciones, pueden
conllevar a consecuencias sociales positivas.
Además, las conexiones sociales que se desarrollan entre quienes participan en la economía de
mercado desempeñan un papel civilizador, con cierto control moral sobre las pasiones e intereses
propios. La idea de un papel civilizador del comercio (doux commerce) estaba relacionada a la idea
de un orden social perfectible.
Montesquieu, Condorcet, Paine, Hume y Smith, entre otros, comparten la idea de que en una
sociedad en que el mercado tiene una posición central, no sólo producirá riqueza neta a causa de la
división del trabajo y el progreso técnico, sino que generará un humano “refinado”: honesto, de
confianza, ordenado y disciplinado, etc. Al mismo tiempo, una persona así facilitará el
funcionamiento del mercado.
En el siglo XVIII una interpretación similar predominó con una sociedad basada en la división del
trabajo y el mercado. Esa visión optimista era parte de la cultura de la Ilustración y su fe en el triunfo
de la razón. Sin embargo, la idea de una sociedad progresiva no procede de la esperanza en la
difusión del comportamiento individual guiado por la razón y no por las pasiones. Más bien, el
vínculo operaba de forma opuesta, desde el progreso económico y social, adquirido por una
sociedad dirigida por el espíritu del comercio, y por tanto, por motivaciones individuales, hacia una
creciente civilización cultural en que el interés personal no estaba tan superado, dirigido hacia el
progreso colectivo.
Bernard de Mandeville (1670-1733)
Educado en un entorno cultural que se encontraba entre los más progresistas de la época, en su
obra el doctor holandés abordó algunos temas característicos del pensamiento libertino de los
siglos XVII y XVIII, tratando lo que era visto como un conflicto irreconciliable entre el criterio rigorista
y el criterio utilitarista en las elecciones que conciernen al comportamiento humano.
La polémica de Mandeville estaba dirigida contra Shaftesbury, autor que también es criticado por
Smith en su “Teoría de los sentimientos morales”. Shaftesbury defendía la idea de una armonía
universal en la que coincidían el Bien y la Belleza. En opinión de Mandeville, el hombre se guía por
lo general por pasiones e intereses que están centrados en sí mismo y no se orientan al bien de la
sociedad.
Sin embargo, el resultado final de una sociedad en la que predomina el comportamiento egoísta
puede ser el bien colectivo: los «vicios privados» pueden convertirse en «virtudes públicas».
El comportamiento egoísta podría llevar, decía Mandeville, pero no llevaría necesariamente al bien
colectivo. Todo dependía de la capacidad de quienes estaban en el poder para explotar la presencia
simultánea de las diferentes pasiones que se hallan en la raíz de la acción humana. Él sostenía que
debemos reconocer la existencia del vicio como una cuestión de hecho, porque sólo de este modo
podremos obtener resultados positivos.
“...el hombre sólo se compromete cuando es estimulado por sus deseos.”
Es en la gran sociedad mercantil donde el comportamiento de los hombres está dirigido por
motivaciones individualistas, que favorecen el progreso de la riqueza y con él, su crecimiento cívico.
. Junto con las leyes, eran importantes la educación y estar acostumbrado a la vida en sociedad,
puesto que por medio de ellas pueden dirigirse las diferentes pasiones hacia el bien colectivo. La
interacción entre las pasiones equilibradas constituía una “mano invisible” que garantizaba el
progreso de la sociedad. Esta mano invisible no era, sin embargo, un resultado necesario de las
acciones individuales: era en sí misma una construcción consciente, a través de la cual se
manifestaban las capacidades de los responsables del gobierno de la sociedad.
Texto 5: Roncaglia, Alessandro (2006): cap.7 pags. 245-267 (Ricardo); cap 6 217-225
(Malthus)
-Capítulo 6: Malthus
6.1. La perfectibilidad de las sociedades humanas, entre utopías y reformas.
La "Revolución Gloriosa" inglesa de 1688 fue un cambio político importante que no causó una
ruptura drástica en las instituciones existentes y se llevó a cabo sin mucha violencia. Por otro lado,
la Revolución francesa de 1789 y su radicalización posterior plantean dos cuestiones
fundamentales para los científicos sociales. En primer lugar, ¿puede un cambio en las instituciones
conducir a una sociedad mejor, especialmente en términos de calidad de vida y funcionamiento
económico? En segundo lugar, si el cambio implica violencia y derramamiento de sangre, como fue
el caso de la Revolución francesa, ¿justifican estas consecuencias los beneficios que se pueden
obtener?
En el siglo XVIII, la corriente de pensamiento de la Ilustración dio una respuesta relativamente
positiva a la primera pregunta, argumentando que la intervención de gobernantes benevolentes
guiados por la razón podía promover el progreso social. Sin embargo, la segunda pregunta no fue
un tema relevante para los defensores de la Ilustración, quienes generalmente aceptaban el poder
absoluto de las monarquías nacionales y se limitaban a proponer intervenciones económicas y
políticas sociales.
No obstante, en la época de la Revolución francesa, surgieron corrientes de pensamiento que
ofrecían respuestas diferentes sobre la organización de la sociedad. Por un lado, estaban los
conservadores, quienes sostenían que los esfuerzos para promover el progreso social eran inútiles.
Por otro lado, estaban los revolucionarios, que afirmaban que un cambio radical era necesario,
incluso en las instituciones políticas.
Los revolucionarios a menudo se inspiraban en modelos utópicos de sociedades ideales, que
abarcaban no solo el control de los medios de producción, sino también las costumbres de la vida
cotidiana. Esta visión fue fomentada por el clima cultural de la Ilustración, que impulsaba a los
intelectuales a creer en la capacidad de la inteligencia humana para diseñar sistemas institucionales
superiores a los existentes. Algunos incluso afirmaban el derecho y la obligación de imponer estos
sistemas, incluso contra la resistencia de los gobernantes o las masas ignorantes.
La tradición de la Ilustración escocesa también respaldó los cambios institucionales, como la lucha
de Adam Smith contra los vestigios del feudalismo. Sin embargo, no se trataba de diseñar
instituciones ideales de antemano, sino de indicar posibles mejoras en las existentes. La confianza
en la razón estaba matizada por la idea liberal de que cada individuo es el mejor juez de sus
propios intereses, así como por una visión realista pero optimista de la naturaleza humana, que
generaba cierto escepticismo sobre las capacidades y motivaciones de los gobernantes. Esto
implicaba desconfianza, e incluso hostilidad, hacia los proyectos de cambio revolucionario basados
en modelos teóricos de sociedades ideales.
En Francia, se produjo un enfrentamiento entre las corrientes reformistas y conservadoras en la
época prerrevolucionaria. Por un lado, Turgot, ministro de Hacienda, respaldó reformas que
buscaban abolir las restricciones feudales y mejorar las condiciones sociales de los pobres. Por otro
lado, Necker, su sucesor y último ministro de Hacienda antes de la Revolución, describía la pobreza
como un hecho natural y veía el crecimiento de la población como un problema que se resolvería
mediante el sufrimiento y la mortalidad cuando los recursos escasearan.
Condorcet, filósofo y matemático, argumentaba que los problemas sociales no eran producto de las
fuerzas naturales, sino de las instituciones humanas. Sostenía que las reformas institucionales
podían influir en el progreso económico y social, respaldando la educación universal y planes de
seguro colectivo. Sin embargo, figuras como Condorcet fueron víctimas del Terror durante la
Revolución francesa, ya que el extremismo utópico consideraba al reformismo moderado como un
enemigo.
La radicalización de la Revolución francesa también generó una radicalización en la oposición al
cambio. La filosofía social de Adam Smith, que inicialmente había sido bien recibida, se enfrentó a
hostilidad hacia fines del siglo XVIII. Un ejemplo famoso fue el opúsculo de Malthus sobre la
población, que adoptó y desarrolló las opiniones de Necker. Las corrientes reformistas, atrapadas
entre el extremismo utópico y la reacción conservadora, perdieron terreno y solo sobrevivieron
enfocándose en aspectos puramente económicos.
6.2 Malthus y el principio de población
En los años siguientes a la Revolución francesa, hubo una reacción conservadora contra el Terror,
pero algunos intelectuales británicos, como Thomas Paine y William Godwin, mantuvieron una
postura favorable hacia la Revolución. Godwin, conocido como partidario del anarquismo, abogaba
por la descentralización social y una redistribución de la riqueza a favor de los más necesitados. Su
influencia fue importante en movimientos como el cooperativismo.
Por otro lado, Thomas Robert Malthus adoptó una visión diferente. Fue un ministro de la Iglesia
anglicana y profesor de historia y economía política. Su obra más famosa fue "Ensayo sobre el
principio de población", publicado en 1798, donde argumentaba que el crecimiento de la población
está limitado por la disponibilidad de recursos. Sostenía que el crecimiento poblacional excesivo
conduciría a una disminución de los salarios y a un empeoramiento de las condiciones de vida de
los trabajadores. Malthus también mencionaba la castidad, la continencia y la anticoncepción como
posibles formas de controlar la población.
Las ideas de Malthus tuvieron un impacto significativo y fueron utilizadas por otros economistas,
como David Ricardo, para respaldar la teoría de los salarios y la ley de bronce de los salarios, que
establece que el salario tiende a mantenerse alrededor del nivel de subsistencia. Sin embargo, se
argumentó que estas ideas no tenían en cuenta el progreso tecnológico y que una proporción
decreciente de la población podía producir suficientes alimentos para una población en crecimiento.
Malthus sostenía que los intentos de mejorar la situación de los trabajadores eran inútiles y que solo
los "frenos preventivos" al crecimiento de la población, como el temor a la pobreza, podrían tener un
efecto positivo. Sus ideas entraron en conflicto con la tradición reformista que defendía la
esperanza de mejorar las condiciones de vida como incentivo para el trabajo.
A pesar de las críticas, las ideas de Malthus dominaron la economía política clásica y contribuyeron
a una visión pesimista sobre el progreso y las condiciones de vida de las clases trabajadoras. La
economía política se ganó la reputación de ser una "ciencia lúgubre" debido a su enfoque en teorías
abstractas que sugerían la imposibilidad de un progreso duradero.
6.3 La «ley de Say»
La "ley de Say" es una teoría económica enunciada por el economista francés Jean-Baptiste Say en
1803. Según esta ley, la oferta crea su propia demanda, lo que significa que la producción de
bienes y servicios genera automáticamente la demanda necesaria para absorber esa producción.
Say formuló esta ley como crítica a ciertos aspectos de la doctrina fisiocrática que se oponían al
papel del ahorro y la acumulación en el crecimiento económico.
Los fisiócratas atribuían a los terratenientes y a la nobleza un papel activo en el proceso de
circulación económica. Sin embargo, si estos sectores decidían no gastar parte de su renta, podría
haber una situación de sobreproducción o falta de salidas en el mercado. Por lo tanto, el gasto de
los terratenientes y la nobleza regulaba la tasa de intercambios y la producción.
Say estableció su ley en su obra "Traité d'économie politique" en 1803, donde también presentó una
teoría del valor basada en la utilidad y el equilibrio entre oferta y demanda. Esta ley fue aceptada
por muchos economistas de la escuela clásica, como James Mill, Torrens, McCulloch, Ricardo y
John Stuart Mill. La versión más fuerte de la ley, que establecía una identidad ex ante entre la
demanda y la oferta agregadas, se asoció comúnmente con la "escuela ricardiana".
En su versión original, la ley de Say tenía como objetivo reafirmar dos tesis presentes en la obra de
Adam Smith. La primera tesis afirmaba que el progreso técnico podía llevar a un desarrollo de la
producción a largo plazo y mejorar el nivel de vida de la población, generando así un crecimiento
paralelo de la demanda. La segunda tesis sostenía que el crecimiento era favorecido por el ahorro y
la inversión, en lugar de un consumo improductivo.
Say argumentaba que el dinero no era demandado en sí mismo, sino sólo como medio para adquirir
bienes. Por lo tanto, sostenía que la oferta agregada siempre sería igual a la demanda agregada y
que no podría haber una crisis general de sobreproducción. Sin embargo, autores como Sismondi,
Malthus y Lauderdale criticaron las versiones más radicales de la ley de Say, argumentando la
posibilidad de crisis generales de sobreproducción.
Esta crítica fue seguida por otros economistas ricardianos, como Robert Torrens y John Stuart Mill,
quien argumentó en sus ensayos que existían desequilibrios a corto plazo entre la oferta y la
demanda total de bienes. Estos planteamientos influyeron posteriormente en las teorías de Marx y
Keynes, quienes se opusieron directamente a la ley de Say tal como se había interpretado en la
tradición marginalista.
-Capítulo 7: Ricardo
7.1. Vida y obras
David Ricardo nació en Londres en 1772 en una familia judía sefardí. A pesar de las tradiciones
familiares, David estudió en Ámsterdam durante su adolescencia y luego regresó a Londres para
trabajar en la bolsa con su padre. Sin embargo, su matrimonio con una joven cuáquera en contra de
la voluntad de su familia lo llevó a ser repudiado y a buscar su propio camino en los negocios.
Su trabajo en la bolsa lo llevó a interesarse en las vicisitudes económicas del país. Durante sus
vacaciones en Bath en 1799, leyó "La riqueza de las naciones" de Adam Smith, lo cual tuvo un
impacto significativo en su desarrollo intelectual. Aunque no era un erudito, Ricardo poseía una
mente lógica y una inteligencia aguda. Su interés analítico se centró en los eventos económicos de
su época, los debates que surgieron a su alrededor y la obra de Smith.
Ricardo escribió algunos ensayos económicos sobre controversias monetarias y realizó
contribuciones significativas a la economía política después de retirarse de la bolsa en 1815.
Gracias a sus especulaciones exitosas en la colocación de deuda pública, se convirtió en una
persona rica. Se trasladó al campo y llevó una vida tranquila en Gatcomb, mientras participaba en
política como miembro del Parlamento. A través de correspondencia y discursos parlamentarios,
participó en los debates económicos de la época.
Entre sus publicaciones más destacadas se encuentra su ensayo sobre la influencia de un bajo
precio del grano en los beneficios del capital, publicado en 1815, que recibió una respuesta positiva.
Sin embargo, su obra principal fue "Principios de economía política y tributación", publicada en
1817, que lo estableció como una figura importante en la élite político-cultural de su tiempo.
Ricardo abordó temas monetarios, fiscales y de deuda pública en sus escritos y actividades
parlamentarias. Propuso reformas en el sistema bancario y la introducción de impuestos sobre la
riqueza para reembolsar la deuda acumulada durante las guerras napoleónicas. Su legado científico
fue inicialmente disipado después de su muerte, pero su importancia fue redescubierta con la
edición en diez volúmenes de sus obras y correspondencia realizada por Sraffa entre 1951 y 1955.
Esta edición rigurosa de sus escritos permitió limpiar el campo de malas interpretaciones y revelar
nuevas discusiones interpretativas que aún hoy son relevantes en el debate teórico sobre la teoría
del valor y la distribución. Aunque en su época se cuestionó su relevancia, Ricardo fue reconocido
como una figura clave en la economía política clásica y su legado continúa siendo objeto de estudio
y debate en la actualidad.
7.2 La visión dinámica de Ricardo
Ricardo considera una sociedad basada en la división del trabajo, con dos amplios sectores, la
agricultura y las manufacturas, y tres clases sociales —trabajadores,capitalistas y terratenientes—
con tres categorías de renta: salarios, beneficios y rentas. Según Ricardo, los salarios corresponden
en general al consumo de subsistencia de los trabajadores empleados en el proceso productivo, y,
por lo tanto, constituyen una parte de los gastos necesarios de la producción; las rentas y los
beneficios corresponden al excedente, es decir, a aquella parte del producto de la que puede
disponerse una vez que se hayan reconstituido las existencias iniciales de medios de producción y
medios de subsistencia para los trabajadores empleados en la producción. Mientras que los
terratenientes asignan sus rentas a consumos de lujo, los capitalistas se ven inducidos por la
competencia a invertir prácticamente la totalidad de sus beneficios. Por lo tanto, el desarrollo
económico procede de la acumulación, realizada por los capitalistas sobre la base de sus
beneficios.
Ricardo no parte de Adam Smith en las líneas amplias de su construcción analítica. Ricardo tiene
una mente analítica, con una necesidad innata de rigor lógico y de precisión, que le llevan a
construir un edificio analítico perfilado con meticulosidad, aun a costa de excluir del análisis algo
que no considera directamente relevante para el problema sometido a consideración.
Ricardo, por su parte, proyectó el foco principal sobre la distribución del excedente entre rentas y
beneficios. Éste era ciertamente un tema central, dado que en la visión de Ricardo la parte de la
renta que va a los beneficios constituye el factor decisivo en la determinación del ritmo de la
acumulación de capital en la economía.
Ante todo, necesitamos clarificar en qué sentido puede atribuirse a Ricardo el supuesto de unos
niveles de producción dados. Este supuesto procede de su aceptación de la «ley de Say». Para
Ricardo el nivel de producción está dado en cualquier momento del tiempo, siendo determinada la
cantidad que puede producirse, dada la capacidad de producción disponible, por el proceso de
acumulación de capital.
En cuanto al supuesto de un tipo de salario dado, Ricardo siguió la teoría de la población de
Malthus. Así, resulta que el excedente se divide entre rentas —utilizadas principalmente en
consumos de lujo— y beneficios, que se destinan sobre todo a la inversión.
El problema de la renta, por lo tanto, se resuelve con la teoría de la renta diferencial: una teoría que
con frecuencia se atribuye a Ricardo pero no se debería. Según esta teoría, la renta de las tierras
más fértiles corresponde a la reducción en los costes por unidad de producto, en comparación con
los costes computados en las tierras menos fértiles.
La renta de las tierras cultivadas menos fértiles es nula y, por lo tanto, no entra en el coste de
producción. Así, los beneficios resultan ser una magnitud residual, es decir, aquella parte del
excedente que no es absorbida por la renta. Hemos visto que el crecimiento económico procede de
la acumulación, y, por lo tanto,de los beneficios; por consiguiente, todo lo que reduzca los
beneficios constituye un obstáculo para la acumulación. Si suponemos dado el tamaño del
excedente, entonces los beneficios disminuyen cuando aumenta la renta de la tierra.
Según Ricardo, ceteris paribus, esto se produce automáticamente debido al propio desarrollo
económico: el crecimiento de la economía viene acompañado por el crecimiento de la población, lo
que significa un aumento del consumo de alimentos, y, por lo tanto, de la demanda de productos
agrícolas. Esto provoca a su vez la expansión de los cultivos. Supongamos que las tierras que se
ponen en cultivo son más fértiles que las que se dejan sin cultivar. A medida que se ponen tierras
en cultivo, la menos fértil entre las cultivadas, es decir, la llamada «tierra marginal» por cuyo uso no
se paga ninguna renta, resulta ser cada vez menos fértil. Por lo tanto, los beneficios obtenidos en la
tierra marginal disminuyen, debido al aumento de los costes unitarios del producto. Las rentas
aumentan en las tierras ya cultivadas, y en consecuencia disminuyen los beneficios de los
granjeros. Esta disminución de los beneficios se transmite de la agricultura a las manufacturas, a
través del aumento de precio de los productos agrícolas, y, por lo tanto, de los salarios. Todo ello
frena la acumulación.
Las importaciones de grano extranjero son la mejor manera de hacer frente al aumento de la
demanda de alimentos debido al aumento de la población. En efecto, las importaciones hacen
posible que se evite poner en cultivo nuevas tierras, menos fértiles, con el consiguiente aumento de
la renta y disminución de los beneficios y del ritmo de la acumulación. Así, resulta oportuno eliminar
todos los obstáculos —tales
como derechos aduaneros— a la importación de productos agrícolas.
Ricardo demostró que las ventajas del comercio internacional proceden de las mejoras en la
tecnología productiva para el conjunto de los países implicados en el comercio que permite la
división internacional del trabajo.
La construcción analítica de Ricardo se orientaba principalmente a demostrar que la abolición de los
derechos sobre el grano tenía efectos positivos sobre la tasa de acumulación y por ende sobre la
«riqueza de las Naciones».
El tipo de beneficio lo que está en el centro del edificio analítico de la economía política clásica
construido por Ricardo.
Primero, que en una sociedad capitalista guiada por la competencia, en la que los capitalistas son
libres de trasladar sus capitales de una inversión a otra, el rendimiento de los fondos invertidos en
los distintos sectores —el tipo de beneficio— debe ser más o menos igual. Por lo tanto, el tipo de
beneficio regula el esfuerzo que dedica la sociedad a la producción de las diferentes mercancías, y
es este mecanismo competitivo, basado en la tendencia a un tipo uniforme de beneficio, lo que
asegura que las cantidades de las diferentes mercancías producidas corresponden más o menos a
las cantidades vendidas en la economía.
Segundo, el tipo de beneficio es también —con los supuestos adoptados por Ricardo— un indicador
del ritmo potencial de crecimiento de la economía. De hecho, por definición es igual a la relación
entre los beneficios y el capital adelantado; suponiendo que los beneficios se inviertan en su
totalidad, tal relación es igual a la que existe entre la inversión y el capital adelantado, o en otras
palabras, a la tasa de acumulación. Además, si prescindimos del cambio técnico (incluidos los
rendimientos no constantes a escala) y suponemos que se utiliza completamente la capacidad
productiva disponible, vemos que el tipo de beneficio es igual a la tasa de crecimiento de la renta
nacional.
A decir verdad, Ricardo no ilustró explícitamente estas relaciones, pero ellas expresan de forma
analítica la esencia de su pensamiento (en particular, el «modelo ricardiano» de Pasinetti, 1960,
seguido de una amplia literatura, se basaba en ellas). Además, está claro que para Ricardo explicar
si, y por qué, el tipo de beneficio tiende a disminuir a lo largo del proceso de desarrollo, y localizar
los factores que pueden contrarrestar esta tendencia, significa explicar el ritmo de desarrollo de la
economía.
Por estas dos razones —su papel en la regulación del funcionamiento competitivo de la economía
capitalista y en el proceso de desarrollo económico—, la determinación del tipo de interés
constituye un aspecto central del edificio analítico de Ricardo.
Malthus había objetado a Ricardo que «en ningún caso de producción [por lo tanto, ni siquiera en el
sector agrícola], es el producto exactamente de la misma naturaleza que el capital adelantado».En
otras palabras, Ricardo no podía sortear tan alegremente el problema del valor determinando el tipo
de beneficio como relación entre diferentes cantidades físicas de la misma mercancía, puesto que
en cualquier proceso productivo los medios de producción que se utilizan son heterogéneos entre sí
y con respecto al producto.
Según la teoría del valor-trabajo incorporado para explicar los precios relativos, la relación de
intercambio entre dos mercancías se corresponde con la relación entre las cantidades de trabajo
directa e indirectamente requeridas para producir cada una de ellas.
Ricardo extendió la aplicación de la teoría hasta incluir también a las economías capitalistas,
suponiendo que para cada mercancía la suma de beneficios y rentas que había que añadir al coste
del trabajo para llegar al precio es aproximadamente proporcional a la cantidad de trabajo empleada
en el proceso productivo.
Gracias a la teoría del valor-trabajo, Ricardo podía medir tanto el producto como los medios de
producción y subsistencia en términos homogéneos, como las cantidades de trabajo empleadas en
su producción.
La relación entre los beneficios y el capital adelantado, expresados ambos como cantidades de
trabajo, se define una vez más como una relación entre diferentes cantidades físicas de una
magnitud (tiempo de trabajo).
Valor absoluto y valor de cambio:
El tema del valor aparece resuelto de una manera que Ricardo consideraba aceptable para sus
fines, pero que descansaba en unas simplificaciones drásticas e irreales.
Según Ricardo, los precios relativos determinados como la relación entre las cantidades de trabajo
directa e indirectamente requeridas para producir las diferentes mercancías, violan la condición de
un tipo uniforme de beneficio en los distintos sectores de la economía por tres razones:
1. la diferente duración de los procesos productivos;
2. la variación de la relación entre capital fijo y circulante;
3. y la diferente duración del capital fijo en los distintos sectores.
Dicho de modo más preciso, si para cada mercancía elegimos como patrón de medida la cantidad
de ella que requiere una hora de trabajo para su producción, a fin de asegurar la uniformidad del
tipo de beneficio en los diferentes sectores, el beneficio por unidad de producto tendrá que ser
superior en los sectores caracterizados por una mayor duración del proceso productivo, o por una
mayor relación entre el capital fijo y circulante, o por una mayor duración del capital fijo.
En el pensamiento de Ricardo, como ya en el de Smith , la interrelación entre oferta y demanda sólo
se refiere al ajuste de los precios de mercado a los precios naturales, no a la determinación de
estos últimos:
La «teoría de la suma de los componentes»: El defecto de esta teoría radica en el supuesto de que
el tipo de salario, la renta y el tipo de beneficio son independientes entre sí: sólo en este caso, de
hecho, puede calcularse el precio sumando los tres componentes.
Además, en tal caso un aumento en una de las tres variables distributivas se traduce
automáticamente en un aumento correspondiente del precio natural del producto. Éste es
precisamente el punto que Ricardo no aceptó, en línea con su tesis básica de la oposición entre
rentas y beneficios. Una vez más fue Malthus quien criticó la excesiva simplicidad del supuesto de
Ricardo. Éste último aceptó las críticas, aunque sosteniendo que no afectaba en lo sustancial a su
posición.
En la tercera edición de los Principios y especialmente en su último trabajo, «Valor absoluto y valor
de cambio», Ricardo se refirió a una «mercancía promedio» . Si tomamos tal mercancía como
nuestro patrón, las variaciones en los precios de las otras mercancías, aumentando algunos y
disminuyendo otros, se compensan. Así tenemos la ventaja de que el producto nacional no varía de
tamaño cuando cambia la distribución de la renta, lo cual introduce el hecho de que el aumento en
una de las cuotas distributivas (por ejemplo, la de las rentas) tiene que ser compensado en otra (por
ejemplo, la de los beneficios).
Sin embargo, está claro que tal elección no elimina las «complicaciones» relacionadas con la teoría
del valor: para verificar si los aumentos y disminuciones en los precios de las diferentes mercancías
se compensan exactamente (un punto por el que no se preocupó Ricardo) necesitamos formular
una teoría de las relaciones de cambio que sea adecuada, teniendo en cuenta la condición de
uniformidad del tipo de beneficio en los diferentes sectores.
Frente a estas dificultades, el camino que siguió Ricardo en su búsqueda de una «medida invariable
del valor» parece un callejón sin salida.
El problema del valor se resolvería entonces, adoptando este enfoque, si fuera posible encontrar
una medida exacta de la dificultad de producción. No existe ninguna sociedad que esté desprovista
de instituciones sociales, y la idea de un valor absoluto, basada exclusivamente en fundamentos
naturales, es por lo tanto una quimera.
Es en los valores de cambio donde hallan su expresión las relaciones entre los agentes
económicos, en una sociedad basada en la división del trabajo. En efecto, en todas las sociedades
humanas históricamente documentadas los elementos institucionales y sociales que gobiernan la
red de intercambios determinan las reglas del juego; las relaciones de intercambio, como expresión
de esas reglas, deben obviamente reflejar una variedad de elementos, tanto técnicos como
institucionales.
Texto 6. Backhouse, Roger (2002). The Penguin History of Economics. Penguin
Books. p. 156 a 164
La economía política clásica (1790-1870)
De la filosofía moral a la política económica
La riqueza de las naciones de Smith resultaba inseparable de la filosofía moral cuando la Iglesia ya
no pudo dar respuestas sobre cómo debía organizarse la sociedad. Por tanto, el punto de vista de
Smith debe verse como respuesta a Mandeville, Hobbes, los fisiócratas y los mercantilistas. Luego
de la muerte de Adam Smith y de la fuerte relevancia de “La riqueza de las naciones”, la economía
política se separó de la filosofía moral. Adquirió un carácter más científico sin hacer referencia a
una deidad.
Para comprender esta transición resulta importante mencionar que la disciplina económica siempre
estuvo fuertemente ligada a la política y que el contexto cambió drásticamente en este período:
1) Relación entre Gran Bretaña y las colonias americanas (políticas comerciales y fiscales)
-
Restricciones al comercio interno y externo provocadas por la creación de monopolios y la
intervención en el mercado para evitar la hambruna.
Aumento de la población, de la pobreza y de los “trabajadores pobres”
Nunca se cuestionó la necesidad de apoyo público hacia ancianos, enfermos y niños. El "Sistema
Speenhamland", introducido en la década de 1790, implicaba el pago de asignaciones vinculadas al
precio del pan a personas que ganaban salarios bajos. Estos pagos se financiaron con los
impuestos locales y suscitaron gran controversia. Algunas personas argumentaron que el sistema
deprimía los salarios, exacerbando la posición de los pobres en lugar de aliviarla.
2) La revolución francesa (1789) y guerras posteriores
Tuvieron un profundo efecto en el pensamiento económico. Dió pie al republicanismo, generando
malestar en las clases altas de Gran Bretaña. Además generó diversos problemas económicos,
entre ellos una crisis financiera en 1797 que llevó a la suspensión de la convertibilidad de la libra
esterlina en oro. A raíz de esto, la suba de precios, entre ellos los cereales, llevando a una
prosperidad para los agricultores y terratenientes. La combinación de malestar social causado por
los altos precios de los alimentos y el revuelo social causado por el cambio industrial fue potente,
especialmente cuando se combina con el miedo al republicanismo francés.
Una figura clave en la transición desde la filosofía moral de Hume y Smith, a la economía política
clásica fue Malthus.
En la década de 1790 los radicales Godwin y el marqués de Condorcet argumentaron que la
propiedad privada era la raíz de los males sociales y que los recursos debían repartirse de forma
equitativa para conllevar a un nivel de vida digno para todos.
Sin embargo, para Malthus en su libro “Ensayo sobre el principio de la población” la propiedad
privada, lejos de ser una fuente de daño, resultaba esencial. De acuerdo a Malthus, dar dinero a los
pobres no mejoraría su condición a menos que alguien más estuviera dispuesto a consumir menos,
ya que no tendría ningún efecto sobre la cantidad de recursos disponibles. Además, cualquier
medida de “alivio” a los pobres aumentaría la dependencia de los mismos del Estado. Malthus se ha
asociado más ampliamente con el argumento de que existe una tendencia continua de la población
a superar los recursos. La población estaba contenida por dos tipos de controles: los controles
preventivos, que servían para bajar la natalidad, y los controles positivos, que elevaban la tasa de
mortalidad. Sin embargo, aunque Malthus suavizó la línea dura adoptada en el Ensayo original,
nunca compartió el optimismo de Godwin o Condorcet, porque no concordaba con la creencia en la
bondad de la naturaleza humana.
Malthus, por lo tanto, estaba operando dentro de la esfera de la filosofía moral del siglo XVIII.
Aunque no estaba de acuerdo con las conclusiones de Godwin y Condorcet, compartía con ellos la
creencia en la razón y se presentaba aplicando los principios newtonianos sobre la política. Durante
su propia vida, el término 'malthusiano' llegó a usarse como un término de abuso, refiriéndose a la
perspectiva materialista y espiritualmente empobrecida de lo que también se llamó 'economía
política moderna'. El término "economista" pasó a denotar a alguien con un enfoque identificable de
la política y un corazón duro.
La Riqueza de las Naciones, con su optimismo sobre las perspectivas de crecimiento, ofreció poca
orientación a los políticos que enfrentaban los problemas de tiempos de guerra. Malthus reorientó la
economía política para responder a estos problemas y, al hacerlo, ayudó a sentar las bases de la
economía política clásica. Sin embargo, continuó trabajando dentro de la tradición del siglo XVIII en
la que la economía política estaba íntimamente ligada a la ciencia de la moral y la política. Otros
economistas, aunque reconocían una deuda igualmente grande con la Riqueza de las Naciones, no
compartían esta perspectiva y buscaban convertir la economía política en una ciencia secular.
El utilitarismo y los radicales filosóficos
Después de Adam Smith, la principal influencia sobre los economistas clásicos fue Jeremy Bentham
(1748-1832). Su utilitarismo surgió de la tradición de la ley natural, aunque Bentham rechazó esta
idea. Los códigos morales no reflejaban las leyes naturales, sino que surgieron para servir a las
necesidades de la sociedad. Las leyes civiles, necesarias para proporcionar reglas por las que se
rija la conducta, deben basarse en códigos morales, pero ambos pueden quedar obsoletos y deben
modificarse. El estándar por el cual se deben juzgar las reglas morales y las leyes civiles era el
"principio de utilidad": la maximización de la satisfacción de los individuos que componen una
sociedad.
La interpretación de Bentham del utilitarismo se basaba en algunos juicios de valor:
- El interés de la sociedad es la suma de los intereses de los miembros de la sociedad
- Todo hombre es el mejor juez de sus propios intereses.
- La capacidad de cada hombre para ser feliz es tan grande como la de cualquier otro.
Estos dieron como resultado una filosofía que era tanto igualitaria como individualista y sirvió como
base para los elaborados esquemas de reforma legal y penal de Bentham.
Sin embargo, el principio de utilidad no reducía la formulación de políticas a una simple regla. La
utilidad tenía varias dimensiones (intensidad, duración, certeza y cercanía) y era necesario
equilibrarlas entre sí.
Bentham escribió sobre cuestiones económicas, reconociendo su deuda con Smith, pero su
principal influencia fue indirecta, a través de sus seguidores, los Philosophic Radicals. Entre estos,
los más eminentes fueron James Mill, David Ricardo y John Stuart Mill (hijo de James Mill). Los
radicales filosóficos participaron activamente en la política, utilizando el utilitarismo como base para
criticar las instituciones de la sociedad y defender políticas de reforma. Según los estándares de la
época, eran auténticos radicales, aunque sus esquemas estaban muy alejados del socialismo de
Godwin y Condorcet. Sin embargo, aunque James Mill y Ricardo estaban cerca de Malthus en
muchos temas (Ricardo y Malthus eran amigos cercanos, debatían constantemente sobre temas
económicos), no compartían su compromiso con la economía como ciencia moral. Para ellos la
economía era economía política, pero buscaban hacer de ella una disciplina rigurosa que ofreciera
conclusiones tan ciertas como las que ofrecía la geometría euclidiana.
La Economía Ricardiana
La economía ricardiana fue una respuesta a la situación en Gran Bretaña durante las guerras
napoleónicas (1804-1815), cuando el precio del maíz (trigo) y las rentas agrícolas aumentaron
drásticamente y se amplió el margen de cultivo.
Ricardo trató de demostrar dos proposiciones: que, contrariamente a lo que había argumentado
Smith, los intereses de los terratenientes se oponían a los intereses del resto de la sociedad, y que
la única causa de una tasa de ganancia decreciente era la escasez de tierra cultivable.
El sistema de Ricardo descansaba sobre tres pilares: una perspectiva smithiana sobre el vínculo
entre la acumulación de capital y el crecimiento, la teoría malthusiana de la población y la teoría de
la renta diferencial.
La teoría se basaba en dos supuestos: que diferentes parcelas de tierra eran de diferente fertilidad,
con el resultado de que aplicarles el mismo trabajo y capital produciría diferentes cantidades de
maíz, y que la tierra agrícola no tendría uso alternativo. La competencia aseguraría que las parcelas
de tierra cultivadas menos fértiles no ganaran renta: el maíz producido se vendería por ingresos
suficientes para cubrir los costos de producción, con el resultado de que no quedaría nada para el
propietario. Si hubiera un excedente, se podrían cultivar más tierras; si no se cubren los costos, la
tierra no se cultivará.
Las demás parcelas de tierra, debido a que por definición deben ser más fértiles, producirían un
excedente. Siendo el dueño de la tierra, el propietario podría exigir este excedente como renta. El
resultado fue que la renta surgió como el excedente ganado por la tierra que era más fértil que la
tierra menos fértil bajo cultivo. La teoría de la renta diferencial explicaba la parte del ingreso
nacional que recibían los terratenientes.
Luego se utilizó la teoría de la población de Malthus para explicar la parte del ingreso que reciben
los trabajadores. Si bien los salarios podrían subir por encima o caer por debajo de este nivel si la
población crecía o disminuía, estaban vinculados, a largo plazo, a la tasa de salario de subsistencia.
Las altas ganancias alentarían a los capitalistas a invertir, elevando el stock de capital. Esto
aumentaría la demanda de mano de obra, manteniendo altos los salarios y provocando el
crecimiento de la población. Sin embargo, a medida que crecía la población, también lo hacía el
precio del maíz, por lo que el margen de cultivo se ampliaría: se cultivaría más tierra y las parcelas
ya cultivadas se cultivarían más intensamente. Mientras esto sucedía, las rentas aumentarían,
consumiendo las ganancias. Esta caída de los beneficios provocaría una caída de la tasa de
acumulación de capital y, por tanto, de la tasa de crecimiento. A medida que se acumulaba el
capital, las rentas subían pero las ganancias caían. Dado que el capital creaba empleo, esto
también era malo para los trabajadores.
Además, Ricardo había demostrado que la caída de la productividad en la agricultura, provocada
por la necesidad de poner en cultivo tierras cada vez menos fértiles, era la causa de una tasa de
ganancia decreciente.
Sin embargo, la introducción de un sector manufacturero en el modelo de Ricardo planteó
importantes problemas teóricos. El primero era que, si había dos bienes (alimentos y
manufacturas), Ricardo necesitaba explicar su precio relativo: necesitaba una teoría del valor. Para
ello, recurrió a la teoría del valor trabajo, la teoría de que los precios de las mercancías serán
proporcionales al trabajo necesario para producirlas. El problema aquí, es que, bajo competencia,
los precios serán proporcionales a los costos de producción y los mismos dependerán de la
cantidad de capital utilizado, no solo de la cantidad de trabajo. De ello se deduce que la relación
entre el precio y el costo de la mano de obra variará de acuerdo con la relación entre el capital y la
mano de obra en una industria. La teoría del valor trabajo no se sostiene.
La existencia de bienes manufacturados también creó problemas para la afirmación de Ricardo de
que la disminución de la productividad agrícola era la única causa de la disminución de la tasa de
ganancias. Si los trabajadores consumieran sólo maíz, esto sería cierto. La agricultura sería
autónoma (el maíz sería el único producto y el único insumo) y la tasa de ganancia no dependería
de las condiciones de la manufactura. La competencia aseguraría que la tasa de ganancia obtenida
en la manufactura, y por lo tanto en toda la economía, sea igual a la obtenida en la agricultura. Por
otro lado, si la subsistencia de los trabajadores incluyera, por ej, ropa además de comida, entonces
el salario de subsistencia dependería del costo de producir ropa así como del costo de producir
comida. La agricultura no sería autónoma. El resultado sería que la tasa de beneficio dependería
tanto de las condiciones de la manufactura como de las de la agricultura. El teorema de Ricardo de
que la productividad agrícola era el único determinante de la tasa de beneficio se vería
indeterminado.
Texto 7: Paul Sweezy (1942). Teoría del Desarrollo Capitalista.
El papel de la demanda
En este fragmento se aborda la crítica dirigida a Marx por supuestamente haber ignorado el papel
de la demanda, es decir, las necesidades y deseos de los consumidores, en la determinación de las
relaciones de valor cuantitativo. Se argumenta que esta crítica carece de importancia cuando se
limita la discusión a una sociedad de producción simple de mercancías, como la de los cazadores
mencionada por Adam Smith. En este tipo de sociedad, donde las proporciones de intercambio se
determinan principalmente por el tiempo de trabajo requerido para producir cada mercancía, las
necesidades del consumidor no desempeñan un papel relevante en la determinación de los valores
de equilibrio.
MARX
Sin embargo, se reconoce que el problema del valor cuantitativo es más amplio que simplemente
las proporciones de intercambio, y también incluye la asignación cuantitativa de la fuerza de trabajo
en diferentes esferas de producción en una sociedad de productores de mercancías. En este
sentido, se argumenta que las demandas del consumidor no pueden ser ignoradas.
Como por ejemplo, si los castores se utilizan únicamente para hacer sombreros de pelo y los
ciervos son la fuente principal de alimento de la comunidad, se requerirá más fuerza de trabajo para
la caza de ciervos que para la caza de castores. Por lo tanto, al estudiar tanto las proporciones de
intercambio como la distribución del trabajo, es necesario considerar dos tipos de información: el
costo relativo en trabajo de los castores y los ciervos, y la intensidad relativa de la demanda de
cada uno. Con estas dos clases de información, se puede determinar un equilibrio económico
general en esa sociedad en particular. Se menciona que el equilibrio económico general se define
como el estado de cosas que se establece si no hay cambios en las condiciones básicas. Este
equilibrio no solo determina el valor relativo de las mercancías, como el castor y el ciervo, sino
también las cantidades producidas de cada una y la distribución de la fuerza de trabajo de la
sociedad.
Cuando se piensa en la teoría del valor cuantitativo en este sentido amplio, no se puede excluir las
necesidades del consumidor. Es exactamente aquí, sin embargo, donde no se puede sostener con
éxito el cargo que se hace a Marx de ignorar la demanda. Ya que Marx reconocía claramente el
papel que juega la demanda en la determinación del trabajo social, en el conjunto de su teoría
sistemática, se ocupó de este factor breve y casualmente. Hay dos razones fundamentales que
explican la visible indiferencia de Marx:
En primer lugar, se argumenta que bajo el capitalismo, la demanda efectiva no es solo una cuestión
de las necesidades de los consumidores. Lo más importante es la cuestión básica de la distribución
del ingreso, que refleja las relaciones de producción y la estructura de clases de la sociedad. Marx
sostenía que la "demanda social", que regula el principio de la demanda, está condicionada por las
relaciones entre las diferentes clases económicas y sus posiciones relativas. Para comprender la
oferta y la demanda, es necesario investigar previamente la base en la que se sustentan estas
relaciones.
En segundo lugar, se plantea que Marx se interesaba principalmente en el proceso de cambio
social y en ” la ley económica del movimiento de la sociedad moderna”. Desde esta perspectiva, los
elementos que son relativamente estables y sólo reaccionan a los cambios en otras entidades
deben ocupar un lugar secundario en el análisis. Marx consideraba que las necesidades de los
consumidores eran “elementos reactivos” de la vida social. Las necesidades, en la medida en que
no surgieran de requerimientos biológicos y físicos básicos, eran un reflejo del desarrollo técnico y
organizativo de la sociedad, y viceversa.
Marx desestimó en cierta medida las necesidades de los consumidores en su enfoque del cambio
económico, considerando que los factores subjetivos juegan un papel esencialmente pasivo en
dicho proceso. Los economistas ortodoxos, aunque abordan el problema del valor a través de una
teoría de la opción de los consumidores, también reconocen la primacía de la producción y la
distribución del ingreso en la evolución económica.
El autor menciona a Schumpeter como ejemplo de economista que reconoce la primacía de la
producción y la distribución del ingreso. Schumpeter sostiene que los cambios en los gustos de los
consumidores son incidentales a la acción de los productores y tienen poca relevancia a menos que
ocasionen transferencias en el ingreso real. Otros analistas del ciclo económico siguen una línea
similar, donde la demanda juega un papel importante, pero su análisis está dominado por la
distribución del ingreso y las relaciones de producción existentes.
"Ley del valor" vs. "Principio de planeación"
Se menciona que la ley del valor resume las fuerzas que regulan las proporciones de intercambio,
la cantidad producida y la asignación de la fuerza de trabajo en una sociedad de productores
privados que satisfacen sus necesidades a través del intercambio.
La ley del valor se basa en la productividad del trabajo en diferentes ramas de producción y en las
necesidades sociales modificadas por la distribución del ingreso. También se menciona que las
fuerzas equilibradoras de la oferta y la demanda en el mercado son parte de las fuerzas actuantes
en la ley del valor.
Se destaca que una de las funciones principales de la ley del valor es mostrar que, a pesar de que
las decisiones no se toman de manera centralizada y coordinada, existe un orden en la asignación
del esfuerzo productivo y en la cantidad producida de diferentes mercancías.
Se plantea que en una sociedad en la que la asignación de la actividad productiva está sujeta a un
control consciente, la ley del valor pierde relevancia y su lugar es ocupado por el principio de la
planificación. Se menciona que en una sociedad socialista, la teoría de la planificación debería
ocupar la misma posición básica que la teoría del valor en una sociedad capitalista.
El valor y el precio de producción
Se aclara que los precios de producción se derivan de los valores siguiendo ciertas reglas
generales y que las desviaciones no son arbitrarias ni carentes de explicación. Se refuta la opinión
predominante en la crítica angloamericana de Marx, liderada por Boehm-Bawerk, de que la teoría
del precio de producción contradice la teoría del valor. Por el contrario, se afirma que la teoría del
precio de producción no contradice la teoría del valor, sino que se basa directamente en ella y es
parte integral del desarrollo de dicha teoría.
Precio de monopolio
La introducción de elementos de monopolio en la economía dificulta el funcionamiento de la ley del
valor como reguladora de las relaciones cuantitativas de producción y cambio. Marx señala que el
precio de monopolio se determina principalmente por el deseo de los compradores y su solvencia, y
no está determinado por el precio de producción general y el valor del producto, como ocurre en un
régimen de competencia. En el caso del monopolio, el control de la oferta le permite al monopolista
aprovecharse de las condiciones de la demanda. Esto implica que tanto el precio como la cantidad
producida y la distribución del trabajo son diferentes de lo que serían en un régimen de
competencia.
Se destaca que las discrepancias entre el precio de monopolio y el valor no están sujetas a reglas
generales, a diferencia de las discrepancias entre el precio de producción y el valor. Sin embargo,
este elemento arbitrario en la determinación del precio, bajo condiciones monopolistas, puede ser
analizado e interpretado.
Es importante subrayar que, las relaciones de valor cualitativo en un monopolio no se ven alteradas
pero las de valor cuantitativo sí. Esto significa que la existencia del monopolio en sí misma no
cambia las relaciones sociales básicas de la producción de mercancías, ni la base fundamental de
la teoría del valor de Marx, que sostiene que el valor de una mercancía está determinado por la
cantidad de trabajo abstracto requerido para producirla. Aunque las relaciones cuantitativas
precisas implicadas en la ley del valor dejan de ser válidas bajo condiciones de monopolio, aún es
posible medir y comparar mercancías en términos de unidades de tiempo de trabajo, lo cual es
importante para el análisis y la interpretación de las implicaciones del monopolio en el
funcionamiento del sistema en su conjunto.
PLUSVALÍA Y CAPITALISMO
Es importante tener en cuenta la distinción entre la producción de mercancías en general y el
capitalismo. Mientras que todas o la mayoría de los productos toman la forma de mercancías bajo el
capitalismo, lo contrario no es cierto: la producción de mercancías no implica necesariamente el
capitalismo. Sin embargo, un alto grado de desarrollo de la producción de mercancías es un
requisito previo para la aparición del capitalismo.
Y para analizar el capitalismo desde una perspectiva de teoría del valor, es necesario examinar los
rasgos especiales que distinguen esta forma de producción del concepto general de producción de
mercancías.
El capitalismo
Bajo el sistema de producción simple de mercancías, cada productor posee y trabaja con sus
propios medios de producción. Sin embargo, en el capitalismo, la propiedad de los medios de
producción pertenece a un grupo de individuos, mientras que otros realizan el trabajo. Tanto los
medios de producción como la fuerza de trabajo son mercancías, es decir, son objetos de
intercambio y portadores de valor de cambio. Esto implica que no solo las relaciones entre
propietarios, sino también las relaciones entre propietarios y no propietarios, están caracterizadas
por relaciones de intercambio. Esta característica es común a la producción de mercancías en
general, pero es específica del capitalismo.
En el contexto del capitalismo, Marx distingue entre dos formas de circulación: la circulación simple
de mercancías (M-D-M) y la circulación del capital (D-M-D'). En la circulación simple de mercancías,
el productor vende sus mercancías para obtener dinero y luego utiliza ese dinero para comprar
otras mercancías que satisfacen sus necesidades. En este caso, el dinero actúa como un medio
para obtener valores de uso.
En contraste, en la circulación del capital, el capitalista comienza con dinero (D), lo utiliza para
comprar fuerza de trabajo y medios de producción (M), y luego, después de un proceso de
producción, vuelve al mercado con un producto que se vende nuevamente por dinero (D'). Aquí, el
dinero no se utiliza directamente para satisfacer necesidades, sino como capital, es decir, como una
forma de inversión para obtener ganancias. Esta diferencia entre D' y D se llama plusvalía y
representa la ganancia del capitalista. La plusvalía es la base objetiva y el incentivo principal de la
circulación del capital y proporciona el motor impulsor de la producción capitalista.
Marx enfatiza que la importancia de la plusvalía radica en la forma históricamente específica de la
producción capitalista. Para el capitalista, la acumulación constante de riqueza en forma de
plusvalía se convierte en el único motivo de sus operaciones.
La opinión de los economistas ortodoxos es que el incentivo de la producción y la obtención de
ganancias es una característica innata de la naturaleza humana.
El origen de la plusvalía
En el análisis de la plusvalía, es necesario examinar primero el valor de la mercancía fuerza de
trabajo. Cuando se señala que la fuerza de trabajo es una mercancía, no significa que el trabajo
mismo sea una mercancía. El capitalista adquiere la capacidad de trabajo del obrero, su fuerza de
trabajo, mediante un contrato de trabajo por un período determinado. Es importante comprender
que lo que el obrero vende es su capacidad de trabajo por un período específico, y no el trabajo en
sí mismo. En una sociedad de esclavos, el comprador adquiere al esclavo y no a su trabajo, bajo el
capitalismo el obrero se vende por un tiempo estipulado.
La fuerza de trabajo, al ser una mercancía, también tiene un valor que se determina por el tiempo
de trabajo necesario para producir y reproducir esta mercancía especial, que en última instancia
consiste en la producción de los medios de subsistencia necesarios para el mantenimiento del
trabajador. El valor de la fuerza de trabajo se reduce al valor de los medios de subsistencia
requeridos para mantener al trabajador en su estado normal como individuo laborante. Estos
medios de subsistencia varían según las condiciones físicas y las necesidades históricas y
culturales del país.
Marx argumenta que la plusvalía no puede surgir simplemente en el proceso de circulación de
mercancías, ni puede originarse en los materiales utilizados en la producción. Los materiales
transfieren su valor a los productos finales, pero no tienen el poder de generar valor adicional.
La clave para comprender la generación de plusvalía radica en la distinción entre trabajo necesario
y trabajo excedente. El trabajo necesario es el trabajo que se requiere para producir los medios de
subsistencia del obrero, y su producto se destina al trabajador como salario. Por otro lado, el trabajo
excedente es el trabajo que excede lo necesario para la reproducción del obrero y es apropiado por
el capitalista como plusvalía. El capitalista se beneficia de la diferencia entre el valor creado por el
trabajador y el salario que le paga.
Es importante destacar que la existencia de trabajo necesario y trabajo excedente no es exclusiva
del capitalismo, ya que se encuentra presente en diversas sociedades. Lo que distingue al
capitalismo es la forma específica en que se lleva a cabo esta explotación, es decir, la producción
de plusvalía a través de la relación entre capital y trabajo asalariado.
Los componentes del valor
En el análisis anterior, se muestra que el valor de una mercancía producida en el capitalismo se
puede dividir en tres partes. La primera parte, denominada "capital constante" y representada por la
letra c, corresponde al valor de los materiales y maquinaria utilizados, que no cambia su valor
durante el proceso de producción. La segunda parte, llamada "capital variable" y representada por
la letra v, corresponde al valor utilizado para pagar los salarios y restituir el valor de la fuerza de
trabajo, y puede generar una plusvalía adicional dependiendo de las circunstancias. Y por último la
plusvalía se representa con la letra p.
Valor Total = c + v + p
Capital constante + Capital variable + plusvalia = Valor total
Esta formulación del valor de una mercancía puede extenderse y aplicarse al análisis del valor total
de la producción durante un período determinado, ya sea de una empresa o de toda la economía.
Es importante destacar dos comentarios al respecto, esta fórmula simplificada se relaciona
estrechamente con los balances contables de las empresas. El valor total se corresponde con las
ventas brutas, el capital constante se refiere a los gastos en materiales y depreciación, el capital
variable corresponde a los salarios y sueldos, y la plusvalía representa los ingresos disponibles
para distribución o reinversión. Esto muestra la estrecha relación de la teoría del valor de Marx con
las categorías contables reales de las empresas capitalistas.
En segundo lugar, si extendemos esta fórmula para abarcar toda la economía, proporciona un
marco conceptual para el manejo de lo que se conoce como ingreso nacional. Sin embargo, es
importante tener en cuenta las diferencias entre los conceptos marxistas de ingreso y los utilizados
por los investigadores modernos. Mientras que los investigadores modernos suelen incluir en el
ingreso nacional bruto la suma de V + P más la depreciación del capital fijo, y el ingreso nacional
neto a V + P. En "entrada bruta" Ricardo, por ejemplo, se asemejaría al ingreso neto moderno (V +
P), mientras que la "entrada neta" se refiere únicamente a la plusvalía, es decir, la suma de
ganancias y renta.
La tasa de la plusvalía
La fórmula anterior c + v + p es un elemento central de la teoría económica de Marx. Las
proporciones que se derivan de ella son:
Tasa de plusvalía: p´ = p / v
Esta es la forma capitalista de lo que Marx llama tasa de explotación, es decir, la proporción de
trabajo excedente con respecto al trabajo necesario.
La magnitud de la tasa de la plusvalía es determinada por tres factores: la duración del día de
trabajo, aquí se establece el tiempo total que debe dividirse entre trabajo necesario y trabajo
excedente; la cantidad de mercancías que entran en el salario real y la productividad del trabajo, de
estos últimos dos se determina cuánto de ese tiempo debe contarse como trabajo necesario.
La tasa de plusvalía puede ser mayor, por una extensión de trabajo, por una rebaja del
salario real, por un aumento de la productividad del trabajo o por alguna combinación de las
tres.
Marx trabaja con la suposición simplificada de que la tasa de plusvalía es igual en todas las ramas
de la industria y en todas las empresas dentro de cada industria. Esto implica ciertas condiciones
que en la realidad solo suceden parcialmente, por ejemplo, debe haber una fuerza de trabajo
homogénea, transferible y móvil, además cada industria y cada empresa dentro de las industrias
deben emplear exactamente la cantidad de trabajo que sea socialmente necesaria.
La composición orgánica del capital
La segunda proporción que se deriva de la fórmula c +v + p es una medida de la relación del capital
constante con el capital variable, en el capital total usado en la producción, a la que Marx llama la
Composición orgánica del capital.
Composición orgánica del capital = o = c / c + v
En un lenguaje no técnico, la composición orgánica del capital es una medida de la amplitud en que
el trabajo está provisto de materiales, instrumentos y maquinarias en el proceso productivo.
Igual que en el anterior caso de la tasa de plusvalía, los factores que determinan la composición
orgánica del capital están sujetos a varias influencias causales. La tasa de los salarios reales, la
productividad del trabajo, el nivel común de la técnica (estrechamente relacionado con la
productividad del trabajo) y la amplitud de la acumulación de capital en el pasado entra en la
determinación orgánica de capital.
La tasa de la ganancia
Para el capitalista la proporción de la plusvalía con respecto al desembolso total de capital, es decir,
la tasa de ganancia es una proporción crucial.
Tasa de ganancia = g = p / ( c + v )
Se indican algunas implicancias con respecto a esta proporción, en primer lugar la propiedad de la
tierra se toma como cero, es decir, no se le asigna ninguna relación económica particular. Esta
suposición le permite centrarse en las relaciones capitalistas de explotación sin abordar
explícitamente el tema de la renta de la tierra.
Por consiguiente, se señala que la fórmula p/c + v, que representa la tasa de ganancia, muestra
estrictamente la ganancia sobre el capital realmente empleado en la producción de una mercancía
específica. Sin embargo, en la práctica, los capitalistas suelen calcular la tasa de ganancia sobre su
inversión total durante un período de tiempo determinado, como un año.
La inversión total generalmente no es igual al capital empleado durante un año, ya que los
diferentes elementos de la inversión tienen distintos períodos de rotación. Por ejemplo, un edificio
de fábrica puede tener una vida útil de cincuenta años, mientras que una máquina puede durar diez
años, y los salarios se pagan cada tres meses. Para simplificar la exposición teórica y ajustar la
fórmula de la tasa de ganancia al concepto de una tasa anual de ganancia, Marx realiza la
suposición de que todo el capital tiene un periodo de rotación idéntico de un año (o cualquier otro
período unitario elegido para el análisis).
Esta suposición implica que el proceso productivo requiere un año, que los materiales, maquinaria y
fuerza de trabajo comprados al comienzo del año se completan al final del mismo, y que la
producción se vende, recuperando así todos los gastos junto con la adición de la plusvalía.
En cuanto a los factores que determinan la tasa de la ganancia, es fácil demostrar que son idénticos
a los factores que determinan la tasa de la plusvalía y la composición orgánica del capital.
Por otro lado, se discute la suposición de igualdad en las tasas de plusvalía y tasas de ganancia
entre las industrias y empresas. Esto se basa en la movilidad tanto del trabajo como del capital, así
como en la igualdad general en el nivel de tecnología.
Si se asume que las tasas de plusvalía y tasas de ganancia son iguales en todas partes, se plantea
la cuestión de si la composición orgánica del capital debe ser también la misma en todas partes. Si
existieran diferencias en la composición orgánica del capital, surgirían desigualdades en las tasas
de ganancia entre los capitalistas. Por ejemplo, si dos mercancías tienen igual valor y tasas de
plusvalía, pero diferentes composiciones orgánicas del capital, se crearía una situación inestable en
términos de ganancias.
Marx señala que la afirmación de igualdad en las tasas de plusvalía y tasas de ganancia se basa en
tendencias reales existentes en la producción capitalista, debido a la competencia. Sin embargo, no
existe una tendencia real a la igualdad en las composiciones orgánicas del capital entre industrias
completamente diferentes con métodos de producción muy variados. Por lo tanto, se concluye que
en la realidad del modo de producción capitalista, la ley del valor no ejerce un control directo.
No obstante, esto no implica que la teoría del valor de Marx deba ser descartada. Se plantea la
posibilidad de suponer un sistema capitalista en el cual las composiciones orgánicas del capital
sean iguales en todas partes, lo que permitiría que la ley del valor siga vigente. Sin embargo, es
necesario poner a prueba esta suposición y examinar las posibles modificaciones necesarias en los
resultados obtenidos. Si las modificaciones resultan ser insignificantes, el análisis basado en la ley
del valor estaría justificado. En caso contrario, se requerirían ajustes en el análisis. La validez de
este enfoque debe determinarse empíricamente y no puede decidirse de antemano.
Bortkiewicz, entre los críticos de la estructura teórica de Marx, fue quien reconoció la importancia de
la ley del valor y su aplicación. Además, Bortkiewicz sentó las bases para una prueba lógicamente
irrefutable de la validez del método de Marx, lo que le otorga el derecho de ser considerado no sólo
como crítico, sino también como un contribuyente importante a la teoría marxista.
Marx sostiene que el hecho de que la ley del valor no sea válida en el orden económico capitalista
se debe a un factor o una serie de factores que no hacen más que ocultar la esencia del
capitalismo. Si asumimos que la composición orgánica del capital es la misma en todas las esferas
de la producción, la ley del valor controlaría directamente el intercambio de mercancías sin detener
la explotación de los obreros por parte de los capitalistas y sin reemplazar el deseo de ganancia de
los capitalistas por ningún otro motivo en la determinación del volumen, la dirección y la técnica de
la producción.
Aquí tenemos, en pocas palabras, la razón para suponer que las composiciones orgánicas del
capital son iguales. Sin embargo, esta suposición no debe confundirse con las suposiciones de
igualdad en las tasas de plusvalía y las tasas de ganancia. Estas últimas tienen su justificación en
las tendencias reales existentes en una economía capitalista de competencia, mientras que la
primera supone una abstracción deliberada de condiciones que existen en el mundo real.
Texto 9: El triunfo del utilitarismo y la revolución marginalista Screpanti y Zamagni Capítulo 5 y 6
Revolucion Marginalista (1870 -1880)
Época de profunda transformación estructural interpretada como los primeros síntomas de una
crisis general del sistema capitalista o como manifestación de una gran depresión.
En este contexto las relaciones sociales tuvieron un crecimiento desigual tanto en las fábricas como
en la sociedad.
Por un lado hubo notable aumento en la concentración del capital en los sectores mecánicos,
siderúrgicos, transporte y comunicaciones.
Se consolidó la sociedad anónima como la forma de movilización y control de cantidades de
capitales necesarios para el desarrollo.
En las empresas las relaciones entre individuos dieron lugar a los primeros intentos de gestión de
personal y elaboración de la ciencia de la administración de las empresas.
Se agudizó el conflicto de clase entre formaciones políticas y sindicales así como también de la
competitividad entre los precios y la tecnología. Lo que provocó un lento declive en el liderazgo
industrial inglés y un aumento en las dificultades de coordinación internacional.
Época de disminución del nivel general de los precios a escala mundial y reducción del crecimiento
del comercio internacional.
A comienzos de la década 1870 aparecieron tres importantes obras que marcaron el inicio de la
revolución marginalista: la teoría de la economía política (1871) de William Stanley Jevons, los
Grundsätze der Volkwirtschaftslehre (1871) de Carl Menger, y los elementos de economía política
pura (2 tomos, 1874 y 1877) de León Walras.
Sistema teórico Neoclásico:
La primera característica del nuevo sistema que aparece es la pérdida del interés por el fenómeno
del desarrollo económico, el cual es el foco principal de las teorías económicas de Smith, Ricardo y
Marx y todos los demás economistas clásicos.
Jevons describió el problema económico de la siguiente manera:
“Dada una población con diversas necesidades y ciertas posibilidades de producción en poder de
ciertas tierras y de otras fuentes de recurso debe determinarse el modo de distribuir el trabajo de la
mejor manera para dar la máxima utilidad al producto”.
Esta formulación de Jevons dejó huella en todas las investigaciones económicas de su época.
Una segunda característica que se convirtió en el pilar del sistema teórico neoclásico es la decisión
al planteamiento utilitarista. Jevons, Menger y Walras reformularon la teoría del valor utilidad de la
hipótesis de utilidad marginal decreciente de la misma forma en que modificaron los fundamentos
utilitaristas de la economía política.
Su marginalismo acreditó una especial versión de la economía política según la cual el
comportamiento humano resulta exclusivamente reducible al cálculo racional orientado de la
maximización de la utilidad.
Una tercera característica es el método. El método neoclásico se basa en el principio de las
variaciones de las proporciones, también conocido como principio sustitución, el cual es un método
que no tiene equivalente en el pensamiento clásico
En el ámbito de la teoría de consumo, se asume que un conjunto de bienes es sustituible por otro,
mientras que en la teoría de la producción, que una combinación de factores es sustituible por otra.
Se busca encontrar las condiciones en las cuales se puede llegar a escoger la alternativa óptima.
Éste método propone que las alternativas en el juego sean abiertas y que las decisiones tomadas
sean reversibles.
Una cuarta característica distintiva del planteamiento neoclásico es la relativa a los sujetos
económicos.
Se busca que los individuos sean capaces de realizar elecciones racionales con el objetivo de la
maximización de sus beneficios y de la utilidad así como también que sean individuos que se
caracterizan por la individualidad de la unidad en la que recae la toma de las decisiones como la
familia o las empresas. Desaparecen las clases sociales o cuerpos políticos del análisis, centrales
en los sistemas teóricos de los clásicos y Marx.
La quinta característica consiste en el logro definitivo de la antihistoricidad de las leyes económicas.
Objetivo que muchos clásicos habían aspirado pero que ninguno había realizado con éxito. Las
leyes económicas van a pasar a asumir finalmente el carácter absoluto y objetivo que se le atribuye
a las leyes de la naturaleza. El problema de la escasez planteado por los neoclásicos fundamenta la
validez universal de las leyes económicas. Para esto es necesario abandonar el estudio de las
relaciones sociales. Con la revolución marginalista nació el proyecto reduccionista, según el cual a
la economía no se le reconocería otro ámbito de estudio que el de las relaciones técnicas, que son
las relaciones entre hombre y naturaleza. Es así que tanto el reduccionismo individualista como el
reduccionismo antihistoricista condujeron a la eliminación de las relaciones y clases sociales.
Finalmente la sexta característica de la teoría neoclásica es la sustitución de una teoría subjetivista
del valor por una que es objetivista.
Uno de los fundamentos del principio del valor subjetivo es el supuesto de que todos los valores son
individuales y subjetivos. Individuales en el sentido en que hay que entenderlos siempre como fines
de individuos determinados. Subjetivos en el sentido de que surgen de un proceso de elección, en
donde un objeto tiene valor si es deseado por un sujeto.
Por otro lado, el fundamento del principio del valor objetivo es que los valores existen
independientemente de las decisiones individuales. El individuo puede aceptar o rechazar los
valores pero no tienen la posibilidad de establecer su legitimidad.
La teoría de la distribución de la renta se convierte en un caso particular de la teoría del valor, un
problema de determinación de los precios de los servicios de los factores productivos, más que de
reparto de la renta entre las clases sociales.
¿Fue una auténtica revolución?
Uno de los problemas más importantes que plantea la revolución marginalista a los historiadores del
pensamiento es si se trató o no de una auténtica revolución.
La revolución marginalista consiste en la liberación de la microeconomía, entendida como teoría de
las decisiones individuales de la macroeconomía clásica.
Es tal la revolución que la ciencia económica comenzó a denominarse economics en lugar de
political economy. Se buscó apartar la economía de los cuerpos e intereses políticos.
Las razones del éxito
Razones por las cuales se dio la revolución marginalista: internas y externas.
En las razones internas se encontraban la incapacidad de la ortodoxia clásica de resolver una serie
de problemas teóricos. Comenzaron a existir problemas en las teorías del valor-trabajo y en la
tentativa de los Ricardianos de superar esta dificultad con una teoría del coste de producción.
Finalmente hubieron problemas más graves en la generalizaciones que en las críticas a las teorías.
Un ejemplo de esto es que Jevons afirmó que los casos de producción conjunta constituían en
realidad el caso general, mientras que para Mills era una excepción a la teoría del valor basado en
el costo de producción.
A su vez, los clásicos no habían logrado producir una teoría satisfactoria de la distribución de la
renta lo que constituía una grave carencia. Las principales dificultades eran las relativas a la teoría
de los salarios que constituían el fundamento de toda la estructura. Una vez que se descartó la tesis
de qué los salarios permanecen anclados al nivel de subsistencia en virtud del mecanismo
malthusiano de la población toda la teoría se vino abajo.
Las razones externas son aún más importantes que las anteriores.
En primer lugar, las críticas al socialismo y al marxismo venían tomando fuerza lo que implicó
romper con ciertas barreras y conceptos creados en el seno de la economía clásica, tales como el
excedente, la clase social, fuerza de trabajo, el capitalismo y la explotación.
La teoría de la utilidad marginal proporcionó la solución buscada y al mismo tiempo permitió
demostrar que en la economía competitiva se realizaba un tipo de organización social cercano al
ideal, donde las reglas de mercado permiten llegar a soluciones óptimas y lograr la armonía de
intereses y maximización de objetivos individuales.
Se dio una conflictividad y disgusto social creciente desde 1880 y que fue aumentando hasta
mediados de la década siguiente. Por lo que cuando los neoclásicos presentan una teoría capaz de
desviar completamente la atención de los problemas desagradables, estaban lanzando al mercado
precisamente la teoría que este demandaba.
Asimismo, los marginalistas fueron fuertes defensores del laissez faire. Mientras los clásicos lo
apuntaban más hacia el problema de la acumulación, los neoclásicos lo hicieron hacia el problema
de la eficacia distributiva.
Otras dos cuestiones importantes son que los países capitalistas ya estaban más avanzados y
habían resuelto el problema del despegue industrial, de forma que las exigencias de la acumulación
dejaron de ser tema central. Por otro lado, durante 1870 y 1880 queda en evidencia la incapacidad
del capitalismo para vencer la anarquía de mercado, a esto se le llamó Gran Depresión. Por lo que
en parte da razón al tipo de teorías que demostraban que el mercado lejos de ser anárquico,
proporcionaba la mejor asignación de recursos posible, y que si no iba bien era porque las
coaliciones obreras impedían que el mercado funcionara.
William Stanley Jevons - El cálculo lógico en economía
Jevons se opone al sistema de la lógica de Mill, en Los Principios de las Ciencias.
En La Teoría de la economía política, podemos leer que la economía pertenece a la clase de las
ciencias que además de ser lógicas, son también matemáticas; nuestra ciencia debe ser
matemática simplemente porque trata de cantidades.
Lo que se vincula directamente a Bentham que dice: “Las ideas de Bentham son el punto de partida
de la teoría desarrollada en este trabajo; he procurado tratar la economía como un cálculo de
placeres y sufrimientos, y he esbozado la forma general que la ciencia económica debe asumir
últimamente”.
De aquí surgen premisas como “el valor depende por completo de la utilidad”, lo que es
opuesto a la mayoría de los clásicos.
El punto de partida del análisis Jevoniano es el intercambio.
Se dan dos características principales en los agentes económicos.
La primera es que cada cual actúa sobre la base de un cálculo racional maximizador, y este es en
cualquier caso el único elemento de la acción humana que puede y debe estudiar la economía.
En segundo lugar: “Satisfacer nuestras necesidades o maximizar el placer con el mínimo esfuerzo,
constituye el problema de la economía”.
Se habla de utilidad no como cualidad del objeto, sino como la suma de los placeres que su uso
proporciona.
Se da un problema, pues la utilidad resulta difícil de comparar y medir. Ya que cada mente resulta
inescrutable para cualquier otra mente, y no parece existir un denominador común de los
sentimientos de los distintos individuos.
Jevons analizó la producción y la acumulación de capital desde la misma perspectiva que el
intercambio. Un elemento esencial de la contribución de Jevons fue su interpretación de la ley de
rendimientos decrecientes, que formuló al tratar de la teoría de la renta de la tierra.
Dos sutiles cambios en la interpretación de la ley fueron en primer lugar, la eliminación de hecho de
la distinción entre caso extensivo (cultivo simultáneo de tierras de distinta fertilidad o cantidad) y
caso intensivo (aplicación de sucesivas dosis idénticas de capital y trabajo a la misma parcela), con
una sobrevaloración del segundo caso (clásicos más interesados en la explicación de la renta de la
tierra que de los precios de las mercancías centraron su atención en las extensivas). Mientras la
diferente productividad de las tierras de distinta calidad es una circunstancia directamente
observable en una situación dada, la productividad marginal de una dosis de input indica un cambio
de la situación y, en consecuencia, representa solo un incremento virtual del output.
En segundo lugar, el desplazamiento del interés hacia el caso intersivo condujo a un importante
cambio en términos de cambios hipotéticos, en lugar de cambios observables, y esto contribuyó a
acreditar la tesis de la simetría entre la tierra y los otros inputs.
De aquí se derivan dos consecuencias importantes.
La primera de ellas es que la sustituibilidad entre tierra y trabajo asistido se extiende de la
producción agrícola a todos los tipos de producción, incluso en los que no aparece un input directo
de tierra.
La segunda es que la sistituibilidad se extiende a todos los inputs, mientras que para los clásicos la
sustituibilidad presuponía un estricta complementariedad entre trabajo y utensilios.
Jevons dedicó gran atención a problemas de política social. Plantea principios que deberían guiar la
intervención pública en la economía. El estado natural de la economía de mercado es la armonía
social, y no el conflicto de clases. “El supuesto conflicto entre trabajo y capital es una ilusión”.
Acepta que los capitalistas tienen diferentes intereses que los trabajadores, pero “la competencia
debería resolver el posible conflicto de intereses entre las dos partes, puesto que haría que el
capital fuera remunerado solo al tipo de interés fijado por el mercado, mientras que el trabajador
percibiría solo el valor de los que ha producido.
Jevons no estaba en contra de los sindicatos, pero sí en contra de la fijación de salario basada en la
contratación colectiva.
Léon Walras
El principal aporte de Walras es la Teoría del Equilibrio Económico General.
Ningún autor anterior habría logrado constituir una estructura teórica general que sirva de marco
para el estudio de las múltiples relaciones que vinculan un mercado con otro. La oferta y demanda
de un mercado afectan y depende de los precios de otros, por lo que se requiere un análisis
general.
Los mercados deben interrelacionarse para hacer compatibles las acciones de todos los sujetos
económicos. El sujeto que consigue realizar su intento de maximizar su satisfacción tendrá un
exceso de demandas para algunos bienes y un exceso de ofertas para otros. Mediante el
intercambio, el individuo se sirve de los excesos de oferta para eliminar los excesos de demanda.
Un estado de equilibrio económico general es una situación en la que los precios son tales que
permiten a todos los individuos maximizar simultáneamente sus propios objetivos.
El libre juego de la competencia llevará a distribuir los factores entre las producciones de las
diversas mercancías de manera que satisfagan las demandas de los consumidores. La escasez de
recursos productivos respecto a la demanda de los bienes influirá de manera determinante sobre
los precios relativos.
Todas las cosas que forman parte de la riqueza social existen sólo en cantidades limitadas.
La economía está formada por una pluralidad de sujetos que están presentes en el mercado, como
consumidores, oferentes de servicios productivos o empresarios. Los servicios productivos son
adquiridos por empresarios y transformados en bienes, los cuales a su vez son adquiridos por otros
empresarios que los usan para producir, o por consumidores finales.
Los consumidores ahorristas eligen el nivel y la composición del consumo y del ahorro. Mientras
que los empresarios deciden el nivel y la composición de la producción y la inversión.
No importa cómo se componga la renta del individuo, que parte sea de su trabajo y cuál del capital.
Inicio de cada período dotación dada de recursos (naturales y producidos anteriormente), al igual
que de bienes y capacidad de prestar servicios.
Los consumidores determinarán la distribución de su renta entre consumo y ahorro que proporcione
mayor satisfacción intertemporal; y luego determinarán cómo distribuir la renta de consumo, de
modo de obtener la máxima utilidad.
Quienes ofrecen servicios productivos, intentarán conseguir el mejor equilibrio entre la renta
obtenida y lo generoso de su prestación.
Los empresarios intentan conseguir el máximo beneficio de su actividad, maximizando la diferencia
entre el valor de la producción y los costos de las mismas.
La persecución de los objetivos individuales obliga a los agentes a intervenir en las relaciones de
intercambio.
El equilibrio económico general
El problema central de la teoría de Walras consiste en mostrar cómo los intercambios voluntarios
entre individuos bien informados, autointeresados y racionales conducen a una organización
sistemática de la producción y de la distribución de la renta que resulta eficiente y mutuamente
beneficiosa.
La única forma admitida de interacción social es la que se lleva a cabo en el mercado por medio del
intercambio voluntario. Ni los sindicatos, ni los grupos de presión, ni los cárteles de empresas, ni
otros tipos de grupos sociales son admitidos, dado que violan un requisito fundamental del modelo
de equilibrio económico general que es el de la competencia perfecta.
El mercado coordina acciones de los sujetos individuales, y existen precios determinados de
manera tal que hacen que resulten ventajosas para cada individuo precisamente aquellas
actividades e iniciativas que satisfacen de manera eficiente sus necesidades. Por esto la teoría de
precios juega acá un papel fundamental.
El precio de un bien es uno de los elementos determinantes del precio de demanda de un factor
utilizado para producirlo. A partir del precio de oferta y el precio de demanda de un factor, se
determina su precio de mercado, lo que afecta el precio y la oferta del producto.
Existe un equilibrio competitivo walrasiano si hay un conjunto de precios tales que:
1. En cada mercado la demanda es igual a la oferta
2. Cada operador tiene la posibilidad de comprar y vender exactamente lo que tenga
proyectado
3. Todas las empresas y consumidores tienen la posibilidad de intercambiar precisamente
aquellas cantidades de mercancías que maximizan respectivamente sus beneficios y
utilidades
Para obtener un resultado de este tipo es necesario conocer: el número de consumidores, el
número de las empresas, las dotaciones iniciales, las preferencias de los consumidores y las
técnicas disponibles.
El modelo de formación de los precios en el que se basa la teoría Walrasiana del intercambio es el
de la contratación competitiva. Esta teoría trata de mercados competitivos donde los modelos son
concebidos como subastas. Al inicio de la contratación el subastador vocea un vector de precios y
deja que los agentes económicos formulen sus propuestas de compra y de venta. El vector de
precios de equilibrio será aquel que iguale oferta y demanda.
En caso que no sean iguales, se da el proceso de tatonnement que refiere a esto de ir tanteando y
variando precios según haya exceso de oferta o de demanda.
Determina esto como una ticket economy, considerada como una economía ideal donde la justicia
social y el bienestar material fuesen compatibles, aunque se alejara de la realidad de las economías
de mercado.
El mercado está en equilibrio cuando el beneficio se anula a causa de la competencia entre
empresarios. La existencia de beneficio positivo o negativo da síntoma de desequilibrio.
Los empresarios se ganan la vida como terratenientes, trabajadores o capitalistas, no como
empresarios.
Se da un sistema de ecuaciones simultáneas donde hay tantos mercados como mercancías y por
mercado tres ecuaciones, donde una es de demanda, una de oferta y otra de equilibrio. Por
mercado hay tantas ecuaciones de demanda como consumidores y tantas ecuaciones de oferta
como de empresas.
En el mercado de factores la cantidad de ecuaciones de demanda es el número de bienes que cada
empresa produce por el número de empresas, y el número de ofertas igual al número de
propietarios de los factores.
Se definen las ecuaciones de producción de forma tal que los costos igualen los precios.
Los costos de producción dependen de los precios de los inputs y de la técnica utilizada,
representada por coeficientes de fabricación, que se suponen fijos y que expresan la manera en
que se combinan cada input con el output.
Las ecuaciones de capitalización suponen que el valor de compra de cada bien de capital es igual a
su renta neta. Se da un equilibrio donde la tasa de rendimiento de todos los bienes son uniformes e
iguales a la tasa de interés.
Número de incógnitas igual al número de ecuaciones.
La ley de Walras en un sistema de equilibrio general, si todos los mercados excepto uno están en
equilibrio y los presupuestos de todos los agentes están nivelados, entonces también el mercado
restante debe estar en equilibrio.
La ciencia económica pura: No debe verse invalidada por los juicios de valor; completa indiferencia
a las consecuencias, buenas o malas, con las que avanza en la búsqueda de la verdad pura.
Plantea una diferencia entre juicio técnico y juicio ético (caso del fármaco usado por un médico o
por un asesino).
Posición de Walras como moderado reformista en materia socioeconómica.
Para él análisis económico no podía tener ningún vínculo con las medidas de política económica, ya
que siempre mantuvo claramente diferenciados el plano normativo y el plano positivo.
Los temas preferidos en sus propuestas de políticas económicas fueron la nacionalización de
monopolios naturales, la estabilización de precios por parte de la autoridad monetaria, el mercado
de capitales, cuya eficacia y fiabilidad debería asegurar el Estado (apropiación de tierras para
aumentar ingresos gubernamentales).
Walras se definía a sí mismo como socialista científico.
Carl Menger
El nacimiento de la escuela austriaca y el Methodenstreit, con base aristotélica de la escuela
austríaca. Existen cualidades o hechos, como la acción, la naturaleza humana y otros fenómenos
más complejos, que son cognoscibles a priori, de manera que es posible enunciar leyes que no
necesitan confirmación inductiva.
Al oponerse a buscar las leyes de la economía, Menger estableció el sistema teórico de la escuela
austríaca, en oposición a la escuela histórica de Schmoller.
Entendía a la ciencia económica como disciplina teórica pura, de manera que ofreciera una
explicación del valor y los precios alternativa a la de los clásicos. Para los clásicos el valor estaba
regido por los costes pasados, mientras que Menger planteaba que era la expresión del juicio del
consumidor acerca de la utilidad de los bienes aptos para satisfacer sus necesidades.
Esto va contra el inductivismo alemán de la época. La crítica principal de los alemanes a la
economía clásica estaba más bien dirigida al método. Determinaban que en economía se debería
utilizar un planteamiento histórico, y no teórico; y la disciplina debería ocuparse únicamente de la
descripción, clasificación y recopilación de los fenómenos observados.
Por esto Menger se batía a dos frentes, el metodológico con los alemanes y el de la teoría
económica con los clásicos.
Schmoller, líder de la joven escuela histórica, se opuso al enfoque axiomático-deductivo de los
clásicos y los neoclásicos. Acusaba que no se tenía suficientemente en cuenta en la elaboración
teórica el conocimiento de los hechos y el material histórico. La economía debía alejarse de las
abstracciones y acercarse a los fundamentos empíricos. Asimismo, estudió cómo las formas de
acumulación capitalistas afectaba las clases sociales, y sobre sus relaciones, así como los efectos
del laissez faire sobre las clases menos pudientes.
Methodenstreit disputa sobre el método ya que pone en el centro de atención a la comunidad
científica internacional.
Existen dos principales tesis:
La primera es que la ciencia pura será siempre wertfrei y libre de valores, ya que para ser ciencia la
economía debía de estar libre de juicios de valor.
La segunda es que la economía puede tratar científicamente solo el comportamiento de los agentes
individuales, ya sean consumidores o empresas.
Desde el punto de vista científico no se podría hablar de colectivos económicos, ni habría lugar en
la ciencia económica para la macroeconomía, para conceptos como renta nacional, riqueza
colectiva y similares.
Se pasa de la idea de que los deseos de los individuos constituyen el único criterio del bien y del
mal, a una tesis de que el bienestar social lo promueven y fomentan las políticas que aspiran a
maximizar la suma total de los placeres, lo que trae graves dificultades lógicas y prácticas.
Menger se diferenció de Bentham al percibir las dificultades técnicas de las teorías de las reformas
basadas en principios utilitaristas: “el mayor bienestar para el mayor número” no resulta compatible
con el individualismo metodológico, en donde todas las proposiciones sobre el comportamiento de
los agentes colectivos son reducibles a proposiciones sobre el comportamiento de sus
componentes individuales.
El individualismo metodológico se opone al holismo u organicismo metodológico, según el cual los
términos colectivos de la ciencia social designan realidades sociales con entidad propia distinta de
la suma de sus constituyentes individuales (holismo del cual eran partidarios los clásicos y Marx).
Para los holistas: el funcionamiento del sistema económico no podría entenderse solo a partir de
una teoría de los comportamientos de los agentes individuales, y esto explicaría que utilizaran la
categoría de clase social.
Utilidad Marginal para Menger
¿Con qué condición el principio de utilidad marginal puede considerarse el fundamento de todo el
discurso económico?
A condición de que este principio puede ampliarse del reducido ámbito del intercambio a los
problemas, más complejos, de la producción y la distribución.
En este sentido, no es suficiente explicar cómo partiendo de cantidades dadas de bienes de
consumo distribuidas entre los individuos de manera conocida, se establece un conjunto de
intercambios que, en competencia perfecta, maximizan las utilidades de los sujetos y al mismo
tiempo determinan la configuración del equilibrio de los precios relativos.
Hay problemas al llevar la aplicación de la utilidad marginal a los fenómenos productivos y
distributivos, dado que no parece poder compararse los costos con la utilidad. La única manera de
preservar la simetría entre la oferta y la demanda consiste en homogeneizar costes con utilidad. Es
acá donde está la verdadera contribución de Menger, y lo que lo diferencia de Walras y Jevons.
Con sus teorías de la imputación y del costo de oportunidad, Menger tradujo los costos en utilidad.
La utilidad de los “bienes de orden superior” se deriva de la de los bienes de “primer orden” (bienes
de consumo) a cuya producción contribuyen. Esta utilidad indirecta puede ser “imputada” a cada
uno de los factores de la producción teniendo en cuenta su contribución marginal a dicha
producción. Así, el coste efectivo sostenido para producir un bien determinado se convierte en
“coste de oportunidad”, el coste representado por el sacrificio de la utilidad de aquellos otros bienes
que se podrían haber obtenido de los recursos utilizados para producir el bien en cuestión. Los
costos de producción no se valoran en términos absolutos, sino en términos relativos, es decir en
términos de alternativas sacrificadas.
De esta manera oferta y demanda aparecen como dos aspectos del mismo problema. A su vez,
ocurre que todo aquello que para la empresa representa un costo, para los propietarios de factores
productivos representa una renta. Sucede que el mismo principio, desde el momento en que explica
el fenómeno de los costos, automáticamente explica también la formación y distribución de las
rentas. Los salarios, beneficios y rentas de la tierra dependen, en última instancia de las demandas
y de los precios de los bienes de consumo, y en consecuencia vienen determinados por la utilidad.
La distribución de la renta deja de ser un capítulo aparte de la teoría económica, para convertirse
únicamente en un apartado, ahora privado de la teoría, del capítulo que trata de la teoría de los
precios.
Así, la teoría del valor basada en la utilidad marginal lleva directamente a la teoría de la distribución
basada en la productividad marginal.
Si cada factor recibe el valor de su contribución productiva, el valor de la producción total resulta
exactamente agotado en la remuneración de los factores, y no queda ningún excedente del que
alguien pueda apropiarse sin haberlo producido (teoría del agotamiento del producto).
Capitulo 6: La construcción de la ortodoxia neoclásica
Fin de la gran depresión y de la crisis agraria (1870-1880). Se plantean medidas proteccionistas de
la industria nacional en Europa, Estados Unidos y Japón.
Estos países se lanzaron a un impetuoso desarrollo económico que se prolongó hasta la primera
guerra mundial, y que fue destacado por las numerosas novedades tecnológicas.
Comienza un fuerte período de crecimiento, que vino acompañado de mejoras en los niveles de
vida de las clases trabajadoras, dado que no imponía un freno a la expansión. A esto se le llamó, la
belle Époque.
Fue una época de innovaciones tecnologías, movilidad de capitales, estabilidad económica y
relativa paz.
Marshall y los neoclásicos ingleses
La gran invención de Marshall fue el método de análisis del equilibrio parcial y su contribución
decisiva al análisis económico. Marshall aplicaba el método de equilibrio parcial al estudio del
mercado de las mercancías y no al de los factores productivos, donde sí elaboró un sistema de
equilibrio general con relaciones esenciales entre productos y factores de producción.
En contraposición con Walras, Marshall tendía a privilegiar el realismo y la capacidad explicativa de
la teoría más que la coherencia lógica y la elegancia formal de los resultados. Se centró en las
condiciones de equilibrio de cada mercado, ignorando interrelaciones entre sectores.
Los principales instrumentos de análisis fueron los conceptos de industria y empresa representativa.
Siendo la industria un conjunto de empresas que producen la misma mercancía y una empresa
representativa una media que reúne las características más sobresalientes de la industria.
Diferencia entre el público al que apuntaba Marshall (hombre de negocios) y Walras (colegas,
estudiosos en general).
1890 - Principios de Economía
Su contribución más importante fue la cruz marshalliana, con la que trató de combinar la teoría de la
producción de los autores clásicos con la teoría neoclásica de la demanda.
Utilizó la hipótesis de utilidad marginal constante del dinero, y puso en relación la escala de la
utilidad marginal de un bien con la escala de demanda del consumidor, llegando a la formulación de
la teoría del excedente o renta del consumidor.
Marshall se propuso presentar la ciencia económica de acuerdo con la visión científica entonces
dominante, destacando la solidez de sus fundamentos, la continuidad de su crecimiento y la
universalidad de sus principios.
Aparta el objeto de la economía desde la asignación de recursos hacia cómo dichos recursos llegan
a ser lo que son, por lo que consideró que la teoría de oferta y demanda no era la base científica de
la disciplina.
Competencia y Equilibrio
Diferencia entre walras y marshall:
1) Marshall se alejó del Walras, quien consideraba competencia perfecta, donde los precios estaban
dados y nadie tenía poder alguno de mercado.
Distinguió entre comportamiento de mercado y normal, donde el primero refiere a la cantidad de
bienes comprados y vendidos efectivamente en un momento dado y a un determinado precio de
mercado, y el segundo refleja lo que cada uno de los agentes decide vender o comprar
normalmente, por unidad de tiempo, y en un determinado período. Plantea que los precios de
mercado difieren generalmente de los precios normales.
Los precios normales son como valoraciones subjetivas de los precios que se prevé que tenderán a
predominar en el mercado en un determinado horizonte temporal futuro, y es basándose en estos
como cada empresario decide la dimensión y el tipo de instalaciones que adoptará.
Determina que si hay relación entre precios normales y de mercado, sería de los primeros a los
segundos, y no que los primeros surjan de la observación de los segundos.
2) Segunda diferencia con Walras, en definición de competencia. Mientras Walras considera el
agente en competencia perfecta es un tomador de precios, Marshall plantea que un mercado
perfectamente competitivo es aquel en el que opera un número elevado de sujetos, cada uno con
objetivos que están en conflicto con los de los demás, y tratará de realizarlos sin entrar en
coaliciones o bloques y sin poder ejercer una presión especial.
Habrá desequilibrio cuando para cierto nivel de demanda el precio de oferta y demanda difieren. Si
el precio de demanda mayor al de oferta, los productores aumentan cantidades. La existencia de
desequilibrios se traduce en primer lugar en una variación de las cantidades y solo después en una
variación de los precios.
Filosofía social de Marshall
El fin último de la actividad económica es la maximización del bienestar colectivo.
Contrario a la idea de que la única manera de mejorar las condiciones de los pobres consistiría en
incentivar el egoísmo de los ricos.
Fuerte diferencia con Walras, entendiendo que sí hay un vínculo inextricable entre los ámbitos
económico, social y cultural, una fuerte conexión entre los hechos de la esfera material y los de la
esfera moral, conexión que implica importantes consecuencias en el modo de concebir, por
ejemplo, la intervención de Estado en la economía.
Le preocupó rebatir la tesis de que el Estado no debería intervenir de ningún modo para corregir el
proceso de la selección natural.
Sí adoptó la visión Darwiniana de la evolución, considerando que todo cambio en la estructura
social se daría de manera lenta y progresiva, donde cualquier intento de producir cambios
inmediatos no causaría más que miseria.
Le otorgó un papel fundamental a la dimensión sociopolítica de la acción humana en la discusión
económica. Asimismo defendió que el Estado tuviera el derecho y el deber de intervenir en el
ámbito económico para regular los mecanismos del mercado y corregir las distorsiones.
Texto 10: Enciclopedia británica. Empirismo lógico y Círculo de Viena
1. EMPIRISMO LÓGICO: https://www.britannica.com/topic/logical-positivism
El positivismo lógico también conocido como empirismo lógico es un movimiento filosófico que
comenzó en Viena en la década de 1920s y fue caracterizado por la creencia de que el
conocimiento científico es el único conocimiento fáctico, y que las demás doctrinas metafísicas
tradicionales deben ser rechazadas.
El positivismo lógico difiere de las formas anteriores de David Hume y Ernst Mach, ya que sostiene
que la fase última del conocimiento se basa en la verificación o confirmación experimental pública
más allá de una experimentación personal. La axiomatización como medida del grado de
madurez/solidez de una teoría.
A diferencia de Comte y Stuart Mill sostiene que las doctrinas metafísicas no son falsas sino sin
sentido, que las preguntas sobre sustancia, causalidad y libertad no tiene respuesta por el simple
hecho de no ser preguntas genuinas.
El Círculo de Viena, que produjo su primer manifiesto en 1929, tuvo su origen entre físicos y
matemáticos antes de la Primera Guerra Mundial. Se llegó a la conclusión de que el empirismo de
Mill y Mach era inadecuado, porque no explicaba las verdades matemáticas y lógicas, además de
no explicar satisfactoriamente el elemento a priori en las ciencias naturales. “ En 1922 Hans Hahn,
uno de los líderes del Círculo de Viena, presentó a sus estudiantes en la Universidad de Viena el
Logisch-philosophische Abhandlung (1921; Tractatus Logico-Philosophicus, 1922) de Ludwig
Wittgenstein. Este trabajo introdujo una nueva teoría general del significado, derivada en parte de
las investigaciones lógicas de Giuseppe Peano, Gottlob Frege, Bertrand Russell y Alfred North
Whitehead, y le dio al grupo de Viena su fundamento lógico.”
El interés por el empirismo lógico disminuyó en 1950 y para 1970 dejó de ser considerado un
movimiento filosófico distinto.
A.J. Ayer un participante de las reuniones del Círculo de Viena y autor de “Lenguaje, verdad y
lógica (1936), un manifiesto para el movimiento, expresaba “todos los conocimientos del mundo
derivan de la experiencia sensorial y nada en la experiencia justifica una creencia en Dios o en
cualquier otra entidad metafísica extravagante”. En este manifiesto, Ayer defendió una teoría de la
verificación del significado según la cual una expresión es significativa sólo si expresa una
proposición cuya verdad o falsedad puede verificarse (al menos en principio) a través de la
experiencia.
2. CIRCULO DE VIENA: https://www.britannica.com/topic/Vienna-Circle
Un grupo de filósofos, científicos y matemáticos formado en los 1920s que se juntaban
regularmente en Viena a investigar el lenguaje y metodología científica. El fundador y líder del
grupo fue Moritz Schlick, quien era un epistemólogo y filósofo de la ciencia.
Su movimiento filosófico el “empirismo lógico”, también conocido positivismo lógico, empirismo
científico, neopositivismo, y el movimiento de la unidad de la ciencia, tuvo como uno de sus aportes
principales la creencia de que la estructura lógica de cualquier teoría científica podía especificarse
independientemente de su contenido. De igual forma formularon el principio de verificabilidad o
criterio de significado, donde el significado de una proposición se basa en la experiencia y la
observación. En base a estos dos aspectos se adoptó una doctrina de ciencia unificada, no
observándose diferencias fundamentales entre las ciencias físicas y biológicas o las naturales y
sociales.
El fundador y líder del grupo fue Moritz Schlick, quien era un epistemólogo y filósofo de la ciencia.
“La principal crítica del principio de verificabilidad ha sido que, debido a que no es una proposición
empírica, es en sí misma en sus propios términos sin sentido o tautológicamente (ciencia formal)
verdadera como una definición arbitraria de significado. En respuesta, se ha argumentado que el
principio es de hecho una tautología, aunque no arbitraria en el sentido de que refleja el uso real y
que carece estrictamente de sentido, pero debe tomarse como una recomendación para la
realización de investigaciones científicas.”
TEXTO 11: La escuela austríaca. Cari Menger y sus discípulos
1 l.l Características generales de la escuela austríaca /
1.1.1. Subjetivismo, teoría del valor e individualismo metodológico
La escuela austríaca de Economía, también conocida como escuela de Viena, se caracteriza por su
subjetivismo, teoría del valor e individualismo metodológico. Su enfoque subjetivista considera que
el valor de un bien no depende de su naturaleza objetiva, sino de la estimación subjetiva de los
individuos. La teoría del valor se basa en la utilidad y la escasez en lugar del trabajo como
determinantes del valor. El individualismo metodológico sostiene que el centro del estudio de los
fenómenos económicos es el individuo y que las explicaciones deben basarse en las acciones y
decisiones individuales. Esta escuela rechaza los agregados macroeconómicos y enfatiza en el
análisis microscópico de las acciones individuales. Además, se destaca la importancia de
comprender la interacción social y cómo surgen instituciones beneficiosas sin una voluntad común y
deliberada para crearlas. La praxeología, como teoría de la acción humana, se basa en la idea de
que los individuos buscan sus fines de acuerdo con sus valoraciones subjetivas y su conocimiento
práctico, disperso e inarticulable. Esta escuela critica el socialismo y defiende la importancia de la
competencia y los mercados para coordinar las acciones de los individuos de manera eficiente.
I 1.1.2 La disputa sobre el método adecuado para el estudio de la Economía
La disputa entre Carl Menger y Gustav Schmoller representó un conflicto fundamental en el campo
de la economía. Menger y la Escuela Austríaca defendieron la validez universal de las categorías
económicas y la teoría económica como una herramienta para comprender fenómenos económicos
en cualquier tiempo y lugar. Por otro lado, Schmoller y sus seguidores de la Escuela Histórica
Alemana consideran que la teoría económica era relativa y que era necesario estudiar los hechos
económicos concretos en su contexto histórico.
La Escuela Austríaca abogó por un enfoque apriorístico y deductivo en la economía, basado en
razonamientos lógicos-deductivos a partir de axiomas fundamentales. Consideraron que los
fenómenos económicos eran tan complejos y variables que no podían ser sometidos al análisis
experimental utilizado en las ciencias naturales. Por lo tanto, la contrastación empírica de las
teorías económicas y el uso de métodos cuantitativos, como la econometría, fueron vistos con
desconfianza.
La Escuela Austríaca también cuestionó la posibilidad de hacer predicciones cuantitativas en
economía, argumentando que solo eran posibles predicciones generales y cualitativas sobre la
base de principios universales de la acción humana. Su enfoque contrastaba con otras escuelas,
como la Escuela de Chicago, que enfatizaban la capacidad predictiva de las teorías económicas.
Esta postura de la Escuela Austríaca ha sido objeto de críticas, ya que desafía la concepción
tradicional de lo que se considera científico y ha llevado a su falta de reconocimiento entre algunos
especialistas de la disciplina, debido a la importancia que se le atribuye a la capacidad predictiva de
las teorías económicas como prueba de su validez.
I 1.2. El fundador: Cari Menger
La escuela austríaca de Economía se origina con Carl Menger, profesor de Economía Política en la
Universidad de Viena entre 1879 y 1903. Sus teorías se encuentran precedentes en la escuela de
Salamanca de la escolástica española, especialmente por su concepción dinámica y subjetiva de la
economía. Menger publicó en 1871 su obra fundamental "Principios de economía política", en la
que desarrolló una teoría del valor que resolvería la paradoja del valor (por qué el agua, siendo
esencial, vale menos que los diamantes). Esta teoría, conocida como la revolución marginalista,
transformó tanto la estructura como el método de la ciencia económica.
I 1.2.1. La teoría subjetiva del valor
La teoría del valor de Carl Menger, conocida como la teoría subjetiva del valor, se basa en el
principio de la utilidad marginal. Este principio fue descubierto casi simultáneamente por otros
economistas como William Stanley Jevons y Léon Walras, pero las ideas de Menger se hicieron
más conocidas debido a su aplicación más amplia y a la formulación no matemática. Menger
resolvió la "paradoja del valor" al descubrir que el valor de un bien no es inherente a él, sino que
surge de las apreciaciones subjetivas de los individuos. El valor de los bienes se basa en su
relación con nuestras necesidades y puede cambiar según las circunstancias. Menger argumentó
que el valor no es una cualidad intrínseca de los bienes, sino un juicio que los agentes económicos
hacen sobre su importancia para la satisfacción de sus necesidades. Además, Menger introdujo la
noción de bienes de orden superior, que son los medios necesarios para alcanzar fines deseados y
adquieren valor en función de ese fin. A través de su teoría de la utilidad marginal, Menger también
abordó el problema de la distribución de la utilidad entre los diferentes bienes que contribuyen a la
producción de un producto final.
I 1.2.2. Origen y evolución de las instituciones
La contribución más destacada de Carl Menger, además de su teoría del valor subjetivo, fue su
metodología para el estudio de la economía. Menger argumentó que la economía debe establecer
leyes económicas a través de la investigación abstracta y teórica, en lugar de confundir la historia
de los fenómenos económicos con la teoría económica, como lo había hecho la escuela histórica.
Menger defendió la capacidad de la teoría para captar la esencia de los fenómenos económicos y
enfatizó que una teoría económica previa era necesaria para explicarlos adecuadamente. Por
ejemplo, Menger aplicó su teoría subjetiva del valor para comprender el dinero como una institución
humana que surge espontáneamente de las relaciones económicas, sin la intervención deliberada
del estado. Menger planteó la pregunta de cómo instituciones sociales útiles para el bien común
pueden surgir sin una voluntad común y deliberada para crearlas, y destacó la importancia de una
teoría de los órdenes espontáneos, que posteriormente fue desarrollada por Friedrich Hayek. Esta
teoría busca explicar el surgimiento, evolución y funcionamiento de instituciones sociales a partir de
acciones individuales no intencionales en un contexto de conocimiento imperfecto, ignorancia,
incertidumbre y error.
I 1.3. Los primeros discípulos. Friedrich von Wiesery Eugen Bóhm-Bawerk
A pesar de que Eugen von Böhm-Bawerk y Friedrich von Wieser fueron seguidores importantes de
Carl Menger, ninguno de ellos fue alumno directo de Menger, ya que comenzaron sus estudios
después de que Menger dejara de enseñar. Aprendieron de Menger a través de la lectura de su
obra "Los principios". Aunque Wieser fue quien acuñó por primera vez el término "utilidad marginal",
no se considera un autor ortodoxo dentro de la escuela austríaca. Según Friedrich Hayek, después
de recibir la influencia de Menger, Wieser siguió su propio camino, aunque cabe destacar que la
escuela austríaca nunca desarrolló una ortodoxia estricta en general.
Wieser llegó a suceder a Menger como profesor en la Universidad de Viena. Aunque su
participación en la política, como ministro de Comercio, interrumpió su labor académica, sus
trabajos contribuyeron a difundir la teoría subjetiva del valor. Wieser intentó desarrollar la teoría de
los precios y abordar el concepto de costo que faltaba en la teoría de Menger. Menger no había
asignado un lugar al concepto de costo de producción en su teoría del valor, ya que consideraba
que el valor de las cosas no dependía de su costo de producción, sino de su utilidad futura. Esto
difería de la teoría clásica del valor, que otorgaba importancia al trabajo o al costo de producción en
la determinación del valor.
Para la escuela austríaca, sin embargo, el valor de los productos es la causa y el valor de los
bienes de producción es el efecto, lo cual puede parecer paradójico. Los costos aumentan porque
aumenta el valor de los bienes de producción (materias primas, trabajo, máquinas, etc.), y el costo
de los bienes de producción sube o baja debido al valor de los productos listos para el consumo.
Según Böhm-Bawerk, la relación entre causa y efecto se invierte en comparación con la antigua
teoría, que consideraba que los costos eran la causa y el valor de los productos era el efecto.
/ 1.3.1. Los costes de oportunidad
La ley de costos de Wieser, también conocida como doctrina de los costos alternativos, interpreta el
costo como la utilidad sacrificada al renunciar a otros propósitos al utilizar un recurso para uno
específico. Wieser consideraba que los costos eran los llamados "costos de oportunidad". El costo
de una satisfacción consiste en renunciar a otra satisfacción para poder alcanzar la primera.
Wieser también prestó atención a la teoría de la imputación, que explicaba cómo se valoran los
bienes de producción y cómo se distribuye la utilidad final entre los diferentes bienes de orden
superior. Sin embargo, según Hayek, sus resultados no fueron satisfactorios.
Además, al igual que sus sucesores, Wieser también criticó la obra de Karl Marx, conocido como el
padre del socialismo científico, examinando detalladamente su teoría del valor trabajo. Wieser
argumentó que incluso en una economía socialista, las valoraciones no pueden ser obviadas, ya
que en todas partes los seres humanos tienen las mismas necesidades y los medios para
satisfacerlas siempre son escasos.
I 1.3.2. La teoría del capital y el interés: la crítica a la teoría de la explotación de K. Marx
Eugen Böhm-Bawerk, amigo y cuñado de E. von Wieser, fue un destacado economista y político
austríaco. Se le reconoce principalmente por su teoría del capital y el interés, expuesta en su obra
"Capital e interés" de dos volúmenes. Böhm-Bawerk sostiene que el interés es la prima que se paga
para igualar el valor de los bienes presentes con los bienes futuros, debido a la preferencia
temporal de las personas.
Su teoría destaca la importancia del tiempo en los procesos económicos y argumenta que el valor
de los bienes presentes se prefiere sobre los bienes futuros en igualdad de circunstancias. El
interés surge como un "premio al ahorro" y compensa el sacrificio de renunciar al consumo
inmediato para invertir en bienes de capital. El tipo de interés se determina en el mercado, donde se
intercambian bienes presentes por bienes futuros.
Böhm-Bawerk también es conocido por su crítica subjetivista a Karl Marx y su teoría del valor. Ataca
los fundamentos del marxismo, argumentando que los precios de las mercancías no se basan
únicamente en la cantidad de trabajo incorporado, sino también en el tiempo necesario para
producir un bien. Según él, el interés no surge de la explotación del trabajo, sino de las diferentes
valoraciones subjetivas de los bienes presentes y futuros, que son inherentes a la naturaleza
humana y no pueden ser eliminadas por el socialismo.
Böhm-Bawerk tuvo una gran influencia en la escuela austríaca y su obra continúa siendo relevante
en la teoría del capital hasta el día de hoy.
11.4. LUDWIG VON MISES. El desafío al socialismo
11.4.1. La imposibilidad del cálculo económico en una sociedad socialista
Mises, en 1919, poco después del triunfo de la revolución bolchevique, presentó un ensayo donde
ponía las bases de la crítica austríaca al socialismo.
Critica a los que defienden la economía socialista como alternativa a la economía de mercado.
Para Mises, el socialismo al haber rechazado el principio de economía de intercambio (que permite
realizar el cálculo económico para estimar la evolución futura basándose en las diferentes
valoraciones de los sujetos que participan en el mercado), no puede tener un método racional de
fijar precios. Es decir, no puede haber economía. La economía socialista es irracional. Si no se tiene
en cuenta los valores subjetivos que los consumidores atribuyen a los bienes, es imposible una
valoración de lo que realmente conviene hacer, y se llegará a un sistema de producción absurdo.
En la organización económica que se funda en la propiedad privada de los medios de producción,
todos los individuos independientes (consumidores y productores) efectúan el cálculo económico.
Como consumidor, establece la jerarquía de los bienes.
Como productor, regula el uso de los bienes de orden superior para obtener de ellos el máximo
rendimiento.
Por el juego simultáneo de ambos procesos de evaluación de los valores, se forma una escala de
los precios exactamente regulada, que le permite a cada uno poner de acuerdo su propia demanda
con el cálculo económico. Todo esto falla en la economía socialista.
Sin cálculo económico no puede haber economía. No se dispondría de ningún medio para
reconocer lo que es racional, o se que la producción no podrá organizarse eficazmente en función
del principio de economía.
Esta teoría de Mises sobre la imposibilidad del cálculo económico en una economía socialista no
prosperó, porque a partir de esta polémica muchos socialistas reconocieron la importancia de un
adecuado sistema de cálculo económico para la distribución de los recursos.
Pero Mises continuó elaborando una teoría de la acción humana a la que llamó praxeología.
11.4.2. La praxeología como teoría de la acción humana
Mises creía que la acción constituía la esencia del hombre (homo agens: ser actuante). Los
humanos actúan para alcanzar objetivos, metas o fines que ambicionan, por eso hay que analizar y
explicar la vida económica mediante conceptos como propósito o intención. La acción es siempre
intencional.
El objeto de estudio de la praxeología son los medios, no los fines. Se ocupa de estudiar si los
medios empleados son idóneos para la construcción de los fines propuestos.
Los medios a nuestro alcance para conseguir nuestros fines son siempre escasos, el individuo
tiene que elegir, y lo hará de acuerdo con su propia escala de valores que jerarquiza fines y medios.
Sustituirá un estado menos satisfactorio por otro mejor, lo que revela el utilitarismo detrás de la
concepción liberal misiana.
La capacidad coordinadora de las empresas explica cómo funcionan los mercados libres.
El ser humano crea o percibe oportunidades de ganancia que actúan como incentivo para crear
nueva información de los fines y medios; los empresarios coordinan las diferentes actividades de
los diferentes individuos que persiguen diferentes fines.
Mises recomendaba que el economista no descuidara su formación humanista para comprender la
realidad social, sobre todo el estudio de la historia. El individuo es generalmente racional, pero sus
acciones pueden contener incertidumbre, ignorancia, error.
Para él, todas las proposiciones económicas se podían deducir mediante pensamiento lógico
(incluso la ley de utilidad marginal, puede deducirse del conocimiento del hecho de que el individuo
siempre prefiere lo que le satisface más que lo que menos). Unido a su rechazo del empirismo y las
matemáticas, fue vista como una postura profundamente extrema y radical.
11.4.3. La teoría del dinero y los ciclos económicos
Mises aplicó la concepción del marginalismo (escuela austríaca) a otros campos como la teoría del
dinero y del crédito, y los ciclos económicos.
Aplicaba la concepción subjetivista al dinero, fundamentando su valor sobre la base de la utilidad
marginal.
Al mismo tiempo desarrollaría una teoría del ciclo conocida como “la teoría austríaca del ciclo
económico”, que más adelante profundizará el discípulo Hayek.
Dinero: la demanda del dinero depende de su valor (entendido como poder adquisitivo), generando
un razonamiento circular: su valor depende de la demanda y la demanda del valor (para los bienes
de consumo el precio viene determinado por la oferta y la demanda).
Mises intenta resolver el problema a través de la dimensión temporal. La gente demanda dinero en
función de su poder adquisitivo, pero ese poder adquisitivo se refería al pasado, a la experiencia
que tenía la gente del poder adquisitivo del dinero ayer. Y la experiencia de ayer viene dada por la
de anteayer, etc. Se trata del teorema regresivo del dinero, que es la aplicación mengeriana de su
surgimiento evolutivo.
Ciclos económicos: según Mises la creación expansiva de créditos y depósitos sin respaldo de un
ahorro que un sistema bancario basado en un coeficiente de reserva fraccionario dirigido por un
banco central podía provocar, propiciaba un crecimiento cíclico y descontrolado de la oferta
monetaria así como un alargamiento artificial del proceso productivo que, a la larga, provocará una
crisis económica.
Los bancos, a través de la expansión del crédito, tienden a reducir el tipo de interés. La política
económica que fomenta el “dinero barato” y cree que lo mejor es lograrlo a través de la expansión
del crédito, se esfuerza en crear las condiciones institucionales para hacerla posible.
Pero cuando las autoridades deciden dar fin a esa expansión del crédito, ya se han realizado
inversiones injustificadas debido a la falsa impresión de rentabilidad que esa expansión provocó.
Muchas empresas que se mantenían por una elevación artificial de los precios ya no son rentables
y tienen que cerrar.
La recesión se ve como un proceso necesario mediante el cual la economía de mercado líquida las
malas inversiones provocadas por el boom y vuelve a las proporciones adecuadas entre consumo e
inversión.
La teoría misiana del ciclo es coherente con el pensamiento de la escuela de Viena de que las
intervenciones en el ámbito monetario tienen efectos descoordinadores sobre la estructura
productiva de la economía.
El Instituto Austríaco de Coyuntura Económica, donde Mises colocó a Hayek como director, había
previsto que los errores en materia monetaria y crediticia en los Estados Unidos anteriores a la
Gran Depresión podrían tener consecuencias nefastas.
11.5. FRIEDERICH VON HAYEK. Orden espontáneo versus ingeniería social
Es el autor más célebre e importante de la escuela austríaca. Su influencia se debe sobre todo al
resurgimiento del pensamiento liberal en las últimas décadas del siglo XX.
Tenía ideas fabianas, pero luego de la Primera Guerra Mundial toma contacto con el libro El
socialismo de Mises (1922) y cambia de opinión.
Trabajó con Mises en Viena, fue invitado por el economista Lord Robbins a la London School of
Economics y a Cambridge, donde conoció a Keynes. Después fue a la Universidad de Chicago y
volvió a Europa. En 1974 recibió el premio Nobel de Economía.
Contribuyó junto a Mises al debate (críticas) sobre el cálculo económico en la economía socialista,
cuyas tesis se recogen en su libro Collectivist economic planning (1935).
El mayor aporte de Hayek se centra en la idea de que el socialismo es un error intelectual, resultado
de no haber comprendido la naturaleza del conocimiento que se halla en la base de la realidad
social, y en no haber entendido cómo es y funciona el mercado.
11.5.1. El mercado como orden espontáneo
El mercado (también nombrado por Hayek con el término griego catalaxia) no es anárquico ni
caótico. Responde a un tipo de orden que existe en la realidad, llamado por Hayek orden
espontáneo.
Estos órdenes son el resultado de un proceso de evolución social prolongado en el tiempo. No
fueron creados por nadie, no tienen propósito, meta u objetivo concreto. Propician la obtención de
diferentes fines individuales. Por eso sus componentes no se ordenan de acuerdo con un plan, sino
que sólo proporcionan un marco o estructura para favorecer que cada uno pueda perseguir sus
fines libremente.
Los órdenes espontáneos constan de numerosos y variados elementos complejos que se
relacionan entre sí con cierta coherencia y regularidad, lo que permite formular expectativas.
El mercado no es el único orden espontáneo, la sociedad también lo es en el sentido que no
ha sido diseñada ni organizada por nadie, y por eso no puede organizarse de un modo
racional. A la actitud de los que querían organizar a la sociedad según pautas racionales, Hayek la
llamó racionalismo constructivista o cientismo.
Los órdenes espontáneos se dan debido a la regularidad del comportamiento de sus elementos,
producto de estar sometidos a las mismas normas. Es necesario que todos los individuos sigan
normas definidas y su comportamiento no sobrepase ciertos límites.
Hayek las denomina “normas de recto comportamiento” y son de carácter general, abstracto y
universal. Muchas veces no necesitan expresarse explícitamente y suelen ser resultado de un
proceso de evolución social.
Los órdenes espontáneos son complejos, no pueden ser controlados por una sola mente humana,
sobrepasan el alcance de nuestro conocimiento y percepción.
La información que se genera continuamente en estos órdenes está muy descentralizada, y no
puede ser centralizada por un individuo o agente de planificación.
11.5.2. El problema de la división del conocimiento
Hayek afirmaba que el problema de la división del conocimiento es semejante al problema de la
división del trabajo, pero que ha sido completamente relegado por los economistas como si no
tuviera interés. Para él constituye un problema central de toda la ciencia social.
En el ámbito de la economía, el problema de la división del conocimiento plantea dudas en relación
al equilibrio. Según Hayek las teorías del equilibrio asumen un mercado perfecto, donde todos los
miembros conocen al instante los acontecimientos, tienen la misma información relevante para la
toma de decisiones. Para que esto suceda, debemos explicar mediante qué proceso los individuos
adquirirán el conocimiento de qué bienes son escasos y cuál es su valor.
Esto conduce a una de las tesis económicas más interesantes de Hayek: la idea de que el mercado,
prototipo de orden espontáneo, es una “red de telecomunicaciones”, el conocimiento disperso y
fragmentado es transmitido gracias al mercado (que permite la mejor gestión, desarrollo y difusión
de esa información).
El mecanismo a través del cual se consiguen estos resultados son los precios, actúan como
indicativos. Registran alteraciones facilitando así la adaptación a lo imprevisto y desconocido,
informan cómo emplear los recursos de la mejor manera, comunican los deseos de los
consumidores, si hay abundancia o escasez de un recurso, informan sobre planes errados y sobre
quién posee la información.
Los precios son consecuencia del uso de información que solo los individuos conocen. Es la
competencia la que fija los precios, porque ella permite descubrir y seleccionar al que tiene la
información relevante y puede servir mejor al consumidor.
El problema consiste en averiguar cómo optimizar la utilización de la información y las capacidades
y oportunidades de la gente para obtener nueva información que se encuentra distribuida entre
todos los individuos y que nadie puede poseer en su totalidad.
La competencia es fundamentalmente un proceso de descubrimiento, que facilita la adquisición y
transferencia de la información.
La teoría de la competencia de Hayek: la competencia es un proceso dinámico que crea las
opiniones de la gente sobre qué es lo mejor y más barato. Entonces el mercado es democrático
porque responde a los deseos de un soberano: los consumidores.
En definitiva, un orden espontáneo no puede someterse a ningún plan de ingeniería social. Desde
el punto de vista científico, el socialismo es imposible. La planificación central en la economía de
una sociedad compleja es imposible por el carácter del conocimiento del que el ser humano se vale
para actuar, ya que en gran parte es individual. Por lo tanto no puede ser tratado como objeto o
dato identificable.
Según Hayek, si el problema económico de una sociedad consiste en adaptarse rápidamente a los
cambios en las circunstancias de tiempo y lugar, hay que resolverlo mediante la descentralización.
En un sistema en el que el conocimiento está disperso entre muchos individuos, los precios pueden
coordinar las acciones de diferentes personas. En una economía donde existe propiedad privada de
los medios de producción los precios actúan como brújula, si fueran intervenidos por una autoridad
política se deformaría la información sobre la oferta y la demanda.
11.5.3. La teoría de los ciclos económicos
Hayek desarrolló la teoría de los ciclos en los años 30 y le valió el premio Nobel en 1974.
La mayoría de las teorías de los efectos del dinero sobre los precios y los outputs consideran sólo
los efectos de la oferta monetaria total sobre el nivel de precios y sobre el output agregado o
inversión. La teoría austríaca de Mises y Hayek, se fija en la forma entra en la economía y cómo
afecta a los precios relativos y la inversión en sectores particulares.
La reducción de los tipos de interés causada por la expansión crediticia dirige los recursos hacia los
primeros estadios de la producción, alargando así el período de producción. Si los consumidores
cambian sus preferencias a favor del consumo futuro en lugar del presente, haciendo bajar los tipos
de interés, la estructura de producción más larga en el tiempo habría sido una respuesta apropiada
y coordinada. Pero si se ha producido por la extensión de crédito, será una falsa señal que causa
cambios en la estructura de la producción que no se ajustan a las preferencias temporales de los
consumidores. El boom generado por el aumento de la inversión es artificial. Cuando los
participantes del mercado se percatan que no hay suficientes ahorros para completar los proyectos,
estas malas inversiones se descubren y liquidan.
La recuperación consiste en acabar con esas malas inversiones inducidas por haber bajado los
tipos de interés por debajo de su nivel, restaurando el tiempo de la estructura de producción para
que concuerde con las preferencias inter-temporales de los consumidores.
11.5.4. Autorregulación del mercado contra intervención estatal
Según Hayek es mejor dejar que el mercado se autorregule (como cualquier orden espontáneo).
Crítica que muchas veces las intervenciones de los poderes públicos esconden intereses
corporativos, favoreciendo el surgimiento de monopolios al amparo del poder político.
Un monopolio que ha llegado por servir mejor al consumidor, suele ser transitorio, y es probable que
surjan otros competidores. Pero los grandes grupos de interés tienen deseo de influir sobre el poder
público, consiguiendo que el gobierno regule sectores de la realidad económica a su favor a cambio
de su apoyo. Eso es lo que sucede para Hayek, con muchas medidas del Estado de Bienestar.
Por esta crítica a la justicia social en la que muchas veces se amparan intereses falsos, Hayek fue
considerado uno de los líderes del neoliberalismo.
11.5.5. La polémica con Keynes: el problema de la inflación
Las medidas intervencionistas propias del Estado social, legitimado por la búsqueda de una
distribución más justa de la riqueza, producen inflación.
Al aumentar el nivel de gasto público, la política monetaria depende de la voluntad de los
gobernantes. Ellos controlan la moneda y pueden manipular el dinero para conseguir resultados a
corto plazo (que normalmente son los que preocupan a los políticos). Pero a largo plazo, esa
inflación provoca la ruina de las clases medias, disuade del ahorro y crea paro (desempleo).
La lucha contra la inflación fue una de las causas de la polémica entre Hayek y Keynes en los años
1930. Hayek consideraba que la idea de Keynes de incrementar artificialmente la demanda
agregada, distorsionarían la estructura productiva y terminarían generando desempleo.
Además los gastos del Estado de Bienestar se costean mediante una política fiscal de impuestos
progresivos, que no cumple los objetivos para lo que fue creada: las grandes rentas gravadas con
un impuesto mayor son muy pocas y, a la larga, toda la economía sufre las consecuencias de la
falta de estímulo e incentivos para el ahorro y la inversión.
Algunos autores consideran que este es el coste inevitable que tenemos que pagar si queremos
una sociedad más justa e igualitaria. Pero Hayek señala que bajo esta idea subyace el mismo error
intelectual: no haber comprendido qué es y cómo funciona el mercado. Cree que es un error
adjudicar comportamientos al mercado, porque no es un individuo que piensa y actúa. Los procesos
auto-ordenadores (orden espontáneo) como el mercado, no se ajustan a normas morales.
Las reglas del Estado de Derecho amparan el funcionamiento de los órdenes espontáneos. Los
resultados del mercado no serán injustos, lo serán determinadas actuaciones de los sujetos que
participan en él. No se puede intervenir para corregir los resultados, ya que la producción de
riqueza no es independiente de su redistribución (la intervención política para redistribuir riquezas
incide sobre las condiciones para producirla). Se pueden crear las condiciones que favorezcan la
libre actuación de todos en el mercado para que consigan sus fines, remover obstáculos y proteger
mediante una red de seguridad a los que no pueden valerse por sí mismos en él (prestar
asistencia a quienes no son capaces de cuidar de sí mismos).
11.5.6. La desnacionalización del dinero
Hayek aspiraba a que todos sus principios liberales fueran aplicados a escala internacional. Por eso
conviene destacar su tesis de la desnacionalización del dinero y la competencia de monedas
(libre competencia de la emisión y circulación de los medios de pago).
En la Europa comunitaria de hoy resulta chocante, pero es coherente con la visión de Hayek del
dinero como una mercancía más, que la sociedad suministrar con mayor eficacia que los Estados.
Cree que la desnacionalización del dinero puede prevenir la inflación y limitar el poder discrecional
del gobierno.
Según Hayek la empresa privada habría creado diversas monedas, y las que hubieran prevalecido
en la competencia, habrían sido estables en cuanto a su valor.
11.6. La escuela en Estados Unidos: ISRAEL M. KIZNER y MURRAY N. ROTHBARD
Mises se fue de Viena a Ginebra en 1934, y en 1940 parte hacia Estados Unidos por amenazas
nazis. Allí trabaja en la Universidad de Nueva York.
Durante los años 1930, la tradición austríaca del seminario había finalizado. Para Kizner, los
austríacos supervivientes, Mises y Hayek, en la posguerra eran considerados marginados de los
nuevos planteamientos.
En décadas posteriores a la Segunda Guerra Mundial se pondrían los fundamentos de la moderna
escuela austríaca norteamericana.
Los primeros alumnos destacados que tuvo Mises en Nueva York fueron el americano Rothbard
(1926-1995) y el inglés Kizner (1930-).
Rothbard llevó a cabo el intento de reelaborar la historia económica desde el punto de vista de su
escuela y dedicó mucho esfuerzo a rastrear los orígenes intelectuales, destacando autores de la
escolástica española en su obra Historia de pensamiento económico (1995), como antecedentes
del subjetivismo en economía.
Por otra parte, llevando el liberalismo de la escuela de Viena a sus extremos, intentó fundamentar
un anarquismo capitalista sobre las bases del derecho natural (La ética de la libertad, 1982).
Kizner se ha dedicado al estudio del empresario y la actividad empresarial (teoría de la
empresarialidad), relegada por los clásicos, implícita en la obra de Mises, pero también recoge
ideas keynesianas sobre el papel del conocimiento en el proceso de mercado (Competencia y
empresarialidad, 1975).
Deseaba afrontar el carácter empresarial de la acción humana individual, característica esencial de
la economía misiana.
Para Mises la acción humana es una acción emprendedora, capaz de descubrir, innovar o predecir
oportunidades en un mundo dinámico y competitivo, donde los sujetos persiguen sus propios fines.
La actividad empresarial y los beneficios surgen del desequilibrio de los diferentes planes de los
individuos, condición que el empresario capta y trata de satisfacer con su acción.
O sea, la actividad empresarial coordina diferentes proyectos individuales que de otra forma no se
satisfaría, y que se logra debido a su imaginación y atrevimiento.
Kizner llama “función empresarial” a una función creadora, que crea información cuando el
individuo percibe que hay una posibilidad nueva de ganancia, que el mercado transmite
rápidamente a través de los precios, y así los agentes económicos aprenden cómo deben actuar.
El empresario, sin saber exactamente que busca y sin buscarlo, se encuentra siempre atento y
preparado para descubrir o crear nuevas oportunidades de ganancia.
Es probable que la regulación gubernamental de la actividad económica dificulte o frustre las
posibilidades coordinadoras que surgen espontáneamente del proceso empresarial.
Es por esta comprensión de la capacidad coordinadora que tiene el proceso empresarial, que la
escuela austríaca tiende a favorecer las soluciones liberales y a defender el laissez-faire (dejar
hacer).
Sostiene que el mercado no intervenido por el Estado propicia los incentivos necesarios para
estimular el movimiento del mercado en una dirección que tiende al equilibrio.
11.7. Conclusiones
En épocas anteriores la enorme influencia del paradigma keynesiano desde la Segunda Guerra
Mundial y el auge del análisis macroeconómico, la escuela austríaca de economía era conocida por
pocos estudiosos.
A partir de la crisis del petróleo en 1973, el colapso del comunismo, la crisis del Estado de Bienestar
y el predominio de la economía de mercado, el interés por el liberalismo ha aumentado.
A la vez, el otorgamiento del premio Nobel a Hayek, uno de sus máximos representantes, le dio
respetabilidad.
Ha recibido críticas por la forma de entender la ciencia económica muy diferente de la de los
enfoques del pasado e, incluso del presente (aunque se trate también de escuelas liberales como la
escuela de Chicago de M. Friedman o G. Becker).
El radicalismo en algunos postulados y el rechazo a la contrastación empírica de las teorías y las
matemáticas, le alejan del enfoque neoclásico dominante.
Conviene recordar que la escuela austríaca se trata de una escuela de pensamiento que pretende
incluir a la economía en una teoría más amplia de la acción humana, que aspira abarcar más cosas
que lo comúnmente consideramos objeto específico de la economía.
Al haber hecho de los seres humanos el centro de su investigación y haber explicado que la libertad
(económica y política) es una necesidad irrenunciable, contribuyeron a hacer una ciencia
económica más humana, que frecuentemente se presentaba como algo alejado de la realidad.
Una realidad que los austríacos consideran siempre cambiante, dinámica, insegura, donde las
normas, instituciones, consecuencias inintencionadas de las acciones humanas, nos recuerdan lo
limitado de nuestro conocimiento y la necesidad de la humildad intelectual.
Texto 12: Landreth y Colander (2002): Historia del Pensamiento Económico. Capítulo
16: El desarrollo de la econometría y los métodos empíricos en economía:
La economía se preocupa por los eventos del mundo real y el debate sobre qué teoría económica
aceptar se ha centrado en cómo relacionar las ideas teóricas con la observación empírica. Surgen
preguntas sobre la relación entre teoría y realidad, la validez de la observación empírica como
método de contraste, la importancia de la observación directa frente a la intuición heurística, y si el
desarrollo de teorías formales es solo un juego. Los economistas se han enfrentado a estas
preguntas a través de la observación, la estadística, la econometría, la calibración, las simulaciones
y la investigación experimental. El debate sobre los métodos empíricos en economía se divide entre
el enfoque microeconómico y macroeconómico, siendo este último el que genera más discusión. Se
presentan cuatro enfoques empíricos utilizados por los economistas y se examinan los primeros
intentos de combinar el trabajo estadístico con observaciones superficiales. Luego se analizan las
decisiones ad hoc en el tratamiento estadístico de los datos, lo que llevó al desarrollo de la
econometría. Sin embargo, estas decisiones han generado dudas en algunos economistas sobre
los estudios econométricos, lo que ha llevado a una situación inestable en la economía empírica
actual.
La Economía Empírica:
La economía empírica es la aplicación de métodos de investigación para relacionar las teorías
económicas con la realidad. Hay cuatro enfoques principales: el empirismo de sentido común, el
análisis estadístico, el análisis econométrico clásico y el análisis econométrico bayesiano. El
empirismo de sentido común se basa en la observación directa y la comparación con las ideas
teóricas. El análisis estadístico cuantificado y analiza los datos económicos. El análisis
econométrico clásico contrasta teorías utilizando métodos estadísticos. El análisis econométrico
bayesiano utiliza creencias subjetivas y estadísticas para evaluar teorías. Estos enfoques pueden
complementarse o utilizarse de manera independiente. La tecnología informática ha influido en la
forma en que los economistas realizan investigaciones empíricas. Se han desarrollado nuevas
técnicas como simulaciones de comportamiento de agentes, calibración de modelos
macroeconómicos y experimentos naturales. Estos cambios han ampliado la forma en que se
estudia la economía. Este enfoque utiliza la teoría económica intuitiva en lugar de modelos
estructurales y sus datos provienen de los experimentos naturales que se realizan.
Economía matemática, estadística y econometría:
La economía matemática se refiere al uso de técnicas matemáticas para formular hipótesis y aclarar
sus implicaciones. La estadística implica el análisis de cifras numéricas, mientras que la
econometría combina la economía matemática con el análisis estadístico para contrastar
formalmente las hipótesis.
Antes de la formalización matemática de la teoría económica, los economistas formulaban teorías
históricas y hipótesis verbalmente, y se basaban en circunstancias o eventos para contrastarlas. Sin
embargo, este enfoque heurístico no permitió una contraste aceptable de las hipótesis.
En las décadas de 1960 y 1970, hubo avances significativos en la contrastación estadística y los
métodos econométricos, gracias a los avances tecnológicos en la informática. Esto permitió realizar
estudios empíricos más complejos y contrastar hipótesis de manera más rápida y precisa. Sin
embargo, las esperanzas de convertir la economía en una ciencia plenamente contrastable no se
han cumplido en su mayoría.
La econometría se considera una combinación de economía matemática y análisis estadístico,
donde se utilizan técnicas matemáticas para formular hipótesis y el análisis estadístico para
contrastar formalmente esas hipótesis. La economía matemática genera teorías lo suficientemente
específicas como para ser contrastadas formalmente, mientras que la estadística se basa en
observaciones numéricas sin una formulación teórica precisa.
Un ejemplo de una teoría que no puede contrastarse empíricamente es la teoría de la población de
Malthus, que en su formulación incluye factores inobservables y no cuantificables, lo que hace difícil
su contrastación estadística.
Los primeros estudios empíricos:
En uno de los primeros empíricos, Gregory King y Charles Davenant examinan la relación entre el
precio y la cantidad en el comercio. Davenant demostró una relación inversa aproximada entre el
precio y la cantidad en su trabajo. King retomó estos estudios y buscó fundamentos empíricos para
esta relación en particular.
LA ECONOMÍA NEOCLÁSICA Y EL ANÁLISIS EMPÍRICO:
En el pasado, los estudios empíricos fueron la excepción y no la norma en la economía. Los
economistas clásicos solían postular leyes basadas en el sentido común y respaldarlas con
ejemplos, sin someterlas a pruebas rigurosas. Sin embargo, con la llegada de la economía
neoclásica a fines del siglo XIX, se comenzó a cuestionar este enfoque. Los economistas
neoclásicos buscaban hacer de la economía una ciencia exacta y se debatía sobre la mejor forma
de realizar análisis empíricos, destacando el análisis estadístico.
Henry L. Moore(1869–1958).
A principios del siglo XX, Moore fue pionero en el uso de muchos métodos estadísticos que más
tarde volverían a ser habituales. Utilizó los avances en métodos estadísticos y teoría de
probabilidad para realizar inferencias formales a partir de datos económicos. Moore buscaba
verificar teorías económicas, como la teoría de los salarios de JB Clark basada en la productividad
marginal. Sin embargo, su análisis presentó algunos problemas, como la falta de rigor en la
selección de su estructura teórica y la limitación de datos.
Moore también tenía un interés político en sus estudios, buscando criticar propuestas socialistas de
mayor igualdad de la renta. Su objetivo era demostrar científicamente que la teoría de la
productividad marginal era cierta y que un Estado socialista podría generar problemas al redistribuir
la renta. Aunque su motivación política plantea interrogantes sobre la imparcialidad de sus
resultados, sus contribuciones en la integración de métodos estadísticos en la economía fueron
significativas. Además, sus trabajos sobre la medición empírica de la curva de demanda y los ciclos
económicos sentaron las bases de la econometría microeconómica y macroeconómica moderna,
respectivamente.
La curva de demanda de Moore y el problema de identificación:
Moore realizó un estudio sobre la estimación de las curvas de demanda de bienes agrícolas y de
arrabio, y los problemas asociados con la identificación empírica de estas curvas. Moore enfrentó la
dificultad de medir empíricamente una curva de demanda, ya que los datos observados en el
mercado podrían pertenecer a la curva de oferta, la curva de demanda o ninguna de las dos. El
investigador debe relacionar los datos observados con la teoría para resolver este problema.
Moore asumió que los precios y las cantidades observadas eran puntos de equilibrio en las curvas
de oferta y demanda. También supuso que la oferta de bienes agrícolas era determinada por
factores externos y no se vio afectada por el precio vigente. Estimó diferentes curvas de demanda
utilizando datos porcentuales y necesidades lineales y cúbicas. Las curvas estimadas mostraron
una pendiente negativa, como predice la teoría, y tuvieron un coeficiente de determinación alto.
Sin embargo, la estimación de Moore recibió críticas por parte de algunos economistas que
consideraron que su análisis empírico era demasiado simplista en comparación con la complejidad
de la teoría subyacente. También se cuestionó su estimación de la demanda de arrabio, que mostró
una pendiente positiva, lo cual contradecía la teoría microeconómica establecida.
El autor sugiere que la curva de demanda de pendiente positiva de Moore no fue un error, sino un
intento de abordar las limitaciones de los datos y permitir que estas limitaciones guíen su análisis.
Moore creía que su curva de demanda dinámica, que relacionaba regularidades empíricas, podría
ser útil para hacer predicciones sobre la economía, aunque no obstante no se alineaba con la teoría
estática subyacente.
Henry Schultz y las variables independientes y dependientes:
Henry Schultz (1893-1938) hizo contribuciones importantes al análisis económico al estudiar los
aranceles y estimar la curva de demanda. Durante su investigación, descubrió que se podría
obtener diferentes elasticidades al realizar regresiones de la cantidad en función del precio, en lugar
de regresiones del precio en función de la cantidad, como se había hecho anteriormente. Schultz
afirmó que la elección de la variable dependiente e independiente en una regresión dependía de
tener una idea previa sobre cuál era la correcta. En caso de no tener una idea previa, recomendaba
elegir la regresión que presentara el mejor ajuste determinado mediante un contraste de Pearson.
La idea de Schultz fue importante porque dijo que la medición estadística no puede separarse de la
teoría. Nuestra percepción de los resultados está influenciada por nuestras creencias. Esta idea
llevó a la práctica común en la econometría de distinguir cuidadosamente entre las variables
independientes y dependientes. Sin embargo, decir que la medición estadística cambia en función
de la teoría no implica que dependa por completo de ella. La teoría ofrece interpretaciones limitadas
que se pueden extraer de los datos estadísticos.
El problema de identificación en la teoría microeconómica moderna: persiste y se refiere a la
comprensión de cómo se generan los datos observados y su importancia dentro de un contexto
teórico. Por ejemplo, en industrias como la de las computadoras, relojes digitales y televisores en
color, se ha observado una relación inversa entre el precio y las cantidades vendidas. Sin
embargo, existen diferentes explicaciones posibles para estos datos, como una demanda
creciente y curvas de oferta a largo plazo con pendiente negativa o el impacto de la competencia
y el avance tecnológico. El problema radica en que los datos por sí solos no permiten identificar
la causa subyacente.
LA MACROECONOMÍA Y EL ANÁLISIS EMPÍRICO:
La macroeconomía es más difícil de estudiar empíricamente que la microeconomía debido a su
naturaleza interrelacionada. WS Jevons fue uno de los primeros en intentar realizar estudios
empíricos macroeconómicos.
La teoría de las manchas solares de Jevons:
WS Jevons fue un pionero en matemáticas y teoría de la utilidad. Aunque es conocido por su
contribución a la teoría microeconómica, también realizó estudios empíricos macroeconómicos.
Intentó encontrar la causa de los ciclos económicos y creyó que las manchas solares podrían ser la
razón. Analizó datos agrícolas y descubrió una posible relación entre las fluctuaciones de las
cosechas y la actividad de las manchas solares. Sin embargo, su teoría no fue bien recibida por
otros economistas y fue ridiculizada en su tiempo. A pesar de eso, se le reconoce como pionero de
los métodos econométricos por su intento de utilizar la estadística para desarrollar y contrastar una
teoría macroeconómica.
Las aportaciones de Moore a la macroeconomía:
Moore hizo contribuciones a la macroeconomía, especialmente en la estimación de la demanda de
cosechas y el estudio del ciclo económico. Desarrolló una teoría y una medición estadística del ciclo
económico, severamente en los ciclos meteorológicos como causa de las fluctuaciones
económicas. Utilizó el análisis estadístico para respaldar su argumento, pero fue criticado por Philip
Wright, quien ajustó la medida de las precipitaciones y cuestionó la relación estadística. Moore
amplió su estudio a más países y concluyó ciclos de ocho años. Aunque su teoría se amplió para
incluir múltiples causas, su enfoque en los ciclos meteorológicos, incluso relacionados con Venus,
no fue seguido por otros economistas. Sin embargo, sentó las bases para estudios econométricos
posteriores y contribuyó al análisis de las economistas institucionales.
Clement Juglar: convirtió un enfoque histórico para analizar los ciclos económicos, utilizando
tanto datos cualitativos como cuantitativos. A diferencia de Jevons y Moore, que se centraron en
estadísticas, Juglar buscó peculiaridades en cada ciclo a través de un razonamiento económico
sensato y un análisis minucioso de la historia y las instituciones de la época. Su enfoque se
basaba menos en la teoría y más en la sensibilidad hacia los datos económicos, siendo
considerado un precursor del enfoque estadístico institucional.
Wesley C. Mitchell: empirista heterodoxo:
Wesley C. Mitchell, uno de los primeros institucionalistas, se apartó de los economistas neoclásicos
en su enfoque empírico en macroeconomía. Desarrolló un método pragmático que enfatizó la
observación y análisis directo de los hechos económicos. Consideró que las teorías eran útiles
como telón de fondo para interpretar las observaciones empíricas, y vio a la economía como un arte
para ayudar a formular políticas económicas. Mitchell contrastó hipótesis sobre los ciclos
económicos mediante análisis estadísticos y juicios de valor basados ​en datos e información
institucional. Aunque su enfoque no siguió los métodos científicos formales, influyó en los
macroeconomistas ortodoxos en Estados Unidos en la década de 1930.
La medición y la recogida de datos:
La recogida y medición de datos en economía presenta desafíos significativos. Se requiere construir
datos acordes con los conceptos teóricos, como el nivel general de precios o la oferta monetaria.
Varios economistas, como Irving Fisher, Richard Stone, James Meade, Simon Kuznets, Wassily
Leontief, Abram Bergson y Alexander Gerschenkron, han realizado importantes contribuciones en el
campo de la medición y la contabilidad nacional. Estos estudiosos han desarrollado métodos y
medidas para cuantificar la renta nacional, el consumo, el gasto y otros aspectos macroeconómicos.
Sus investigaciones han demostrado la importancia de la recopilación precisa de datos y han
revelado discrepancias en las mediciones económicas, como en el caso del crecimiento de la Unión
Soviética.
LA APARICIÓN DE LA ECONOMETRÍA:
La aparición de la econometría fue un cambio significativo en los análisis económicos en las
décadas de 1960 y 1970. Reemplazó el enfoque utilizado por Mitchell en macroeconomía y se
convirtió en el enfoque dominante tanto en microeconomía como en macroeconomía. Esto se debe
a varias razones: mejoras en los métodos estadísticos y econométricos, el deseo de aplicar y
contrastar teorías de manera precisa, el desarrollo de la economía matemática, la esperanza de
convertir la economía en una ciencia exacta y el apoyo de defensores de la econometría.
E. J. Working y el problema de identificación:
EJ Working (1900–1968) hizo avances en el enfoque econométrico en microeconomía al abordar el
problema de identificación. Demostró que si se podía especificar independientemente de la oferta o
la demanda, se podía estimar las curvas de oferta y demanda respectivamente. Esto permitió
estimar relaciones empíricas estáticas incluso sin cumplir las condiciones ceteris paribus.
La teoría keynesiana y la macroeconomía:
En la década de 1930, la econometría en macroeconomía se desarrolló principalmente debido a la
influencia de la teoría keynesiana y la necesidad de explicar la Gran Depresión. Se realizaron
esfuerzos para encontrar evidencia empírica de la teoría keynesiana, como estimar el multiplicador
y la función de consumo. También aumentó el interés por la planificación central y la estimación de
relaciones económicas.
Ragnar Frisch, Jan Tinbergen y el desarrollo de grandes modelos macroeconométricos:
Ragnar Frisch y Jan Tinbergen fueron dos economistas destacados que desarrollaron grandes
modelos macroeconométricos. Su objetivo era formular medidas económicas para alterar la
estructura de las ecuaciones y lograr los resultados deseados en la economía. Sin embargo, sus
métodos fueron críticos por otros economistas, como Keynes y Friedman, que cuestionaron la
validez de los procedimientos de estimación y las pruebas estadísticas utilizadas.
Trygve Haavelmo y la revolución probabilística en econometría:
Trygve Haavelmo introdujo el enfoque probabilístico en la econometría y la teoría económica.
Argumentó que las teorías económicas deben tratarse como teorías probabilísticas en lugar de
relaciones exactas.
Su enfoque fue aceptado por la Comisión Cowles for Research in Economics, que realizó
importantes investigaciones en economía utilizando métodos matemáticos y estadísticos. La
Comisión Cowles inició el método probabilístico, que tuvo un impacto significativo en la
econometría.
La cliometría y Robert W. Foge:
La cliometría es la aplicación de la econometría a la historia, y ha generado interés y
controversia. Robert W. Fogel es un destacado historiador que ha utilizado la econometría en sus
estudios, cuestionó las conclusiones extraídas por los historiadores literarios sobre la relación
entre los ferrocarriles y el crecimiento económico de Estados Unidos. Otros economistas también
practicaron la cliometría y se mantendrán una literatura abundante al respecto. Hubo debates
sobre la legitimidad de esta nueva metodología.
Uno de los modelos macroeconométricos más famosos desarrollados por la Comisión Cowles fue el
modelo Klein-Goldberger, que fue la primera representación empírica del sistema keynesiano. Este
modelo tuvo numerosas variables endógenas y determinadas que permitieron el análisis de las
interrelaciones económicas.
LA CAÍDA EN DESGRACIA DE LA MACROECONOMETRÍA:
Durante la década de 1960, se desarrollaron modelos macroeconométricos basados ​en la teoría
keynesiana que parecían científicos. Sin embargo, a mediados de la década de 1970, se aceptó
debido a la incapacidad para predecir con precisión las perturbaciones económicas. Comparaciones
entre estos modelos y modelos más simples de series temporales demostraron que no eran
mejores en predicciones. Las críticas a los modelos macroeconométricos se basan en su
dependencia de datos y ajustes estadísticos, el uso de variables aproximadas y variables
inmensurables, la falta de experimentos controlados y la falta de reproducibilidad. Los economistas,
como Robert Solow, expresaron su preocupación sobre la utilidad limitada de la econometría en
macroeconomía y la necesidad de realizar valoraciones subjetivas. La desconfianza en los
contrastes econométricos ha producido errores y falta de reproducibilidad en los estudios. Algunos
proponen el enfoque de la econometría bayesiana, pero la mayoría continúa utilizando métodos
tradicionales. La dificultad para realizar contrastes empíricos ha generado enfoques retóricos y
sociológicos en la metodología de investigación económica.
Las críticas modernas a los modelos macroeconométricos: incluyen la crítica de Lucas,
realizada por Robert Lucas, quien argumenta que los modelos no son adecuados para predecir
los efectos de futuras políticas debido a los cambios en la estructura del modelo cuando se utiliza
una política diferente. Otros críticos, como David Hendry y Christopher Sims, enfatizan la
importancia de utilizar técnicas estadísticas actualizadas y realizar múltiples contrastes para
obtener un ajuste preciso de los datos, priorizando las relaciones estadísticas sobre la teoría.
Hendry aboga por considerar todas las variables como endógenas y utilizar métodos como los
vectores autorregresivos, mientras que Sims defiende no imponer estructuras teóricas a los datos
y utilizar técnicas estadísticas para descubrir las relaciones. Estos enfoques son vistos como una
reencarnación moderna del enfoque de Mitchell, que se centraba en los datos con un mínimo de
teoría. Aunque los críticos señalan que estos nuevos métodos no utilizan teorías económicas,
argumentan que los modelos macroeconométricos tradicionales también tienen limitaciones
teóricas. La crítica de Lucas ha tenido una influencia significativa en el campo, a pesar de que los
problemas ya eran conocidos por economistas anteriores a él, como se discutió en la Comisión
Cowles y los trabajos de Marschak, Koopmans y Phillips en las décadas de 1950 y 1960.
LA ECONOMETRÍA BAYESIANA:
La econometría bayesiana es un enfoque estadístico que propone una interpretación subjetiva de
los datos en contraposición a la interpretación objetiva de la econometría clásica. Mientras que en la
estadística clásica se busca una estimación única y objetiva del parámetro, basado en criterios
como los BLUE (mejor estimador lineal e insesgado), en el análisis bayesiano se genera una
función de densidad posterior basada en las creencias iniciales del investigador y la evidencia
empírica. Aunque algunos econometristas se han comprometido con la econometría bayesiana, su
uso es limitado debido a la dificultad de formalizar las creencias previas, encontrar la distribución
posterior y convencer a otros de la validez de los resultados bayesianos. Aunque se han planteado
quejas sobre la enseñanza actual de econometría, que se centra más en técnicas económicas que
en métodos econométricos per se, el resto lo dedican a otros aspectos del estudio, especialmente a
la construcción de un modelo econométrico relevante y al desarrollo de datos adecuados antes de
las estimaciones y la interpretación de los resultados después de las estimaciones.
La causa de esta diferencia se halla en que los profesores que enseñan econometría a menudo no
son las personas que la realizan realmente. Como señalan Magnus y Morgan (1999), el análisis
econométrico real se aprende haciéndolo, no estudiándolo. Está por ver si estas quejas llevarán a
realizar mejores estudios empíricos en el futuro."
LOS ECONOMISTAS EXPERIMENTALES Y LA SIMULACIÓN:
Un grupo de economistas experimentales ha adoptado un enfoque distinto para realizar análisis
empíricos en economía. Utilizando experimentos con animales o personas como compradores y
vendedores, prueban si la teoría económica predice correctamente los resultados obtenidos. Estos
economistas argumentan que han demostrado proposiciones económicas a través de sus
experimentos.
Por ejemplo, un experimento llamado "doble mercado oral de subastas" realizado por Vernon Smith
y otros economistas sufrieron que el precio en el mercado se aproxima rápidamente al equilibrio y
se ajusta cuando cambian las condiciones de oferta y demanda. Este enfoque experimental permite
observar cómo reaccionan los mercados en diferentes condiciones institucionales, como en el caso
de comparar mercados con precios declarados y subastas.
Además, los economistas experimentales han contribuido en la resolución de problemas prácticos.
Por ejemplo, en el caso de los precios de transporte de mercancías, se demostró que los precios
declarados tendían a ser más altos que en las subastas, lo cual llevó al Departamento de
Transporte de Estados Unidos a solicitar la ayuda de estos economistas para resolver el problema
de fijación de precios.
También se ha contrastado el teorema de Coase, encontrando que las partes perjudicadas que
pueden negociar tienden a lograr un resultado eficiente, independientemente de quién tenga el
derecho legal. Sin embargo, se demostró que cuando se asignaba el derecho legal de forma
aleatoria, las partes tendían a distribuir el excedente de manera equitativa en lugar de maximizar
sus ganancias individuales. Esto sugiere que existe una ética basada en la equidad en la
distribución de los derechos de propiedad.
Dada la dificultad de contrastar teorías de forma empírica, estas investigaciones han cobrado
importancia. Su aceptación por parte de los economistas tendrá implicaciones significativas que
requerirían cambios en la formación de los economistas, así como en su papel y enfoque para
abordar los problemas económicos.
Una tendencia relacionada es el uso de simulaciones, donde se construyen modelos con agentes
que siguen reglas locales y se realizan simulaciones para determinar qué reglas sobreviven. Esto
permite seleccionar supuestos basados ​en su capacidad de supervivencia en lugar de basarse en la
introspección.
RESUMEN
La econometría ha experimentado avances y desafíos en su historia. En macroeconometría, ha
habido progresos y lecciones aprendidas a lo largo de más de cincuenta años de construcción de
modelos, aunque no de manera lineal o continua. Sin embargo, los críticos de la macroeconometría
cuestionan la falta de claridad en los modelos estructurales y consideran que se les atribuye más de
lo que es razonable.
En cuanto a la microeconometría, se centra en problemas de equilibrio y plantea problemas
metodológicos menos graves. Sin embargo, también tiene críticos que argumentan que se requiere
más información de la que está disponible en la economía y que los contrastes estadísticos clásicos
no tienen el significado pretendido sin experimentos controlados.
Los críticos tienen diferentes perspectivas: los institucionalistas enfatizan el empirismo informado
por la información institucional e histórica, mientras que los críticos bayesianos sugieren
contrastes técnicos que reflejan la subjetividad de la estadística.
La econometría busca una gran precisión cuantitativa sin la ventaja de experimentos controlados o
grandes muestras. Los modelos económicos tienden a tener estructuras precisas pero simplistas, lo
que limita su precisión cuantitativa. Los enfoques institucionalistas han tenido éxito al abordar
problemas específicos con un enfoque histórico y desagregado, considerando las circunstancias y
motivaciones de los diferentes grupos económicos afectados.
En general, se sugiere que los análisis econométricos podrían ser más fructíferos si se enfocarán
en comprender mejor las restricciones institucionales y el comportamiento individual.
—---------------------------------------------------------------------------------------------------------------------------------------
Texto 13: Barber, William (1967): “Historia del Pensamiento Económico”. Alianza
Editorial. Cap 8 “La doctrina económica de la Teoría General de Keynes”
El problema analítico de la Teoría General
La obra principal de Keynes giraba en torno a un problema central: la determinación de los niveles
de renta nacional y de empleo en las economías industriales, y la causa de las fluctuaciones
económicas. Los clásicos se habían enfocado en el crecimiento económico a largo plazo dejando
de lado la inestabilidad a corto plazo. Marx se acercaba más a Keynes pero creía que la caída del
capitalismo era inevitable, desde su punto de vista las fluctuaciones generales eran el resultado de
una enfermedad incurable del sistema capitalista.
En la Teoría General, se plasma la idea de que el análisis económico debía ser reconstruido para
llevar los problemas agregativos a corto plazo al centro de la escena. Un capitalismo no regulado
era incompatible con el mantenimiento del pleno empleo y estabilidad económica.
Su educación profesional le había enseñado a respetar el valor analítico de la teoría neoclásica. El
sistema neoclásico (que en la Teoría General él designaba como “teoría clásica”), según Keynes,
representaba el modo en el que nos gustaría que se comportará nuestra economía.
El ataque a la Ley de Say y la interpretación del dinero
La Ley de Say distinguía entre superproducción “general” y “parcial”. La primera se suponía
imposible, en tanto que la otra aún podía ocurrir. Esto podría traducirse en la proposición de que
toda la renta sería gastada. Después de todo, ¿qué persona cuerda acumularía fondos estériles en
un volumen sustancial cuando prestándolos podría aumentar su renta?. Toda la estructura del
pensamiento neoclásico sobre el ahorro y la inversión se había construido en torno a estos
postulados. Un aumento en el tipo de interés inflaría el volumen de los fondos prestables. El tipo de
interés era, de este modo, interpretado como un sensible mecanismo de equilibrio entre el ahorro y
la inversión.
Esta línea argumental fue reforzada posteriormente por la interpretación neoclásica corriente del
papel del dinero. En esta doctrina la principal función del dinero era la de medio de cambio. El
dinero era económicamente interesante solo en la medida en que se gastaba y circulaba a través
del sistema.
El ataque de Keynes a la tradición de la ley de Say se centraba en este análisis del dinero.
Comenzó la tarea invirtiendo la perspectiva desde la cual se consideraba el dinero. Keynes prefirió
el dinero como activo, pero insistió en que había también otra razón para mantener dinero: el motivo
especulativo. La réplica de Keynes está basada en la relación inversa entre los tipos de interés y los
valores-capital de los activos financieros. Keynes afirmó que podría haber circunstancias en las que
fuera prudente atesorar para cubrirse frente a los riesgos de pérdidas de capital. Los tipos de
interés probablemente subirían (exponiendo a los propietarios de activos a pérdida sustanciales de
capital).
La reinterpretación del tipo de interés
El modelo keynesiano y el análisis agregativo del sistema neoclásico manejaban las mismas
variables: renta, ahorro, inversión, dinero y tipo de interés. El interés se ha considerado
generalmente como la recompensa por no gastar, mientras que, de hecho, es la recompensa por
no atesorar.
El tipo de interés estaba gobernado no por la oferta y demanda de fondos prestables (como habían
mantenido los escritos neoclásicos) sino por la oferta y demanda de dinero.
El público puede demandar dinero por motivos especulativos. Los saldos mantenidos de este modo
constituirán el atesoramiento, y su dimensión, probablemente, estaría influida ante todo por el tipo
de interés y las expectativas sobre la futura evolución de este. A bajos tipos de interés, por el
contrario, podía preferir el atesoramiento como salvaguardia frente a las posibles pérdidas de
capital.
La doctrina que iniciara afirmaba que el tipo de interés era esencialmente un fenómeno monetario y
además sin relación con los factores reales de rugosidad y productividad del capital con los que los
neoclásicos lo habían relacionado. El ahorro y la inversión podían responder a cambios en el tipo de
interés, pero no eran sus determinantes
El análisis keynesiano del consumo y del ahorro
En el pensamiento neoclásico se consideraba la renta nacional como una variable más bien estable
que fluctuaba sólo ligera y transitoriamente en torno a su nivel de pleno empleo. Esto no quiere
decir que los autores neoclásicos despreciaran totalmente la influencia sobre el ahorro de los
cambios en la renta nacional. El nivel de renta se convertía en el principal determinante mientras
que al tipo de interés se le asigna un papel secundario. Keynes relacionó más estrechamente el
ahorro al nivel de renta, poca gente era demasiado sensible a los cambios en los tipos de interés en
sus decisiones de ahorrar. Y poca gente estaría influida por los cambios en el tipo de interés al
decidir la distribución de su renta entre consumo y ahorro.
Por lo que para Keynes no sólo era el nivel de renta la más poderosa influencia sobre el volumen de
ahorro, sino que era probable que el ahorro aumentará absoluta y relativamente conforme creciera
la renta. Indicaba que sería necesario un volumen creciente de gastos de inversión para llegar al
equilibrio entre esta y el ahorro al nivel de actividad de pleno empleo.
Keynes dijo: “una comunidad pobre estará dispuesta a consumir la mayor parte del total de su
producción, de tal modo que será necesario un volumen muy modesto de inversión para alcanzar el
pleno empleo; mientras que una comunidad rica tendrá que descubrir muchas más amplias
oportunidades de inversión para que las propensiones ahorrarles de sus miembros más ricos sean
compatibles con el empleo de sus miembros más pobres.
La determinación de la inversión
Las decisiones de ahorrar e invertir eran en gran medida independientes la una de la otra y se
tomaban por diferentes grupos de personas y por razones distintas. Si los rendimientos netos
esperados excedieran del coste de capital entonces merecía la pena las inversiones mientras que
si el tipo de interés excediera de las tasas esperadas de rendimiento no se llevarán a cabo las
inversiones en instalaciones equipos y existencias.
Este elemento de continuidad entre los sistemas neoclásicos y keynesianos no debería ocultar, sin
embargo, una importante diferencia en las interpretaciones alternativas de la tasa esperada de
rendimiento sobre la inversión. A primera vista pareciera que Keynes utilizaba un concepto
estrechamente relacionado con la noción neoclásica de la productividad marginal de capital y en
parte eso es verdad; conforme crecieron las existencias de capital (permaneciendo lo demás igual)
esperaba que los rendimientos de las unidades adicionales tenderían a disminuir. Pero Keynes a
esto le agregó las expectativas de los empresarios, concluyendo que depende del rendimiento
esperado del capital y no meramente del rendimiento corriente.
La eficacia marginal del capital era una cuestión de expectativas en tal grado que el cambiante
humor de la comunidad empresarial podría contrarrestar la influencia del tipo de interés sobre la
inversión. En resumen, las técnicas convencionales de política económica eran insuficientes para
remediar la insuficiencia de la demanda agregada. Si había de restaurarse la prosperidad era
necesario un papel más activo del gasto público.
El análisis keynesiano y la determinación del equilibrio agregado
Los autores neoclásicos habían despreciado en gran medida esta relación dentro de la estructura
de su pensamiento bajo el supuesto de que la renta nacional estaba sujeta a fluctuaciones solo
dentro de límites bastantes estrechos. Para Keynes, por el contrario, era posible una amplia gama
de posiciones de renta de equilibrio y la cuestión era ¿A qué niveles se establecería el equilibrio de
la renta nacional?
Claramente un aumento en el gasto para inversión aumentaría la renta total, esta condición podía
verse satisfecha cuando la renta hubiera crecido lo bastante para dar lugar al crecimiento necesario
del ahorro.
Las implicaciones del análisis keynesiano para la política económica
Sostuvo que independientemente de la existencia de estas organizaciones la reducción de salarios
no ofrecía ninguna posibilidad de remediar el desempleo. Tal táctica agravaría probablemente más
el problema al recortar la demanda efectiva.
Las repercusiones más amplias de la doctrina keynesiana
La crítica keynesiana de laissez-faire se basaba en fundamentos totalmente diferentes. El peso de
su argumento recaía sobre la demostración de que un sistema de mercado no intervenido es
probable que fuera crónicamente inestable e incapaz de asegurar la plena utilización de los
recursos productivos.
Desde un punto de vista keynesiano la forma más útil de describir el proceso de ajuste de la
balanza de pagos era por los cambios en la renta agregada asociados con los superávits o déficits
de la misma. En cambio, los economistas neoclásicos habían destacado los movimientos de oro y
los cambios inducidos en la oferta monetaria y los precios como mecanismo de reajuste.
En primer lugar el alcance de esta obra quedaba deliberadamente restringido a un lapso de tiempo
de 6 a 9 meses por esta razón era apropiado para los propósitos sus propiedades generadoras de
renta a través del proceso multiplicador e ignorar los efectos a largo plazo de los gastos de
inversión sobre las existencias de activos productivos de la economía. En segundo lugar, es escaso
en el análisis microeconómico.
Lo que ahora se designa como la “síntesis neoclásica” intenta restablecer el tipo de interés como un
regulador sensible de la actividad económica Aunque el argumento es ahora más sutil que antes de
que la teoría general pusiera en tela de juicio la ley de Say. En la versión actual las tendencias
equilibradoras del tipo de interés influyen en las relaciones entre los cambios en el valor capital de
los activos financieros y las decisiones de consumir.
Afirman sin embargo que el sistema de mercado es suficientemente flexible para asegurar el pleno
empleo siempre que precios y salarios sean perfectamente flexibles.
—--------------------------------------------------------------------------------------------------------------------------------------
Texto 14:Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del
Pensamiento Económico” Oxford University Press. Cap. 9
Del periodo de oro a la estanflación
Durante los años oscuros de la Segunda Guerra Mundial, la gente ya comenzaba a hablar sobre
cómo reconstruir la economía mundial una vez que terminara la guerra. Después de la Primera y
Segunda Guerra Mundial, Gran Bretaña perdió su liderazgo económico y Europa en su conjunto
mostraba un atraso evidente, mientras que Estados Unidos importaba masivamente tecnología,
capital y métodos de organización. Esto hizo que Estados Unidos desempeñará un papel
importante en la reconstrucción.
La nueva época de prosperidad se basó en tres supuestos principales: el desarrollo económico
como forma de resolver conflictos de distribución y controlar el comunismo, la integración europea
como garantía de evitar otra guerra mundial, y la coordinación internacional para prevenir crisis
disruptivas como las de la época de entreguerras.
El Plan Marshall contribuyó de manera decisiva al desarrollo industrial renovado de los países
europeos, impulsando la colaboración económica y facilitando la importación de materias primas
necesarias. Además, resolvió la "cuestión alemana" sin crear problemas de pagos por reparaciones
y, finalmente, generó el deseo en los europeos de imitar el estilo de vida estadounidense. Los
acuerdos monetarios internacionales establecidos en Bretton Woods en 1944, con la creación del
Fondo Monetario Internacional, el Banco Mundial y el GATT, también fueron muy importantes para
coordinar las medidas monetarias y comerciales a nivel mundial.
El gran auge que siguió se extendió a los países industrializados y a algunos de los nuevos países
surgidos de la descolonización. Sin embargo, aquellos países con una base industrial sólida
lograron reducir la brecha con Estados Unidos, lo que se conoció como un "milagro económico".
Por otro lado, la mayoría de los países emergentes de su pasado colonial experimentaron mejoras
limitadas, principalmente basadas en la venta de materias primas en los mercados internacionales.
El impulso hacia la integración europea fue más que una simple propuesta y dio lugar a la creación
de la Comunidad Europea del Carbón y del Acero, luego al Mercado Común y a otras iniciativas
comunitarias que dieron forma a la nueva economía europea. Esto detuvo rápidamente la
decadencia de las economías europeas y tuvo importantes repercusiones tanto en Estados Unidos
como en Europa del Este, que había quedado rezagada en el proceso de desarrollo.
Estos años fueron testigos de grandes cambios sociales y culturales, como el crecimiento de las
ciudades, cambios en los patrones de consumo, mayor movilidad de la población y un aumento
general en el nivel de vida. Las protestas sindicales fueron limitadas en parte debido a la alta
demanda de empleo, lo cual brindó a los trabajadores una buena oportunidad para mejorar su
situación económica.
La síntesis neoclásica
Está sección sobre la "síntesis neoclásica", que fue una respuesta de los economistas al enfoque
keynesiano después de la publicación de la Teoría General de Keynes. Esta síntesis neoclásica se
convirtió en la corriente principal de la economía después de la Segunda Guerra Mundial. Algunos
economistas importantes que contribuyeron a esta teoría fueron William Baumol, James
Duesenberry, Lawrence R. Klein, Franco Modigliani, James Edward Meade, Don Patinkin, Paul
Anthony Samuelson, Robert Solow y James Tobin.
Uno de los enfoques fundamentales de esta síntesis fue el modelo IS-LM, desarrollado por Hicks y
luego ampliado por Modigliani. Modigliani construyó un modelo "clásico generalizado" que incluía
tanto el modelo clásico como el keynesiano como casos especiales. Mostró que el modelo clásico
sigue la dicotomía entre el sector real y monetario de la economía, mientras que el modelo
keynesiano no garantiza el pleno empleo debido a los salarios rígidos. También demostró que la
rigidez de los salarios era necesaria para obtener las conclusiones de Keynes.
Patinkin, por su parte, desarrolló un modelo de equilibrio general que confirmaba la neutralidad del
dinero y la dicotomía clásica. Su teoría se basaba en la ausencia de ilusiones monetarias y en la
perfecta flexibilidad de precios en todos los mercados.
Además de esta síntesis teórica, los economistas neoclásicos realizaron investigaciones sobre
aspectos específicos de la teoría keynesiana para corregir sus defectos y ajustarla a los resultados
de la investigación empírica. Algunos de los problemas abordados fueron la función de consumo, la
demanda de dinero, la teoría de la inflación y la teoría del crecimiento.
En cuanto a la función de consumo, se propusieron varias teorías para explicar la relación entre
consumo e ingreso. Se discutió la estabilidad de la función de consumo a corto plazo y a largo
plazo, así como la influencia de la riqueza y el ingreso permanente en el consumo.
En resumen, la síntesis neoclásica fue una respuesta a la teoría keynesiana y se convirtió en la
corriente dominante de la economía después de la Segunda Guerra Mundial. Se basaba en el
modelo IS-LM y defendía la neutralidad del dinero y la dicotomía clásica. Los economistas
neoclásicos también realizaron investigaciones sobre aspectos específicos de la teoría keynesiana,
como la función de consumo, la demanda de dinero, la inflación y el crecimiento económico.
La Contrarrevolución Monetarista
La contrarrevolución monetarista comenzó en 1956 cuando Milton Friedman publicó "La Teoría
Cuantitativa del Dinero: una reafirmación". Friedman argumentó que la teoría cuantitativa del dinero
debía interpretarse como una teoría de la demanda de dinero y no como una simple explicación del
nivel de precios. Reformuló la teoría de la demanda de dinero teniendo en cuenta avances en la
investigación moderna, y propuso un modelo similar a los basados en elecciones de cartera.
Friedman también presentó la hipótesis de la estabilidad de la función de demanda de dinero como
una teoría del multiplicador monetario y del multiplicador de inversión. Argumentó que los estímulos
monetarios eran más efectivos que los estímulos fiscales, ya que el gasto público financiado
mediante endeudamiento aumentaría la tasa de interés y "desplazaría" las inversiones privadas,
mientras que un aumento en la oferta monetaria aumentaría los ingresos sin aumentar la tasa de
interés.
La contrarrevolución monetarista desafió la teoría subyacente de la curva de Phillips, argumentando
que el desempleo no estaba relacionado con las variaciones en los salarios monetarios, sino con
las variaciones en los salarios reales. Friedman introdujo la hipótesis de expectativas inflacionarias
y afirmó que las autoridades monetarias solo podían reducir el desempleo si generaban una tasa de
inflación mayor a la esperada.
A finales de la década de 1960, la teoría monetarista ganó fuerza política debido a la estanflación
de esos años, que parecía respaldar sus advertencias sobre los efectos inflacionarios de las
políticas keynesianas. Los monetaristas abogaron por restringir la expansión monetaria y reducir la
economía.
Sin embargo, la hegemonía del monetarismo fue efímera. Surgió una nueva corriente conocida
como "neomonetarismo" o "nueva macroeconomía clásica" a fines de la década de 1970. Aunque
vinculada al monetarismo tradicional, esta corriente se diferenciaba por su mayor refinamiento
teórico y metodológico, así como por su posición más extrema en cuanto a la política económica.
Los principales exponentes fueron Robert E. Lucas Jr., Thomas J. Sargent y Neil Wallace.
El neomonetarismo superó las debilidades del monetarismo al considerar las expectativas de
manera más racional y al adoptar hipótesis de expectativas racionales en lugar de expectativas
adaptativas. Esto implicaba que los agentes económicos formaban expectativas basadas en
información completa y correcta, lo que eliminaba la posibilidad de ser sistemáticamente
engañados. Esta nueva corriente planteó desafíos adicionales a la teoría keynesiana neoclásica y
condujo a un cambio en la dirección de la macroeconomía.
Del desequilibrio al equilibrio no walrasiano
En la década de 1960, se hizo evidente que el modelo de equilibrio walrasiano no era adecuado
para explicar la teoría de Keynes. Economistas como Patinkin, Clower y Leijonhufvud propusieron
modelos alternativos para estudiar las situaciones de desequilibrio y fundamentar
microeconómicamente la macroeconomía keynesiana.
Clower sugirió eliminar la idea de que los intercambios se realizan en equilibrio, argumentando que
fuera del equilibrio, las decisiones de los individuos no son compatibles entre sí. Esto lleva a una
dualidad decisoria en la que la demanda real se ve limitada por los ingresos monetarios disponibles.
Además, la falta de equilibrio implica la existencia de restricciones tanto en el gasto como en los
ingresos. Esto puede generar un proceso multiplicador similar al concebido por Keynes.
Leijonhufvud compartía una posición similar a la de Clower, pero destacaba el papel de las
deficiencias informativas en la generación de procesos multiplicadores. Al enfocarse en la falta de
información generada por los precios diferentes a los del equilibrio walrasiano, identificó el elemento
clave en este enfoque teórico y allanó el camino para los modelos de equilibrio no walrasiano
formulados en la década de 1970.
Estos modelos de equilibrio no walrasiano abandonaron la idea de flexibilidad de precios y
postularon la existencia de precios fijos. En estos modelos, los agentes económicos toman
decisiones en base a restricciones cuantitativas percibidas, lo que puede llevar a equilibrios en los
que no haya incentivos para cambiar las decisiones individuales. Dependiendo de las hipótesis
sobre los precios fijos, las restricciones cuantitativas y los agentes relacionados, se pueden
alcanzar diferentes tipos de equilibrio, incluyendo equilibrios con desempleo keynesiano y
equilibrios con desempleo clásico.
En resumen, los modelos de equilibrio no walrasiano surgieron como alternativas al modelo de
equilibrio walrasiano para explicar la teoría keynesiana. Estos modelos enfatizan el papel del
desequilibrio, las restricciones cuantitativas y los precios fijos en la economía, y muestran que el
caso de Keynes puede ser considerado como un caso de equilibrio no walrasiano temporal.
Enfoque post-keynesiano
El enfoque post-keynesiano es una reinterpretación crítica de la teoría neoclásica a través de la
perspectiva de Keynes. Los economistas post-keynesianos se consideran a sí mismos como
seguidores de Keynes y han intentado desarrollar un sistema teórico coherente basado en sus
ideas. Existen dos grupos principales de post-keynesianos: europeos y estadounidenses.
El grupo europeo se originó en la Universidad de Cambridge y está compuesto por economistas
como Richard Kahn, Joan Robinson, Nicholas Kaldor y Luigi Pasinetti. Estos economistas
interpretaron a Keynes desde una perspectiva cambridgiana, centrándose en la demanda efectiva y
la teoría de la distribución. Argumentaron que la demanda efectiva es fundamental para comprender
el equilibrio económico y que la teoría neoclásica del interés es errónea.
El grupo estadounidense se reunió en torno al Journal of Post-Keynesian Economics y está
compuesto por economistas como Hyman Minsky y Sidney Weintraub. Estos economistas han
centrado su atención en la dinámica monetaria y la importancia de las expectativas en la economía.
La diferencia principal entre los dos grupos radica en sus áreas de investigación favoritas:
crecimiento y distribución para los europeos, y dinámica monetaria para los estadounidenses. Sin
embargo, ambos grupos comparten la crítica a la síntesis neoclásica y buscan separar las ideas
verdaderamente keynesianas de los residuos neoclásicos y marshallianos.
En cuanto a la teoría de crecimiento y distribución, los post-keynesianos han desarrollado una
perspectiva alternativa basada en el teorema de la "copa de viuda", que sostiene que los ingresos
de los capitalistas dependen de su gasto. Joan Robinson y Nicholas Kaldor son dos de los
principales exponentes de esta teoría. Argumentan que la distribución de ingresos está determinada
por las políticas de precios de las empresas y el grado promedio de monopolio en la economía.
El enfoque post-keynesiano es una crítica a la teoría neoclásica y una reinterpretación de las ideas
de Keynes. Los economistas post-keynesianos se dividen en dos grupos principales, europeos y
estadounidenses, y han desarrollado teorías alternativas sobre crecimiento y distribución. Su
objetivo es construir un sistema teórico completo y coherente basado en las ideas de Keynes.
Las teorías monetarias modernas post-keynesianas surgieron en los años 70 y principios de los 80,
pero ya en 1963 Tobin hizo una importante contribución con su artículo "Commercial Banks as
Creators of Money", donde esbozó algunas presuposiciones teóricas fundamentales sobre la oferta
de dinero endógena. En la década de 1970, la teoría monetarista de Friedman descubrió que la
variación de la oferta de dinero ocurre en ciclos similares a los de la renta y los precede
sistemáticamente. Esto condujo a un ataque monetarista contra la teoría neoclásica keynesiana. Sin
embargo, las teorías post-keynesianas salieron fortalecidas de este debate, ya que argumentaban
que el nivel de renta depende de las decisiones autónomas de los empresarios y que la oferta de
dinero varía endógenamente en relación con la demanda de financiación para la inversión.
Estas teorías post-keynesianas sostienen que existe un doble vínculo causal que va desde las
inversiones hacia la demanda de dinero y desde las inversiones hacia la demanda agregada. Si la
oferta de dinero se ajusta rápidamente a la demanda, sus variaciones deben anticiparse a las de la
renta. Esto se debe a que el multiplicador keynesiano transmite el impulso de inversión a la renta
solo después de cierto retraso. Las contribuciones más importantes en ese debate fueron los
trabajos de Kaldor sobre "The New Monetarism" (1970) y el artículo de Tobin "Money and Income:
Post Hoc Ergo Propter Hoc?" (1970).
La naturaleza endógena de la oferta de dinero tiene efectos ambivalentes en la dinámica de la
economía capitalista. Por un lado, permite que el crecimiento de la inversión vaya más allá de la
capacidad inmediata de autofinanciación. Por otro lado, al hacerlo, exacerba la inestabilidad
intrínseca de un régimen de laissez-faire, creando las condiciones para crisis financieras
catastróficas e interrupciones drásticas en el crecimiento. Los efectos desestabilizadores que la
estructura del sistema financiero puede tener en la economía real han sido estudiados en
profundidad por Minsky en varios trabajos escritos en la década de 1970. Minsky propuso una
teoría de la crisis que se basa en la distinción keynesiana entre "riesgo del deudor" y "riesgo del
acreedor". Con la hipótesis de un aumento del riesgo, Minsky justificó la existencia de una curva
decreciente para la eficiencia marginal del capital, o el precio de demanda de capital. También
argumentó que la expansión del crédito hace que la oferta de dinero crezca arrastrando la base
monetaria hacia arriba.
En contraposición a las teorías neoclásicas, los postkeynesianos sostienen que la curva de costos
de una empresa es plana hasta que todas las plantas estén completamente utilizadas, y que los
precios se fijan mediante la aplicación de un margen de ganancia bruta a los costos variables.
Los postkeynesianos también cuestionan la curva de Phillips, tanto a corto como a largo plazo,
argumentando que una contracción o expansión de la demanda agregada no genera
automáticamente ajustes para alcanzar el pleno empleo. Por lo tanto, abogan por políticas fiscales
expansivas para estimular la demanda y contrarrestar la inflación mediante políticas de ingresos
que moderen los reclamos distributivos.
La Nueva Macroeconomía Keynesiana
En esta sección se mencionan las ideas desarrolladas por John Hicks después de su "conversión" a
mediados de la década de 1960. Esta conversión fue más drástica de lo que parecía a simple vista,
ya que Hicks rechazó las tesis sobre la distribución funcional del ingreso que él mismo formuló en
1932 en su libro "Teoría de los salarios" y también criticó la interpretación de Keynes basada en su
antiguo modelo IS-LM. Hicks rechazó este modelo principalmente porque no era adecuado para
comprender el papel de la preferencia por la liquidez en la determinación de la dinámica del empleo
y porque no tenía sentido determinar el equilibrio macroeconómico a través de dos curvas, una IS
que expresaba una condición de equilibrio de flujo y otra LM que expresaba una condición de
equilibrio de stock. Además, Hicks realizó otros cambios en su enfoque teórico, como aceptar las
críticas de Cambridge a la teoría neoclásica del capital, utilizar el método de sectores integrados
verticalmente y formular modelos de crecimiento no estacionario, y revisar la teoría del dinero.
Sin embargo, lo más importante de este "Hicks posterior" es que sentó las bases teóricas de la
nueva macroeconomía keynesiana de la década de 1980 con su modelo de precios fijos. Este
enfoque va más allá del argumento neoclásico tradicional de que los resultados obtenidos por
Keynes dependen del abandono de la hipótesis de competencia perfecta y también va más allá de
la observación de que la mayoría de los modelos macroeconómicos keynesianos presuponen
precios fijos. Hicks rechazó en bloque la teoría neoclásica de formación de precios en un régimen
de competencia, argumentando que solo en ciertos mercados, como los especulativos, las hipótesis
tradicionales de precios flexibles tienen sentido. En los mercados de bienes industriales, los precios
son determinados por los propios agentes económicos, quienes los ajustan en respuesta a señales
económicas como las variaciones en los salarios y otros precios. Esto no significa que los precios
sean "rígidos", sino que no cambian tan rápidamente como sugieren los libros de texto
microeconómicos neoclásicos. La principal consecuencia de esto es que es necesario rechazar el
prejuicio extendido, de origen marshalliano, de que las variaciones de precios predominan en los
ajustes a corto plazo y las variaciones de cantidades en los ajustes a largo plazo.
El enfoque de precios fijos tuvo éxito en las décadas de 1970 y 1980. Además de los modelos de
equilibrio no walrasiano inspirados en él y los modelos post-keynesianos que adoptaron la hipótesis
de precios fijos mucho antes de que Hicks la propusiera nuevamente, en los últimos veinte años se
ha desarrollado una corriente de pensamiento que ha colocado esta hipótesis en el centro del
análisis macroeconómico y ha avanzado más en la búsqueda de justificaciones microeconómicas.
Aunque aún no se ha alcanzado un consenso absoluto en la comunidad económica, la hipótesis de
precios fijos ha ganado atención y ha sido objeto de investigación en el campo de la
macroeconomía.
Esta corriente de pensamiento sostiene que los precios no se ajustan instantáneamente para
equilibrar la oferta y la demanda en todos los mercados, como lo sugiere el enfoque walrasiano
tradicional. En cambio, argumenta que los precios pueden ser rígidos en el corto plazo debido a
diversas razones, como costos de ajuste, información imperfecta o comportamiento estratégico de
las empresas.
Al adoptar la hipótesis de precios fijos, los modelos macroeconómicos pueden analizar cómo los
shocks o perturbaciones en la economía pueden afectar el equilibrio y generar fluctuaciones
económicas. También permiten examinar la eficacia de las políticas monetarias y fiscales en un
entorno donde los precios no se ajustan rápidamente.
Si bien esta corriente de pensamiento ha avanzado en la justificación microeconómica de los
precios fijos, todavía existen debates sobre cómo incorporar de manera más precisa estos aspectos
en los modelos macroeconómicos y cómo reconciliarlos con la teoría tradicional del equilibrio
walrasiano.
En resumen, aunque el enfoque de precios fijos ha sido objeto de estudio y ha ganado importancia
en el análisis macroeconómico, todavía hay discusiones en curso sobre su validez y su integración
en los modelos económicos.
Después de la contra-revolución monetarista, el modelo IS-LM cayó en desuso, aunque en los
últimos años ha mostrado signos de recuperación. Por un lado, un número creciente de
economistas keynesianos de diversas orientaciones lo consideraron inadecuado para representar
correctamente el pensamiento de Keynes. Por otro lado, los macroeconomistas nuevos clásicos
también lo encontraron insuficiente y criticaron sus fundamentos microeconómicos no ortodoxos, la
teoría de la no neutralidad del dinero y la hipótesis de expectativas exógenas y no racionales.
Además, la "crítica de Lucas" generó dudas sobre la estabilidad de las curvas IS y LM,
argumentando que podrían desplazarse como consecuencia de las políticas que las curvas mismas
sugieren.
El factor decisivo que llevó a la renuncia del modelo fue que muchos economistas, guiados por
intereses en la investigación monetarista, desviaron su atención hacia el problema de la inflación. El
aparato analítico IS-LM se basa en la hipótesis de que el nivel de precios es un dato y solo de
manera bastante complicada puede utilizarse para explicar las fluctuaciones en el equilibrio que
siguen a las variaciones en la inflación. Por lo tanto, fue reemplazado por un esquema conocido
como el modelo de oferta y demanda agregada (AD-AS), diseñado precisamente para tener en
cuenta las variaciones en el equilibrio en presencia de inflación.
Texto 15: Friedman, M. (1956). La metodología de la economía positiva. En: Revista
de Economía Política, IX (23), p. 355-396
John Neville Keynes distingue entre “una ciencia positiva”, un cuerpo de conocimiento
sistematizado concerniente a lo que es; y una ciencia normativa u ordenadora, un cuerpo
de conocimiento sistematizado que discute los criterios sobre lo que debe ser; un arte, un
sistema de reglas para la consecución de un fin dado, y puntualiza que la “confusión entre
ellas es corriente y ha sido la fuente de muchos errores perjudiciales”, señalando con
insistencia la importancia de admitir una ciencia positiva”.
1.- Relación entre la economía positiva y normativa.
Las conclusiones de la economía positiva parecen, y son, relevantes para grandes
problemas normativos, para cuestiones sobre lo que debe hacerse y cómo debe
conseguirse cualquier meta fijada.
La economía positiva es un principio independiente de cualquier posición ética particular o
de juicios normativos. Su objetivo es proporcionar un sistema de generalizaciones que
puedan usarse para hacer predicciones correctas sobre las consecuencias de cualquier
cambio en las circunstancias.
La economía normativa y el arte de la economía, por otro lado, no pueden ser
independientes de la economía positiva.
Si este juicio es válido significa que un acuerdo sobre una política económica “correcta”
depende mucho menos del progreso de la economía normativa que del progreso de una
economía positiva que obtenga conclusiones que sean ampliamente aceptadas.
2.- Economía positiva
El último objetivo de una ciencia positiva es el desarrollo de una “teoría” o “hipótesis” que
produzca predicciones válidas y significativas sobre fenómenos todavía no observados. Es
una mezcla de dos elementos, en parte es un lenguaje que promueve “métodos
sistemáticos y organizados de razonamiento” y en parte es un cuerpo de hipótesis
sustantivas encargadas de abstraer rasgos esenciales de la compleja realidad.
Como lenguaje: la teoría carece de contenido sustantivo. Su cometido es servir como
sistema ordenador para organizar el material empírico y facilitar su comprensión; y los
criterios por los que ha de juzgarse son los propios de un sistema clasificador.
Los cánones de la lógica formal pueden mostrar por sí solos si un lenguaje particular es
completo y consistente.
La evidencia de hecho, por sí sola, puede mostrar si las categorías del “sistema ordenador
analítico” tienen una contrapartida empírica con sentido.
Considerada como un cuerpo de hipótesis sustantivas, la teoría debe ser juzgada por su
poder predictivo para la clase de fenómenos que intenta explicar”. Solo la evidencia de
hecho puede mostrar si es “acertada” o “equivocada”. La única prueba decisiva de la
validez de una hipótesis es la comparación de sus vaticinios con la experiencia. La
evidencia de hecho nunca puede “probar” una hipótesis; únicamente puede evitar el que
sea desaprobada. Las predicciones por las que la validez de una hipótesis no se aprueba
no necesitan ser sobre fenómenos que no han ocurrido todavía, pueden ser sobre
fenómenos que han ocurrido, bien por observaciones que no han sido todavía realizadas o
son desconocidas de la persona que hace la predicción.
En este sentido la validez de una hipótesis no es por sí misma un criterio suficiente para
elegir entre hipótesis alternativas, porque aún cuando una hipótesis concuerde con la
evidencia utilizable existen un infinito número de ellas.
Una teoría es “más sencilla” cuanto menos conocimiento inicial necesita para hacer un
vaticinio en un campo dado de fenómenos; es más “fértil” cuanto más precisa sea la
predicción resultante, cuanto más amplio sea el campo en que la teoría produce vaticinios.
La imposibilidad de la evidencia dramática y directa del experimento “crucial” entorpece la
adecuada prueba de las hipótesis en la Ciencia Económica”, pero esto tiene menos
importancia que la dificultad que esto supone para conseguir una aprobación
razonablemente rápida y amplia de las conclusiones avaladas por una evidencia válida.
Motiva que el rechazar una hipótesis sin éxito sea una labor lenta y difícil.
Hay una considerable variación a este respecto. Ocasionalmente la experiencia
proporciona una evidencia que es casi tan directa, dramática y convincente como
cualquiera otra que puedan proporcionar los experimentos controlados. Las tautologías
tienen un lugar muy importante en la economía y en otras ciencias como lenguaje
especializado.
Una consecuencia más seria de la dificultad de probar las hipótesis económicas por sus
vaticinios es el alentar al desconcierto sobre el papel de la evidencia empírica del trabajo
teórico. Los dos momentos de elaboración de la hipótesis y la prueba de su validez están
relacionados en dos aspectos, en primer lugar, los hechos particulares que entran en cada
etapa son en parte una consecuencia de los datos disponibles y del conocimiento de cada
investigador. En segundo lugar, el proceso difícilmente parte de la nada; la etapa inicial
requiere la comparación de las deducciones de una primera serie de hipótesis con la
observación, la contradicción de las deducciones.
Una hipótesis es importante si “explica” mucho con poco, o sea si abstrae los elementos
comunes y cruciales de la masa de circunstancias complejas y detalladas que rodean al
fenómeno que va a explicarse y permite unas predicciones válidas. Por tanto, una hipótesis
para ser importante debe poseer supuestos descriptivamente falsos, ya que no toma en
cuenta la mayor parte de las circunstancias reales.
El problema esencial en torno a los “supuestos” de una teoría no es, si son
descriptivamente “realistas”, porque nunca lo son, sino, si constituyen aproximaciones lo
suficientemente buenas para resolver el problema de que se trate. Y esta cuestión puede
contestarse sólo comprobando si la teoría funciona, lo que sucede si proporciona vaticinios
bastante seguros. Así la doble prueba de la teoría, de la que antes de hablar, se reduce a
una sola.
3.- ¿Puede probarse una hipótesis por el realismo de sus supuestos?
El problema importante en relación con la hipótesis es especificar las circunstancias bajo
las que la fórmula sirve o, más exactamente, el alcance general del error en sus vaticinios
bajo diversas circunstancias. La especificación es a su vez parte esencial de la hipótesis
una parte que probablemente se revisará y extenderá a medida que la evidencia disponible
aumente.
Con todo, no siempre conviene utilizar la teoría más general, porque la exactitud mayor que
ésta proporciona puede no justificar su mayor coste y, por tanto, el problema de bajo que
circunstancias una teoría más sencilla resulta lo bastante apropiada, sigue siendo
importante. La utilización adecuada de los supuestos al especificar las circunstancias por
las que una teoría se acepta es frecuentemente, y por error, interpretada como si quisiera
decir que los supuestos pueden utilizarse para determinar las circunstancias por las que la
teoría se admite y ha sido, en este sentido, una importante fuente para sustentar la
creencia de que una teoría debe probarse por sus supuestos.
Un segundo e incluso más importante conjunto de evidencias para sustentar la hipótesis de
la maximización de beneficios es la experiencia de las innumerables aplicaciones de la
hipótesis a problemas específicos y que sus deducciones no sean contradichas. La
evidencia para aceptar una hipótesis consiste siempre en los repetidos fracasos de sus
contradicciones que deben acumularse en la medida en la que se utiliza la hipótesis,
evidencia ésta que por su misma naturaleza es difícil de documentar totalmente.
4.- Significado y papel de los “supuestos” de una teoría
Hemos visto que una teoría no puede probarse por el “realismo” de una teoría está rodeado
de vaguedad. Pero si eso fuera todo, sería difícil explicar el extendido uso del concepto y la
tenacidad con la que todos hablamos de los supuestos de una teoría y comparamos los
supuestos de teorías alternativas.
En la metodología, como en la ciencia positiva, las definiciones negativas pueden hacerse
en general con más seguridad que las afirmaciones. Los supuestos de una teoría juegan
tres papeles positivos diferentes, aunque relacionados:
a) El uso de los “supuestos” en la exposición de una teoría.
Una hipótesis o teoría consiste en afirmar que ciertas fuerzas son y, por deducción otras no
lo son, importantes para una clase de fenómenos que pretenden explicarse, al mismo
tiempo que especifica la manera en que actúan las fuerzas que se consideran importantes.
La hipótesis puede considerarse por dos partes: 1) Un mundo conceptual o modelo
abstracto más sencillo que el “mundo real”, que contiene tan sólo las fuerzas que la
hipótesis asegura que son importantes, 2) una serie de reglas que definen la clase de
fenómenos para los que el “modelo” puede considerarse como una adecuada
representación del “mundo real”, que especifiquen la correspondencia entre las variables o
entidades del modelo y los fenómenos observables.
Las reglas para la utilización del modelo, por otro lado, no es posible que sean tan
abstractas y completas. Deben ser concretas, y, por consiguiente, incompletas con más
facilidad, aún incluso entonces no de forma completa, cuando la teoría forma parte de una
teoría más general.
Al hablar de los “supuestos cruciales” de una teoría, estamos, creo yo, tratando de fijar los
elementos clave de un modelo abstracto. Por lo regular, hay muchos medios diferentes de
describir el modelo en su integridad. Estos son lógicamente equivalentes; lo que son
considerados como axiomas o postulados de un modelo desde un punto de vista, pueden
ser tomados como teoremas desde otro, y, al contrario.
Los “supuestos” especiales, llamados “cruciales”, se seleccionan en atención a su
conveniencia, sencillez y brevedad, para describir el modelo, su plausibilidad intuitiva o su
capacidad para sugerir, si bien tan sólo por deducción, algunas de las consideraciones que
son esenciales para juzgar o aplicar el modelo
b) El uso de los “supuestos”, como prueba indirecta de una teoría
La posibilidad de intercambiar teoremas y axiomas en un modelo abstracto implica la
posibilidad de intercambiar “deducciones” y “supuestos” en la hipótesis sustantiva
corresponde al modelo abstracto, lo que no quiere decir que cualquier deducción puede
intercambiarse con cualquier supuesto, sino tan sólo que puede haber más de una serie de
afirmaciones que impliquen a los restantes.
Lo que llamamos supuestos de una hipótesis pueden utilizarse para conseguir alguna
evidencia indirecta para la aceptación de la hipótesis, en la medida en la que los mismos
supuestos pueden considerarse como deducciones de las hipótesis, y, por lo tanto, su
adecuación con la realidad como un impedimento para la contradicción de algunas
deducciones o en tanto que los supuestos posean otras deducciones de las hipótesis
susceptibles de una observación empírica. Otro medio por el que los "supuestos" de una
hipótesis puede facilitar su comprobación indirecta es manifestando su parentesco con
otras hipótesis, y de este modo confirmar su validez a través de la validez de las hipótesis
en cuestión.
Este género de evidencia indirecta obtenida de hipótesis relacionadas explica en gran
medida la diferencia en la confianza otorgada a hipótesis concretas por la gente con ideas
dispares, nunca hay una certeza en la ciencia y el peso de la evidencia en pro o en contra
de una hipótesis nunca, puede señalarse "objetivamente" por completo.
c)
Algunas veces un medio inconveniente para especificar las condiciones bajo las que se
espera que la teoría sea válida.
5.- Algunas implicaciones para los principios económicos
Los principios metodológicos abstractos que hemos estado discutiendo guardan una
relación directa con la perenne crítica de la teoría económica “ortodoxa” como “irreal” y con
los intentos realizados para formular una teoría que afronte una crítica. Como hemos visto,
la crítica de este tipo está fuera de lugar si no va acompañada por la evidencia de que una
hipótesis diferente en uno u otro aspecto de la teoría que se critica proporciona mejores
predicciones para una amplia serie de fenómenos. Sin embargo, la mayor parte de tal
crítica no se complementa de esta forma; se basa casi por entero en las discrepancias
entre los "supuestos" y el "mundo real".
Una teoría o sus "supuestos" no pueden posiblemente ser totalmente "realistas" en el
sentido descriptivo inmediato dado frecuentemente a este término. Pero en tanto que la
prueba de "realismo" sea la seguridad descriptiva de los "supuestos" percibida
directamente no hay razón para hacer tal distinción.
La confusión básica entre la precisión descriptiva y pertinencia analítica que se halla detrás
de muchas de las críticas sobre la teoría económica en el plano de que sus supuestos son
irreales. Una hipótesis fundamental de la ciencia es que las apariencias son engañosas y
que hay un medio de mirar, interpretar y organizar la evidencia que revelará qué fenómenos
superficialmente desconectados y diversos son manifestaciones de una estructura más
fundamental y relativamente sencilla. Y la prueba de esta hipótesis, como la de cualquier
otra, son sus resultados, una prueba que la ciencia ha aportado siempre. Si una clase de
"fenómenos económicos" se muestran variados y complejos, hay que suponerlo, porque
carecemos de una teoría adecuada para explicarlos. La confusión entre la precisión
descriptiva y la pertinencia analítica ha conducido no sólo a la crítica de la teoría económica
en cuestiones bien intrascendentes, sino también al desconocimiento de la teoría
económica y desviación de los esfuerzos para corregir los supuestos defectos. Los "tipos
ideales" de los modelos abstractos desarrollados por los teóricos de la economía se han
considerado como categorías estrictamente descriptivas, encaminadas a coincidir directa y
completamente con entidades del mundo real, independientemente del propósito con el
que el modelo debería utilizarse.
Teoría más general: Tal teoría nos permitiría operar en problemas en que ahora no
podemos hacerlo y, además, facilitar la determinación de la serie de circunstancias bajo las
que una teoría más simple puede considerarse como una buena aproximación. Para
cumplir con este cometido, la teoría más general debe tener contenido y sustancia; debe
poseer implicaciones susceptibles de contrastación empírica y de sustantivo interés e
importancia.
6.- Conclusiones
La economía como ciencia positiva es un cuerpo de generalizaciones aceptadas sobre los
fenómenos económicos, que pueden utilizarse para vaticinar las consecuencias de los
cambios dados en las circunstancias. La familiaridad con el objeto de la ciencia económica
provoca una actitud despreciativa hacia la adquisición del conocimiento especial sobre el
mismo. La necesidad de confiar en la experiencia incontrolada, más que en los
experimentos controlados, hace difícil obtener una evidencia dramática y tajante que
justifique la aceptación de las hipótesis formuladas. La necesidad de apoyarse en la
experiencia incontrolada no afecta al principio metodológico fundamental de que una
hipótesis debe robarse sólo por 'la conformidad de sus deducciones o predicciones con los
fenómenos observables; sin embargo, hace que la prueba de las hipótesis sea más difícil y
da pie a errores sobre determinados principios metodológicos.
Una confusión que ha sido especialmente común, y ha hecho mucho daño, es la relativa al
papel de los "supuestos" en el análisis económico. Una hipótesis científica significativa o
una teoría, afirma que ciertas fuerzas son y otras, en cambio, no son importantes para
entender una clase peculiar de fenómenos.
Una teoría no puede probarse comparando sus "supuestos" directamente con la "realidad".
Sin duda, no hay medio alguno por el que esto pueda hacerse. La idea de que una teoría
puede probarse por el realismo de sus supuestos, independientemente de la precisión de
sus vaticinios, está muy extendida y es la fuente de gran parte de la crítica constante de
que la teoría económica no es realista. Una valoración referente al estado actual de la
economía positiva, un resumen de la evidencia en que se apoya «su validez y la fijación del
crédito relativo que cada parte merece, es desde luego una tarea para un tratado o una
colección de tratados, si es que esta tarea es posible, no para un breve artículo sobre
metodología. Los modelos abstractos que corresponden a estas hipótesis han sido
elaborados con gran detalle y han ganado mucho en rigor y precisión. El material
descriptivo sobre las características de nuestro sistema económico y sus operaciones ha
sido reunido en una escala sin precedentes.
El progreso en la economía positiva requerirá no sólo la prueba y elaboración de las
hipótesis existentes, sino también la construcción de otras nuevas. La metodología de la
economía positiva de Milton Friedman se basa en el enfoque científico de la economía, que
busca describir y predecir los fenómenos económicos de manera objetiva, sin emitir juicios
de valor. Friedman es considerado uno de los principales exponentes de la escuela de
pensamiento económico conocida como monetarismo.
Según Friedman, la economía positiva se centra en el análisis de los hechos y la
formulación de teorías económicas basadas en evidencia empírica. Los economistas deben
utilizar métodos rigurosos, como la recolección de datos, la observación y el análisis
estadístico, para desarrollar y probar sus teorías. El objetivo es comprender cómo
funcionan los sistemas económicos y predecir sus resultados.
Friedman argumenta que la economía positiva debe ser separada de la economía
normativa, que se refiere a las opiniones y juicios de valor sobre cómo deberían ser las
políticas económicas. Según él, los economistas pueden y deben ofrecer asesoramiento
sobre las consecuencias de las políticas, pero la elección final entre diferentes cursos de
acción debe basarse en consideraciones políticas y éticas, no en análisis económicos.
Friedman también enfatiza la importancia de los mercados libres y la competencia en la
economía. Sostiene que, en general, los mercados libres son más eficientes para asignar
recursos que la intervención gubernamental. Argumenta a favor de la reducción de la
regulación y el control del gobierno sobre la economía, así como de la promoción de la libre
empresa y la libertad individual.
En resumen, la metodología de la economía positiva de Milton Friedman se basa en el
enfoque científico de la economía, utilizando métodos rigurosos para describir y predecir
los fenómenos económicos. Aboga por la separación entre la economía positiva y la
normativa, promoviendo la importancia de los mercados libres y la competencia en la
economía.
Texto 16: Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza
Editorial, pp 115-134
¿Ultraempirismo?
El libro "The Significance and Basic Postulates of Economic Theory" de Terence Hutchison,
publicado en 1938, introdujo el criterio metodológico de falsabilidad de Popper en los debates
económicos. Hutchison reconoció la importancia del criterio de demarcación de Popper antes de
que se conociera ampliamente su trabajo. En su libro, Hutchison argumentó que todas las
proposiciones económicas pueden clasificarse como tautológicas o empíricas, y tendió a
caracterizar la mayoría de las proposiciones económicas como tautologías. Sin embargo, esta
clasificación no tuvo en cuenta la distinción entre proposiciones que son simplemente definiciones
disfrazadas y aquellas que son contrastables pero están formuladas de manera que impiden su
contrastación. Además, Hutchison defendió la necesidad de contrastar empíricamente las
proposiciones económicas y criticó a los economistas por proponer afirmaciones empíricas
no-contrastables en lugar de tautologías.
Hutchison fue acusado de ultraempirismo por Machlup, quien argumentó que la contrastación
directa de supuestos fundamentales en economía era gratuita y engañosa. Hutchison respondió
que la contrastación de supuestos podía realizarse tanto directamente como indirectamente a
través de la contrastación de las conclusiones derivadas de esos supuestos. Hutchison defendió la
contrastabilidad empírica tanto de los supuestos como de las implicaciones de las teorías
económicas.
En ese momento, los apriorismos, que consideraban que la economía se basaba en deducciones
puras sin necesidad de verificación externa, eran prominentes en el pensamiento económico. Frank
Knight rechazó las ideas de Hutchison y defendió que las proposiciones económicas no podían ser
contrastadas empíricamente debido a su naturaleza teleológica y su dependencia del conocimiento
intuitivo.
Es importante tener en cuenta el contexto histórico de la época, donde los apriorismos eran
ampliamente aceptados y el debate metodológico estaba en curso. Hutchison continuó defendiendo
la relevancia de las prescripciones metodológicas de Popper en economía, pero reconoció que el
enfoque monista o dualista en metodología tenía sus desafíos y limitaciones.
El operacionalismo:
En 1936, Percy Bridgman desarrolló el operacionalismo metodológico en su obra "The Nature of
Physical Theory". En ese mismo periodo, Paul Samuelson comenzó a escribir su tesis doctoral
sobre los fundamentos del análisis económico, donde abordó la significación operacional de la
teoría económica. Samuelson demostró que los supuestos de maximización condicionada no eran
suficientes para derivar la mayoría de las predicciones económicas. Además, estableció la
distinción entre el razonamiento estático comparativo (cálculo cuantitativo) y el cálculo cualitativo.
Samuelson buscaba obtener teoremas operacionalmente significativos en economía, es decir,
hipótesis que pudieran ser concebiblemente refutadas. Sin embargo, su concepto de teorema
operacionalmente significativo se asemejaba más al falsacionismo popperiano que al
operacionalismo tal como lo estableció Bridgman.
Donald Gordon intentó precisar el significado del operacionalismo en economía, definiendo la
proposición operacional como aquella que implica una operación que podría realizarse en principio
y cuyos resultados podrían contrastar la proposición. Añadió la operación de introspección además
de las operaciones físicas. Su definición de operacionalismo se aproximaba a la idea de falsabilidad
de Popper. Gordon también aplicó el principio de correspondencia de Samuelson para reinterpretar
la definición de teorema operacionalmente significativo, estableciendo la importancia del cálculo
cualitativo.
En cuanto al ensayo "Metodología de la Economía Positiva" de Milton Friedman, su tesis central
afirmaba que los economistas no deberían preocuparse por adoptar supuestos "realistas". Esta
afirmación generó una controversia que duró casi una década, y la argumentación de Friedman es
compleja, lo que ha llevado a diferentes interpretaciones entre los economistas. El ensayo presenta
dos tesis diferentes, pero poco relacionadas entre sí.
La tesis de la irrelevancia-de-los-supuestos
La tesis de la irrelevancia de los supuestos, presentada por Friedman en su ensayo, se centra en la
unidad metodológica de las ciencias físicas y sociales, incluida la economía positiva. Friedman
argumenta que las teorías económicas deben ser juzgadas por su poder predictivo y no por la
conformidad de sus supuestos con la realidad. Según él, una hipótesis debe ser descriptivamente
falsa en sus supuestos para ser importante y su validez se determina mediante la comparación de
sus predicciones con la experiencia.
Friedman critica la idea de que los supuestos realistas proporcionan una forma adicional de
contrastar una teoría, ya que considera que esto es erróneo y genera inconvenientes. Señala que
todas las teorías económicas idealizan el comportamiento de los agentes económicos y simplifican
las condiciones iniciales, por lo que son descriptivamente inexactas. Además, argumenta que el
realismo de los supuestos en cuanto a las motivaciones de los agentes económicos no es
relevante, ya que las teorías basadas en supuestos "como-si" pueden tener capacidad predictiva.
Sin embargo, Friedman admite que los supuestos pueden tener un papel indirecto en la
contrastación de una teoría. Incluso aunque una teoría sea considerada falsa en base a la evidencia
empírica, sus supuestos pueden ser implicaciones de otra teoría más amplia que sí ha sido
contrastada. Friedman también reconoce que los supuestos son importantes para especificar el
campo de aplicación de una teoría.Es importante tener en cuenta que Friedman no distingue
claramente entre diferentes tipos de supuestos, como proposiciones sobre motivaciones,
comportamiento real, relaciones funcionales, restricciones o condiciones de aplicabilidad. Esto ha
llevado a confusiones en la interpretación de su tesis.
En resumen, la tesis de la irrelevancia de los supuestos de Friedman sostiene que los supuestos
realistas no son necesarios ni relevantes para evaluar una teoría económica, y que su validez se
determina principalmente por su poder predictivo y capacidad de contrastación.
La característica-F :
El texto se refiere al debate entre Friedman y Samuelson sobre la característica-F y la metodología
en la economía. Samuelson intentó reducir la argumentación de Friedman a la versión básica de la
característica-F, pero abandonó su defensa del "operacionalismo" y adoptó el "descriptivismo". Esto
generó críticas hacia Samuelson, ya que muchos consideraron que su nueva metodología era peor
que la de Friedman.
Samuelson argumentó que la falta de realismo en los supuestos de una teoría no afecta su validez,
e incluso afirmó que los supuestos poco realistas pueden tener mérito si simplifican la realidad. Sin
embargo, Friedman y otros críticos consideraron que el realismo de los supuestos es importante y
que la inexactitud fáctica de los mismos debilita la teoría.Se menciona que la demostración lógica
de Samuelson sobre la falacia de la característica-F se basa en una teoría axiomatizada completa,
lo cual no es aplicable a la mayoría de las teorías económicas. Además, se argumenta que incluso
una teoría axiomatizada requiere condiciones iniciales y supuestos auxiliares "realistas" para ser
empíricamente contrastada.
Se critica el compromiso de Friedman con la metodología del instrumentalismo, que considera a las
teorías como meros instrumentos generadores de predicciones. Se señala que una teoría puede
proporcionar predicciones precisas sin explicar el mecanismo causal detrás de ellas, lo cual es
insuficiente para la ciencia.
El texto también menciona que tanto Friedman como Samuelson adoptan una metodología
defensiva para proteger a la economía de las críticas al irrealismo de sus supuestos y a la falta de
predicciones contrastadas. Se hace referencia a casos en los que tanto Friedman como Samuelson
han inferido consecuencias sobre el mundo real a partir de supuestos poco realistas.
En resumen, el texto analiza el debate entre Friedman y Samuelson sobre la característica-F y la
metodología en la economía. Critica la postura de Samuelson de reducir la importancia del realismo
de los supuestos y cuestiona la metodología defensiva adoptada por ambos autores para proteger a
la economía de las críticas.
—-------------------------------------------------------------------------------------------------------------------------Texto 19: Rutherford, Malcolm (1985). La economía institucional: antes y ahora*.
Distrito Federal, México: Universidad Autónoma Metropolitana Unidad Azcapotzalco,
pp. 13 - pp. 39.
La economía institucional: antes y ahora.
Formación y atractivo del institucionalismo estadounidense
Se plantea que los fundadores del institucionalismo fueron Thorstein Veblen, Wesley
Mitchell y John R. Commons. Siendo Thorstein Veblen quien dio la inspiración intelectual al
institucionalismo.
El primer institucionalismo cuenta con una gran influencia de Veblen. Dicho sistema
subraya la naturaleza acumulativa y dependiente de la trayectoria del cambio institucional,
el papel de la nueva tecnología en el origen del cambio institucional y el carácter
predominantemente pecuniario del conjunto de instituciones estadounidenses. Estas
instituciones eran consideradas como una forma de restricción de la actividad individual.
Además, abarcaban formas de pensamiento que eran generalmente aceptadas. De esta
forma, se planteaba que las instituciones eran las encargadas de modelar las preferencias y
los valores de los individuos.
Veblen no compartía el pensamiento de que las instituciones funcionaran con el fin de
promover el beneficio social, sino que pensaba lo contrario. Las instituciones existentes
contaban con tanta inercia hacia cualquier plan establecido como hacia las acciones de los
intereses existentes. Estas tendían a perder el ritmo con los avances tecnológicos y los
problemas económicos y sociales que generaban. De esta forma, para Veblen las
instituciones estadounidenses eran consideradas como anticuadas e inadecuadas para la
tarea del control social de la industria moderna. Según Walton Hamilton, esto creaba una
brecha entre las industrias que tenemos y las organizaciones sociales obsoletas. Wesley
Mitchell expresaría un pensamiento similar, pero enfocado en el conflicto de "producir
bienes y ganar dinero".
Veblen plantearía que la noción de "mano invisible" del mercado es aplicable en casos
donde las condiciones de las manufacturas son de pequeña escala, pero las condiciones
cambian cuando pasan a ser producción a gran escala. Veblen sería particularmente duro
en lo que respecta a las tácticas de manipulación usadas en las negociaciones para
generar ingresos, así como a la pérdida generada por la restricción monopolística, ciclos
económicos y desempleo. Muchos institucionalistas tuvieron intereses significativos en
cuestiones de leyes y economía. Commons construyó su propuesta basándose en las
nociones de capacidad de penetración de los conflictos de distribución del poder legislativo
y los tribunales al intentar resolver conflictos. Los institucionalistas en leyes y economía
abarcaron temas como la evolución de los derechos de propiedad, el contexto legal de las
transacciones, la propiedad intangible y el crédito mercantil. La gran importancia que tuvo
el atractivo institucionalista fue la afirmación de que este representaba el ideal de la ciencia
empírica. Fue de gran influencia la combinación que realizó Wesley Mitchell de las ideas
veblenianas con la economía monetaria, teniendo como enfoque principal el cuantitativo y
estadístico que habían utilizado los estudiantes de Chicago. Mitchell comenzaría a trabajar
en la evolución y el funcionamiento de las instituciones de la economía monetaria,
incluyendo el desarrollo fuera del sistema señorial de los derechos laborales. Pero eso no
tendría un buen final, ya que Mitchell abandonaría esta propuesta y culminaría con el
Business Cycle. En este libro, Mitchell concedería a los ciclos económicos como un
fenómeno que surgiría del comportamiento generado por las instituciones de una
economía monetaria. Llegando a la conclusión de que son las instituciones las que generan
las regularidades en el comportamiento de las masas que el trabajo cuantitativo analiza.
Con el paso del tiempo, se seguía sosteniendo que el institucionalismo era más científico
que la economía ortodoxa, debido a que era más empírico y se encontraba en línea con las
últimas investigaciones de otras disciplinas. Después de la Primera Guerra Mundial, la
corriente institucionalista parecía ser la que perdurará en el tiempo. Ofrecía una propuesta
económica que afirmaba ser moderna y científica, centrada en el examen crítico de la
estructura institucional existente. Estaba en línea con los métodos empíricos de las
ciencias exactas y se basaba en los últimos estudios de psicología, filosofía y derecho.
Además, estaba estrechamente vinculada a cuestiones importantes y urgentes de reforma
económica y social.
Ascenso del institucionalismo estadounidense en el periodo de entreguerras
La guerra había impreso en muchos la gran importancia de perfeccionar la información
económica y el análisis de políticas y el papel potencial del gobierno sobre la economía.
Durante el período de reconstrucción se darían las oportunidades significativas para
cambiar la conducta de la investigación económica. Diversas instituciones estarían
compitiendo por ser los líderes de esta corriente, entre ellos Columbia y Wisconsin llegaron
a ser los centros más importantes del institucionalismo. Dentro de ambas instituciones se
encontrarán grandes exponentes del institucionalismo como Wesley Mitchell, J. M. Clark, F.
C. Mills, Rexford Tugwell. El movimiento institucionalista hizo varias contribuciones
positivas como lo fueron mediciones serias de la economía. Es decir, debido a su visión
científica, los institucionalistas propusieron perfeccionar seriamente la medición
económica. La NBER llegaría a realizar diversos estudios y de gran relevancia sobre los
ciclos económicos, movimientos de precios, además de jugar un papel fundamental en el
desarrollo de la contabilidad del ingreso nacional. En conjunto con la Reserva Federal, la
NBER realizaría grandes desarrollos sobre la información monetaria y financiera. Morris
Copeland sería conocido por los diversos estudios realizados sobre los flujos monetarios,
los cuales terminaron siendo una pieza fundamental para el cálculo de flujos de recursos
financieros. Los institucionalistas se encontraban sumergidos en la mejora del trabajo
estadístico de las diferentes dependencias gubernamentales. Walter Stewart se encontraba
inmerso en el perfeccionamiento de la división estadística y la investigación de la Reserva
Federal, dichos trabajos seguirán de la mano de Winfield Riefler. Los institucionalistas
realizaron relevantes contribuciones a varios debates claves en la economía, los temas
serían diversos como la psicología y economía, ciclos económicos, comportamiento de las
empresas en la fijación de precios, propiedad y control de las corporaciones, monopolio y
competencia, sindicatos y demás. En lo que respecta a los temas de la psicología y
economía se destacaría el ensayo de J. M. Clark "Economics and Modern Psychology"
debido a que se anticipó a otros estudios modernos sobre la toma de decisiones y la
racionalidad limitada. Mitchell y Burns destacaron en los temas sobre los ciclos
económicos, debido a que basarían su planteamiento de los ciclos como resultados de
complejas interacciones entre decisiones mercantiles, sistemas bancarios y monetarios, y
anticipaciones y retrasos en el movimiento de los precios. La fijación de precios de las
empresas que enfrentan altos gastos generales estaría sujeta al análisis de Clark. Bajo
ciertas circunstancias, la competencia podría ser destructiva o conducir a consecuencias
adversas, era común entre los institucionalistas. Hamilton tomaría esto y basaría su estudio
en la industria del carbón que describiría como una industria competitiva, pero que padecía
de capacidad excesiva y condiciones de trabajo deficientes. Las finanzas y propiedad
corporativas serían abarcadas por diversos estudios como los de Bonbright y Means, Berle
y Means. Estos estudios se convirtieron en un abanico de las primeras exposiciones de
Veblen sobre la separación de propiedad y control. Finalmente, los institucionalistas
hicieron importantes contribuciones a políticas en su trabajo por el desarrollo del seguro de
desempleo, compensaciones al trabajador, seguridad social, legislación laboral, regulación
de los servicios públicos, programas de apoyo a los precios de la agricultura y en la
promoción de la "planificación" gubernamental para crear niveles altos y estables de
producción.
Institucionalismo estadounidense después de 1945
El institucionalismo no llegó a cumplir la primera promesa debido a que no fue capaz de
establecer de forma exacta los fundamentos de la "psicología moderna". Luego de la mitad
de la década de 1920, los psicólogos abandonarían la propuesta del instinto/hábito a favor
de un behaviorismo que se volvió cada vez más estrecho y confuso de entender. El trabajo
institucionalista sería atacado por el ad hoc, o por los carentes fundamentos de una
apropiada teoría del comportamiento individual. El institucionalismo participó
probablemente en liberar a la economía de un lenguaje explícitamente hedonista, pero no
desarrolló la base alternativa para convencer a los economistas de abandonar sus
fundamentos racionalistas. En conjunto, los institucionalistas no lograron desarrollar sus
teorías de las normas sociales, del cambio tecnológico, de la toma de decisiones legislativa
y judicial. Las razones se deben en parte a la falta de fundamentos psicológicos claros,
pero también a la atención que pusieron los institucionalistas de entreguerras en los
problemas de políticas inmediatas y apremiantes como los ciclos económicos y la
regulación de los servicios públicos. Finalmente, la significativa agenda institucionalista de
la reforma social se desechó, por la eliminación de algunas de las causas originales del
movimiento institucionalista, y a la vez las agudas críticas de una mayor participación del
gobierno que habían promovido tanto los institucionalistas. Debido a lo anterior, los
institucionalistas se terminaron desplazando de forma paulatina desde una posición central
en la economía estadounidense hacia una posición marginal en la misma.
Texto 20: Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza
Editorial, pp. 48 a 75. / Capítulo 2: De Popper a la nueva heterodoxia
Los paradigmas de Kuhn
La teoría de Popper es normativa. La metodología popperiana de la falsación se mantiene en línea
con las ideas recibidas, aunque en muchos otros aspectos se separa de ellas. Kuhn, sin embargo,
introduce la total ruptura con las ideas recibidas ya que su énfasis recae en las prescripciones
positivas. Kuhn considera a la ciencia normal (la resolución de problemas en el contexto de un
marco teórico ortodoxo) como la norma, mientras que la ciencia revolucionaria (derrocamiento de
un marco teórico), sería lo excepcional en la historia de las ciencias.
Para Popper la ciencia se encuentra en un estado de revolución permanente mientras que para
Kuhn la historia de la ciencia se caracteriza por largos períodos en los que se preserva el status quo
que se ven interrumpidos en ocasiones por saltos discontinuos de un paradigma vigente a otros, sin
puente conceptual entre ellos.
El rasgo distintivo de las ideas de Kuhn es el concepto de revoluciones científicas como claras
rupturas en el desarrollo de la ciencia, y especialmente la idea de la existencia de drásticos
cortocircuitos de comunicación en los períodos de «crisis revolucionaria». Los principales elementos
de su teoría son:
●
●
●
●
●
●
Los practicantes de la ciencia normal están de acuerdo tanto de los problemas que
requieren solución como en la forma general que tomará la solución
La ciencia normal es un proceso autosostenido y acumulativo de resolución de problemas
concretos dentro del contexto de un marco analítico común
La interrupción de la ciencia normal viene anunciada por la proliferación de teorías y por la
aparición de controversias metodológicas
El nuevo marco ofrece solución definitiva a problemas anteriormente no resueltos, y esta
solución resulta ser reconocida, aunque previamente fuese ignorada
La generación antigua y la nueva encuentran terreno común a medida que los problemas no
resueltos del antiguo marco conceptual se convierten en ejemplos corroboradores del marco
nuevo
A medida que el nuevo marco conquista terreno, se va convirtiendo a su vez en ciencia
normal para la generación siguiente
En la segunda edición de su libro, Kuhn admite que su descripción previa de las revoluciones
científicas era exagerada ya que los cambios de paradigma durante las revoluciones científicas no
implican discontinuidades en el debate científico ni suponen elección entre teorías alternativas. La
denominación de «revoluciones» para los cambios de paradigma la usa para destacar que los
argumentos que se utilizan para defender el paradigma nuevo contiene siempre elementos
no-racionales que van más allá de las demostraciones lógicas o matemáticas. Además, presenta
cualquier período de progreso científico marcado por un gran número de paradigmas superpuestos
y entremezclados. Los paradigmas no se sustituyen unos a otros repentinamente y, en cualquier
caso, los paradigmas nuevos no surgen y se asientan de repente, sino que obtienen la victoria
después de un largo proceso de competencia intelectual.
Lo que se mantiene es el énfasis en el papel que juegan los juicios normativos en las controversias
científicas, especialmente las que se centran en la comparación de enfoques científicos
alternativos, junto con una desconfianza hacia los factores cognoscitivos (como la racionalidad
epistemológica) en comparación con los factores sociológicos (como la autoridad, la jerarquía y la
identificación con un grupo) como determinantes del comportamiento científico.
La obra de Kuhn no es una contribución a la metodología sino a la sociología de la ciencia.
Metodología vs historia
Si Popper tiene razón respecto del mito de la inducción, aquellos que desean «decir las cosas como
son» se encontrarán arrastrados a «decir las cosas como debieran ser», ya que, al contar la historia
de la evolución pasada de una forma y no de otra, estarán necesariamente revelando sus puntos de
vista implícitos sobre la naturaleza de la explicación científica. Así, todas las proposiciones de la
historia de la ciencia están cargadas de metodología.
Por otro lado, parecería lógico que todas las proposiciones acerca de la metodología de la ciencia
estuviesen también cargadas de historia. En efecto, predicar las virtudes del método científico
ignorando completamente la cuestión de si los científicos actuales o del pasado han practicado
efectivamente tal método, resultaría ciertamente arbitrario.
Programas científicos de investigación
La metodología de la ciencia de Popper es una metodología agresiva porque, según sus criterios,
una gran parte de la «ciencia» puede desecharse como metodológicamente incorrecta. La
metodología de Kuhn, por el contrario, es una metodología defensiva, ya que trata de reivindicar la
práctica real de la ciencia. La obra de Lakatos se puede considerar como un compromiso entre
ambas.
Para Lakatos, como para Popper, la metodología en sí no proporciona a los científicos un formulario
de reglas para resolver los problemas científicos; su campo es el del enfoque lógico, y su contenido
un conjunto de reglas no-mecánicas destinadas a la evaluación de teorías ya plenamente
articuladas. Donde Lakatos difiere de Popper es en que para él la lógica de la evaluación que utiliza
es al mismo tiempo una teoría histórica que intenta explicar retrospectivamente el desarrollo de la
ciencia.
Lakatos niega que las teorías concretas sean las unidades adecuadas para realizar evaluaciones
científicas y afirma que lo que se debe evaluar son grupos de teorías más o menos
interrelacionadas (programas científicos de investigación). A medida que un PCI se enfrenta con
falsaciones, experimentará variaciones en sus supuestos auxiliares, las cuales, como Popper ha
señalado, podrán suponer un aumento o una disminución de contenido, o representarán un
«cambio temático progresivo o degenerador». Un PCI no será «científico» de una vez por todas y
para siempre; puede dejar de serlo con el transcurso del tiempo, al ir gradualmente pasando del
estatus de programa «progresivo» al de «degenerado», así como puede ocurrir lo contrario.
Así, se halla un criterio de demarcación entre ciencia y no-ciencia que es histórico, ya que incluye la
evolución de las ideas en el tiempo como uno de sus elementos constitutivos.
Lakatos afirma que la historia de la ciencia es la historia de los PCI más que la historia de las
teorías y cada uno de ellos se compone de un núcleo (irrefutable por la decisión metodológica de
sus protagonistas) y un cinturón protector (las partes flexibles, donde el núcleo se combina con las
hipótesis auxiliares para formar las teorías concretas y contrastables en las que se basa la
reputación científica del PCI).
Lakatos argumenta que el criterio de falsabilidad de Popper no sólo exige que las teorías científicas
sean contrastables, sino también que cada una de ellas sea independientemente contrastable, es
decir, susceptible de predecir resultados no predichos por las teorías rivales. En tal caso, la
«corroboración» popperiana requiere al menos dos teorías, y lo mismo puede decirse de los PCI.
Un PCI concreto será considerado superior a otro si explica todos los fenómenos predichos por su
PCI rival y, además, hace predicciones confirmadas.
Para Lakatos la historia de la ciencia es concebida como una sucesión de PCI progresivos que se
superan constantemente unos a otros con teorías de contenido empírico creciente. Mientras tanto,
Kuhn la considera una serie continua de refinamientos paradigmáticos puntuados cada varios siglos
por una revolución científica.
El anarquismo de Feyerabend
Muchas de las líneas tendenciales de la obra de Lakatos hacia la suavización de los rasgos
«agresivos» del popperianismo y la ampliación de los límites de lo permitido han sido seguidas y
ampliadas por otros críticos recientes de las ideas recibidas, tales como Hanson, Polianyi y Toulmin,
pero quien más lejos ha llegado por este camino ha sido Feyerabend. Todos siguen a Kuhn y a
Lakatos en su rechazo del programa popperiano que postula una filosofía de la ciencia
completamente ahistórica, y se centran en el carácter esencialmente colectivo y cooperativo del
conocimiento científico: es su contrastabilidad interpersonal, incorporada en el concepto de
resultados repetibles en forma definida, lo que constituye el distintivo de la ciencia.
Otra característica persistente del nuevo enfoque sobre las teorías científicas es la idea de que
todas las observaciones empíricas están necesariamente cargadas de teoría y que incluso los actos
ordinarios de percepción, tales como el acto de ver, de tocar, de oír, están profundamente
condicionados por nuestras conceptualizaciones previas. En esta cuestión concreta, el nuevo
enfoque se acerca a Popper, que señaló la paradoja que supone la exigencia de que las teorías
sean severamente contrastadas en términos de sus predicciones observables, pero al mismo
tiempo todas las observaciones son interpretaciones que hacemos a la luz de alguna teoría.
En Contra el Método, Feyerabend afirma que no existe ningún canon de metodología científica que
no haya sido violado en algún momento de la historia de la ciencia. Además, la tesis de que la
ciencia crece por medio de la incorporación de las antiguas teorías como casos particulares de las
nuevas y más generales es un mito. Por último, el progreso científico, sea cual sea el procedimiento
que adoptemos para concebirlo o medirlo, se ha producido en el pasado, precisamente, porque los
científicos nunca se vieron constreñidos por compromiso alguno con la filosofía de la ciencia.
La ciencia, insiste Feyerabend, es mucho más irracional que su imagen metodológica y no existe
criterio de demarcación que la pueda separar de la no-ciencia.
Feyerabend no está en contra del método en las ciencias, sino que más bien está en contra del
método en general, y aconseja ignorar todo método. Su verdadero objeto de crítica es la influencia
represiva que ejerce la propia ciencia, y especialmente la pretensión de los órganos científicos
establecidos de que sólo ellos conocen los métodos correctos con los que descubrir la verdad.
De vuelta a los primeros principios
La ciencia, con todos sus fallos, es el único sistema ideológico autocrítico y autocorrector que el
hombre ha inventado en toda su historia; a pesar de la inercia intelectual, a pesar de su
conservadurismo inherente y a pesar de la tendencia a cerrar filas para mantener a raya a los
heréticos.
En defensa del monismo metodológico
¿Existe un método científico aplicable a todas las ciencias, sea cual sea el tema de que se ocupan,
o deben las ciencias sociales emplear una lógica de investigación especial y propia?
Hay muchos científicos que quieren acercarse a los métodos de la física, química y biología, pero
otros están convencidos de que las ciencias sociales poseen una comprensión intuitiva de sus
temas centrales de la que carecen los científicos de estas otras ciencias.
Popper definió el monismo metodológico: todas las ciencias teoréticas o generalizadores,
(deberían) hacer uso del mismo método, tanto si se trata de ciencias naturales como de ciencias
sociales. Pero luego estableció el principio de individualismo metodológico para las ciencias
sociales: la tarea de las ciencias sociales consiste en construir y analizar nuestros modelos
sociológicos con todo cuidado en términos de los individuos, de sus actitudes, expectativas y
relaciones.
Versteben: comprensión desde dentro por medio de la intuición y la empatía, como opuesta al
conocimiento desde fuera, a través de la observación y el cálculo. Los científicos de las ciencias
naturales carecen de este tipo de conocimiento de participante, de conocimiento de primera mano,
porque les es imposible imaginar lo que es ser átomo o molécula. Pero los científicos de las
ciencias sociales, interesados en el comportamiento humano, pueden colocarse en la posición de
los agentes humanos que están analizando, pueden recurrir a la introspección como fuente de
conocimiento del comportamiento de dichos agentes, y de esta forma hacen uso de una ventaja
inherente que poseen sobre los estudiosos de los fenómenos naturales.
Tanto el monismo metodológico como la doctrina de Versteben son criticadas porque no ofrecen
método alguno de contrastación interpersonal con el que validar las proposiciones referentes al
comportamiento gobernado por normas.
La cuestión del Versteben se encuentra a la vez ligada al principio popperiano del individualismo
metodológico. Este principio se opone al principio de la metodología totalizadora que postula que
los «todos» sociales tienen objetivos o funciones que no pueden ser reducidos a las creencias,
actitudes y acciones de los individuos que los forman. Muchos de los seguidores de Popper
deducen el individualismo metodológico de lo que se ha denominado el individualismo ontológico
(los individuos crean todas las instituciones sociales y por tanto los fenómenos colectivos son
simplemente abstracciones hipotéticas derivadas de las decisiones de los individuos). Pero, aunque
el individualismo ontológico es trivialmente cierto, no tiene necesariamente relación con la forma en
que deberíamos o no deberíamos investigar los fenómenos colectivos, es decir, no tiene por qué
relacionarse con el individualismo metodológico.
Popper explica que el individualismo metodológico debe interpretarse como la aplicación a las
cuestiones sociales del «principio de racionalidad», o del «método cero» aplicado a la «lógica de
una situación». Fue un intento de generalizar el método de la teoría económica de forma que
resultara aplicable a otras ciencias sociales.
Habiendo, pues, reafirmado el monismo metodológico, incluso en contra de la aparente disolución
del tema por parte de Popper, queda claro que no pretendemos negar la relativa inmadurez de
todas las ciencias sociales, incluida la Economía, en relación con al menos algunas de las ciencias
físicas. Puede ser que, en principio, no encontremos grandes diferencias entre los métodos de las
ciencias físicas y los de las ciencias sociales, pero en la práctica las diferencias entre ellos pueden
ser casi tan drásticas como las existentes entre los métodos de las ciencias sociales y los principios
de la crítica literaria, por poner un ejemplo.
Texto 21: Davis J. (2011). “Individuals and identity in Economics”. Cambridge
University Press. Introducción y páginas 95 a 118
Introducción
1.1 Individuals Count - Los individuos cuentan, los individuos importan
Este es un libro sobre la conceptualización del individuo humano en la economía reciente. De
hecho, una de las principales justificaciones de por qué gran parte de nuestro mundo social durante
el último medio siglo ha sido reinterpretado en el lenguaje y los conceptos de la economía es que la
economía hace que el individuo humano sea central. Seguramente es uno de los grandes
supuestos normativos de la sociedad humana contemporánea, que no se mantuvo en gran parte del
pasado, que el individuo humano cuenta o debería contar, que el individuo es importante y que los
individuos tienen un valor moral inherente, a pesar de todos los pruebas de prácticas humanas en
sentido contrario. Así que la influencia y el poder de la economía en la representación del mundo de
hoy, al parecer, se debe en gran parte a que se la percibe como una defensa de este profundo
compromiso humano.
Sin embargo, hay buenas razones para creer que la economía opera con una concepción
inadecuada de la individualidad y, por lo tanto, no defiende ni puede defender este profundo
compromiso humano. Peor aún, una falsa defensa del individuo, en la que los individuos realmente
no cuentan en la economía pero se dice que sí, puede amenazar este compromiso al confundir
nuestra comprensión de lo que se necesita para decir que los individuos cuentan en la vida
económica y en general. La economía en el sentido más simple trata de maximizar la producción. El
autor (Davis 2003) ya había planteado que que la concepción estándar del individuo en economía
no explica al individuo, y lo que la gente cree que es una concepción del individuo humano en
economía es en realidad una concepción individual abstracta que representa a los individuos
indiscriminadamente como personas únicas, conjuntos de personas, partes de personas, países,
organizaciones, animales, máquinas; de hecho, cualquier cosa a la que se le pueda atribuir una
función maximizadora. Por lo tanto, básicamente no ofrece una explicación o defensa del ser
humano único como individuo, porque las personas no tienen más valor en su análisis que todos
estos otros "individuos".
Desde este punto de vista, la economía se trata sólo de maximizar la producción, y los individuos
están al servicio de este objetivo.
Sin embargo, la economía se encuentra actualmente en un período de transición. Ahora se cree
ampliamente que se están produciendo cambios importantes en la corriente principal de la
economía asociados con el surgimiento de una colección de nuevos programas de investigación y
estrategias de investigación, todos los cuales pueden argumentarse para desafiar los principios
fundamentales.
supuestos en la economía neoclásica estándar, incluso si esta no es necesariamente la intención de
quienes desarrollan estos nuevos programas y estrategias. De hecho, ahora hay un debate
considerable sobre la profundidad y la naturaleza de las críticas que ha presentado la economía
reciente, principalmente estimulado por el reconocimiento de que muchos de estos nuevos
enfoques desafían directamente la teoría de la racionalidad, el núcleo reconocido de la economía
estándar de posguerra. La opinión del autor es que los recientes desafíos a la economía estándar
dirigidos a la teoría de la racionalidad plantean un desafío aún más fundamental, a saber, su
suposición de que los individuos racionales son individuos atomizados: la idea central de la
concepción individual abstracta. El camino que elijan los economistas dirá mucho sobre la
relevancia continua de la economía en un mundo en el que la gente ya ha decidido que los
individuos cuentan.
Este libro profundiza en la evolución de la comprensión del individuo dentro de la economía,
centrándose específicamente en los desarrollos recientes dentro de la corriente principal de la
economía. Reconoce que la teoría económica neoclásica tradicional, que ha dominado durante más
de un siglo, ya no es la fuerza motriz detrás del desarrollo económico. En cambio, explora varios
enfoques nuevos que han surgido dentro de la corriente principal de la economía, cada uno de los
cuales presenta críticas significativas al marco neoclásico estándar.
El autor identifica varios programas de investigación destacados en la economía reciente, incluida la
teoría de juegos, la economía del comportamiento, la economía experimental, la economía
evolutiva, la neuroeconomía, la teoría de sistemas adaptativos complejos y el enfoque de
capacidad. Estos programas son el foco principal del libro, ya que heredan el legado problemático
de la concepción individual atomista. El autor argumenta que es crucial que estos enfoques aborden
las fallas de esta concepción individual, que es probable que sean cada vez más reconocidas.
Si bien la economía como disciplina tiende a priorizar preocupaciones pragmáticas y aplicadas,
como el modelado matemático y la explicación de nuevas formas de mercado, el autor sostiene que
las cuestiones filosóficas subyacen a la teoría económica, aunque a menudo se pasan por alto. Sin
embargo, las estrategias desarrolladas para redefinir al individuo en la economía reciente están
principalmente motivadas por problemas prácticos dentro de la teoría económica. Sin embargo, el
autor sostiene que estas estrategias plantean preguntas filosóficas fundamentales, y su éxito y valor
social dependen de cómo aborden estos problemas, ya sea intencionalmente o no.
En resumen, este libro examina críticamente el panorama cambiante del pensamiento económico
con respecto al individuo. Explora nuevos enfoques dentro de la corriente principal de la economía y
sus críticas a la concepción individual atomista tradicional. El autor argumenta que estas estrategias
plantean cuestiones filosóficas fundamentales que darán forma a su éxito e impacto social y, en
última instancia, influirán en la teoría económica y las políticas económicas sociales.
1.2 The Identity Framework - El marco de la Identidad
La identidad es un concepto central en este libro. El autor introduce el concepto de identidad como
un aspecto fundamental de la investigación del libro sobre el individuo dentro de la economía.
Reconoce las múltiples interpretaciones y usos de la identidad en varios campos, incluida la
economía, que sólo recientemente ha comenzado a incorporarla. Para abordar esta complejidad, el
autor adopta un enfoque ontológico de la identidad.
- Él mismo denomina así su enfoque: My particular approach to identity – what I term an
ontological-criterial approach to identity – …
Este enfoque ontológico implica examinar si las concepciones de individuos utilizadas en la
economía reciente identifican y se refieren con éxito a las entidades previstas. El autor establece
criterios fundamentales para referirse a los individuos y evalúa si las concepciones en economía
cumplen con estos criterios. El objetivo no es definir la identidad personal en sí, sino determinar qué
implican nuestras concepciones económicas sobre la identidad personal cuando se alinean con el
concepto de individuo.
●
Dos criterios se consideran esenciales para el concepto de individuo.
1) El primero es el criterio de individuación, que requiere que una concepción de un
individuo los represente efectivamente como seres distintos e independientes.
●
●
2) El segundo es el criterio de reidentificación, que se centra en cómo los individuos
pueden identificarse como entidades distintas e independientes a lo largo de los
procesos de cambio.
Estos criterios están interconectados, y el criterio de reidentificación se construye sobre la
base establecida por el criterio de individuación.
El autor argumenta que es crucial que las concepciones de los individuos en economía
satisfagan ambos criterios. Esto es necesario porque la economía se basa en la elección
intertemporal, asumiendo que el yo presente de las personas puede conectarse con su yo
futuro. Además, diversas actividades económicas, como la educación, las decisiones
familiares y las inversiones a largo plazo, presuponen la naturaleza perdurable de los
individuos. Además, la premisa implícita en economía es que los individuos poseen
habilidades o capacidades duraderas que trascienden sus elecciones específicas.
La concepción individual atomista estándar en economía es criticada por no cumplir con los criterios
de individuación y reidentificación, lo que indica que representa inadecuadamente a los individuos
humanos. Esto prepara el escenario para la discusión posterior sobre concepciones alternativas del
individuo en la economía reciente y su capacidad para abordar estas deficiencias.
1.3 The Atomistic Individual Conception: Homo Economicus - La Concepción Individual Atomista:
Homo Economicus
En esta sección se discute el concepto del "Homo economicus" y su representación del individuo en
la economía. La concepción tradicional ve a los individuos como seres aislados definidos por sus
propias preferencias, haciéndolos atomizados. Las preferencias se consideran exógenas y
propiedad del individuo. Sin embargo, este punto de vista simplemente estipula el uso del término
"individuo" sin explicar la individualidad en sí.
La economía neoclásica ha adoptado la concepción individual atomista pero la trata como una
virtud lógica más que como una crítica. La representación formal del Homo economicus equipara a
los individuos con sus funciones de utilidad, que se construyen para cumplir con los requisitos del
análisis de equilibrio. Esta concepción individual abstracta está divorciada del comportamiento
humano y basada en propiedades lógico-matemáticas. La racionalidad y la individualidad están
co-definidas dentro de este marco.
Sin embargo, han surgido dudas sobre la aplicabilidad del comportamiento racional al mundo real,
respaldadas por la evidencia de la psicología de que las personas no siempre se comportan
racionalmente. La naturaleza de la racionalidad se está explorando en varias disciplinas científicas,
y la capacidad de convertir procesos computacionales en mecanismos físicos juega un papel
importante en la definición de la racionalidad. Esto sugiere que la racionalidad está limitada por el
estado histórico del desarrollo científico y los procesos computacionales/cognitivos disponibles para
los individuos.
El autor argumenta que si la racionalidad humana está limitada materialmente, la individualidad
también está limitada en función de cómo operan las explicaciones de los individuos como
entidades distintas. El concepto de individualidad está sujeto a dos límites: el criterio de
individuación, que evita la fragmentación de los individuos en múltiples yos, y el criterio de
reidentificación, que asegura que los individuos mantengan su distinción a pesar de compartir
características con otros. Las explicaciones exitosas de un solo individuo operan dentro de estos
límites.
Esta sección concluye enfatizando el desarrollo continuo del conocimiento humano y la necesidad
de una continua interpretación y reinterpretación de los límites de las explicaciones de un solo
individuo. El enfoque del libro mencionado en el pasaje está en el nuevo pensamiento sobre los
individuos en la economía y cómo aborda los límites para explicar a los individuos como
perdurablemente distintos.
1.4 Dos estrategias y dos problemas para reconceptualizar Individuos en la economía
reciente
Aquí se describen dos puntos de vista amplios con respecto a lo que está mal con la teoría de la
racionalidad tradicional en la economía reciente:
1. El primer punto de vista enfatiza la interdependencia de las elecciones de los individuos e
identifica la falta de consideración de esta interdependencia como el principal problema.
Esta perspectiva condujo al desarrollo de la teoría de juegos en la década de 1980, que
marcó una diversificación significativa de la economía convencional alejándose del modelo
neoclásico tradicional centrado en la oferta y la demanda. El objetivo de incorporar la
interdependencia en las explicaciones económicas es mejorar la comprensión del
comportamiento racional al incluir las interacciones sociales. Sin embargo, el desafío surge
al tratar de conciliar la interacción social con la concepción tradicional del Homo
economicus, que asume que los individuos son distintos e independientes. La incapacidad
de cerrar esta brecha dificulta la explicación de cómo formas más fuertes de interacción
social pueden coexistir con la individualidad.
2. El segundo punto de vista enfatiza la amplia evidencia de anomalías en la elección y percibe
la falta de realismo como el problema en la teoría estándar de elección. Esta perspectiva dio
lugar tanto a la economía del comportamiento "antigua" como a la "nueva", y esta última
tuvo un mayor impacto en la economía dominante desde la década de 1990. Los defensores
de este punto de vista argumentan que se puede desarrollar una explicación de la elección
más psicológicamente realista incorporando los diversos mecanismos de elección
observados empíricamente. Estos mecanismos demuestran que las elecciones de las
personas están influenciadas por el contexto en el que se realizan. Sin embargo, el desafío
radica en explicar cómo encaja la individualidad en este marco. Los economistas del
comportamiento que se adhieren a la concepción del Homo economicus se esfuerzan por
reconocer plenamente el límite subpersonal en las explicaciones de un solo individuo, lo que
les impide abordar adecuadamente el problema de explicar cómo las personas pueden tener
múltiples yoes sin dejar de ser considerados individuos únicos.
Se sugiere que, si bien gran parte de la nueva investigación en la corriente principal de la economía
tiene como objetivo mejorar la teoría de la racionalidad, estos esfuerzos a menudo no logran
abordar los problemas asociados de representar y explicar a los individuos cuando operan dentro
del alcance de la concepción tradicional del Homo economicus. Apartarse de esta concepción
tradicional y explorar cómo se limita la individualidad, de forma similar a los límites de la
racionalidad, ha mostrado cierto progreso en la explicación tanto de la racionalidad como de la
individualidad en la vida económica. Sin embargo, el autor señala que la cuestión de qué es la
individualidad recibe menos atención en comparación con el enfoque en la racionalidad, y es
posible que los economistas no reconozcan por completo las posiciones implícitas que adoptan
sobre los individuos. Como resultado, la dirección futura de la economía en este tema sigue sin
estar clara.
1.5 Economics’ Embeddedness - El Arraigo de la Economía
* En economía y sociología económica, el arraigo se refiere al grado en que
la actividad económica está restringida por instituciones no económicas.
Las secciones anteriores del libro analizan la influencia de otras disciplinas en la economía y cómo
las estrategias de investigación recientes en la economía dominante han tomado prestados
conceptos y metodologías de varios campos. Estos incluyen la teoría de juegos de las matemáticas,
la economía del comportamiento de la psicología, el experimentalismo de todas las ciencias, la
neuroeconomía de la neurociencia, el modelado de complejidad de la física y el pensamiento
evolutivo de la biología. También hay casos de economía que toma prestados principios de
dominios sociales ajenos al mercado, lo que se conoce como imperialismo económico. Sin
embargo, este préstamo ha sido en gran medida unilateral, con una influencia predominante de las
matemáticas y las ciencias naturales.
La actual reorientación de la economía refleja una visión naturalista de la ciencia, donde el
comportamiento económico se trata como un fenómeno a investigar utilizando métodos de las
ciencias naturales. Esta perspectiva dominante ha limitado la influencia de otras disciplinas de la
economía, como la ciencia política, la historia, la sociología, la psicología social, la antropología y la
filosofía, que tuvieron un impacto más significativo en el pasado. Si bien la economía se ha vuelto
más abierta a incorporar desarrollos de otras ciencias, lo hace de manera selectiva.
Una observación muy importante es que las ciencias naturales, a diferencia de las ciencias sociales
y las humanidades, tienen un compromiso más débil con la investigación del individuo humano
como objeto fundamental de estudio. Las ciencias naturales a menudo se centran en las fuerzas
naturales que actúan sobre los individuos, mientras que las ciencias sociales y las humanidades
centran sus explicaciones en los individuos como agentes clave. Si la economía continúa
desarrollándose a lo largo de las líneas de las ciencias naturales, plantea la posibilidad de eliminar
a los individuos como actores significativos en el discurso económico. Esta tendencia puede entrar
en conflicto con el hecho de que la economía es una ciencia social y su capacidad para servir como
ciencia política que aborda el impacto en los individuos.
El desarrollo futuro de la economía también se verá influido por factores ajenos a la comunidad
científica. La economía está incrustada en sistemas complejos de organización social humana
moldeados por el cambio tecnológico, los desafíos del ajuste social y las preocupaciones
ambientales. Los dos problemas de límites discutidos anteriormente, que definen el espacio de las
explicaciones de un solo individuo, no son solo problemas teóricos sino desafíos reales que
enfrentan los individuos en la vida contemporánea. A medida que la interacción social se vuelve
más compleja y las circunstancias cambian con mayor frecuencia e inesperadamente, surgen
preguntas sobre la importancia de la individualidad y cómo las personas mantienen sus identidades.
La tasa creciente de cambio social impulsa la investigación sobre el destino de la individualidad y el
papel de la economía en su comprensión.
1.6 La importancia normativa de la visión económica del individuo
En su libro anterior sobre el individuo, Davis reconoce las críticas de Don Ross, quien calificó su
enfoque de humanista. Ross abogó por un enfoque de "cientificismo" metodológicamente superior
que combina la economía neoclásica con la ciencia evolutiva cognitiva y del comportamiento,
defendiendo una visión antiantropocéntrica. Davis acepta la etiqueta humanista y cree que el
individuo es efectivamente un objeto de preocupación normativa. La oposición creada entre ellos
por Ross se considera injusta ya que ambos sostienen concepciones normativas del individuo.
Davis aclara que su análisis del individuo en la economía no se basa en valores normativos que
anulan el análisis científico, sino más bien en un análisis de identidad de las concepciones
individuales que se encuentran en la economía. Además, la idea de un enfoque de valor neutral
para el individuo en la economía, guiado por una visión de las ciencias naturales, pasa por alto la
influencia generalizada de los valores sociales tanto en la economía como en la ciencia. El autor
destaca que los individuos son fundamentales para la economía no solo porque los economistas los
consideren científicamente relevantes, sino porque los individuos tienen valor dentro del mundo
social.
La economía tiene responsabilidades tanto científicas como normativas con respecto al individuo. Si
bien la mayor parte del libro se centra en el análisis científico de cómo los economistas representan
a los individuos en función de su comportamiento, hay una breve discusión sobre por qué los
individuos también deben ser considerados objetos de preocupación normativa en economía. El
autor enfatiza el papel del individuo en la determinación del alcance y la naturaleza de los derechos
económicos, que se consideran derechos humanos cruciales junto con los derechos políticos,
sociales y culturales.
Los derechos económicos se destacan como particularmente importantes para el bienestar
individual general, ya que las muertes prevenibles debido a la pobreza y las privaciones superan
con creces las muertes por terrorismo. Sin embargo, los derechos económicos carecen de una base
segura de justificación en comparación con los derechos políticos, que históricamente están
vinculados a las estructuras democráticas nacionales. Aquí, la economía juega un papel central en
la defensa de los derechos económicos (y humanos), ya que la concepción del individuo empleada
por la economía tiene implicaciones para su defensa. La concepción actual del homo economicus
del individuo en la economía es criticada por apoyar inadecuadamente los derechos económicos
como derechos humanos.
El método de análisis del libro tiene como objetivo no solo evaluar la idoneidad de las concepciones
individuales en la economía reciente, sino también arrojar luz sobre lo que significa ser un individuo
en la vida económica. Al utilizar el análisis de identidad para comprender lo que implica que las
personas sean individuos distintos, se pueden obtener conocimientos sobre las políticas
económicas necesarias para garantizar esto. Por lo tanto, la investigación científica del individuo en
la economía también tiene un significado normativo. Las preocupaciones normativas sirven como
una motivación importante para el libro, aunque no representan su único enfoque.
—---------------------------------------------------------------------------------------------------------------------------------1- Básicamente se acotaron los poderes del monarca
2- John Law fue un economista escocés inventor del papel moneda en Europa. Su idea económica central era que el dinero es un medio de
intercambio y no constituye una riqueza en sí mismo, y que la riqueza nacional depende del comercio. Wikipedia
Nacimiento: 16 de abril de 1671, Edimburgo, Reino Unido
Fallecimiento: 21 de marzo de 1729, Venecia, Italia
3-Las funciones del dinero
El dinero cumple tres funciones básicas:
● Medio de cambio, porque es intercambiable por otros bienes y servicios. Esta función es la principal y anula el
trueque.
● Unidad de cuenta, porque determina el precio de cualquier bien en función de una cantidad de dinero.
● Depósito de valor, debido a que podemos ahorrar dinero para conservar riqueza.
4-Richard Cantillon ​fue un economista franco-irlandés, autor del "Essai sur la Nature du Commerce en Général". Fue considerado por
William Stanley Jevons como "la cuna de la Economía política".​
Nacimiento: 1680, Ballyheigue, Irlanda
Fallecimiento: 1734, Londres, Reino Unido
5-Sir James Steuart, 3.º Baronete de Goodtrees e posteriormente 7.º Baronete de Coltness; mais tarde Sir James Steuart
Denham, também chamado de Sir James Denham Steuart ( /ˈstuːərt,_ˈstjuːʔ/; 21 de outubro de 1713, Edimburgo – 26 de
novembro de 1780, Coltness, Lanarkshire) foi um famoso jacobita e autor do "provável primeiro tratado sistemático escrito em
[1]
inglês sobre economia"
e o primeiro livro em inglês com 'política economica' no título.
Cap 5 : El individuo en la teoría de juegos: desde puntos fijos a Experimentos
5.1 El comodín de la teoría de juegos
En el capítulo 5.1, se explora la incorporación de la interacción estratégica en la teoría de juegos y
cómo afecta la concepción del individuo en la economía. En la teoría de juegos no cooperativos, los
individuos interactúan directamente y sus decisiones dependen de las acciones de los demás. Esto
contrasta con la visión estándar en la que la interacción es indirecta y las elecciones son
independientes. Hay dos enfoques polarizados en la teoría de juegos contemporánea: uno enfatiza
los juegos no cooperativos de un solo juego y el otro se centra en los juegos de repetición
indefinida. El primer enfoque argumenta que la interacción no marca una gran diferencia en la
concepción individual estándar, mientras que el segundo sostiene que la interacción puede ser
significativa. Se plantea que agregar la interacción en la explicación de los individuos es como un
"comodín" que cambia nuestra forma de pensar sobre ellos.
El capítulo también señala que la teoría de juegos ha influido en la economía desde la década de
1980 y ha desafiado la concepción tradicional del Homo economicus. Los juegos no cooperativos
de un solo juego se utilizaron ampliamente para examinar cuestiones fundamentales en economía,
pero surgieron limitaciones en el marco de la teoría de juegos clásica de Nash, lo que condujo al
desarrollo de conceptos de solución más fuertes. Por otro lado, los juegos de repetición indefinida
presentan desafíos adicionales debido a su propensión a comportamientos cooperativos y han
llevado a la realización de experimentos para determinar los resultados de equilibrio.
En la sección 5.2 se discute la concepción del individuo en el programa de refinamiento
Nash-Harsanyi-Aumann, que busca establecer equilibrios en juegos de información incompleta. Se
compara esta visión con la concepción estándar de preferencias subjetivas del individuo y se
argumenta que están relacionadas. En la sección 5.3 se evalúa la concepción de individuo en
juegos de información incompleta y se concluye que está en línea con la concepción estándar,
limitando la contribución de la interacción estratégica para repensar al individuo.
La sección 5.4 se centra en los juegos de repetición indefinida y los experimentos realizados en la
Universidad de Michigan, y se plantea la cuestión sobre el papel del experimentador en la
construcción de los individuos y la validez externa de los experimentos. Se destaca que la
exploración de los juegos de repetición indefinida ha tenido implicaciones importantes para la
economía y el marco de juegos no cooperativos de un solo juego.
En la sección 5.5 se discute qué concepción del individuo surge en un marco de interacción
experimentalista y se concluye que, aunque muchos investigadores siguen aferrados al Homo
economicus, no descartan otras visiones alternativas.
El capítulo concluye en la sección 5.6 señalando las limitaciones de enfatizar únicamente la
interacción como una forma de explicar a los individuos y planteando la posibilidad de un cambio de
paradigma en la economía estándar hacia un enfoque más interactionista sobre la naturaleza de los
individuos.
5.2 El programa Nash-Harsanyi-Aumann: identidad de punto fijo
En el programa Nash-Harsanyi-Aumann, se aborda la concepción del individuo en el contexto de los
juegos estratégicos. La demostración de Nash sobre la existencia de equilibrios en estos juegos
proporciona una base formal para explicar la existencia de los individuos que participan en ellos.
El programa se basa en el teorema del punto fijo de Brouwer-Kakutani, que establece que una
transformación que mapea cada punto de un conjunto a otro punto dentro del mismo conjunto tiene
un punto fijo, es decir, un punto que se mapea en sí mismo. Este teorema demuestra la existencia
de relaciones consistentes al anclar el sistema en una relación auto-idéntica.
Si aplicamos esta comprensión a los individuos en los juegos, podemos considerarlos como
sistemas consistentes de relaciones. Cada individuo, compuesto por múltiples puntos que lo
representan, se transformaría en sí mismo a través de la relación auto-idéntica. Esto implica que la
existencia de cada individuo depende de esta relación auto-idéntica, similar a cómo se explica la
identidad personal en filosofía.
Para caracterizar formalmente a un individuo en términos económicos, se requiere que un punto fijo
se transforme en sí mismo, lo cual implica que debe ser reflexivo. Los individuos son reflexivos en el
sentido de que, en todas las transformaciones posibles, se reproduce constantemente una relación
auto-idéntica si el individuo existe como un sistema de relaciones único. En la teoría de la utilidad
estándar, los individuos son reflexivos en este sentido, ya que sus preferencias auto-idénticas se
reproducen en todas las transformaciones.
Sin embargo, surge un problema debido a la naturaleza privada y subjetiva de las preferencias. Al
ser subjetivas, se basan en las "propias" preferencias del individuo y presuponen su existencia en
lugar de proporcionar una explicación para ella. Esto plantea una diferencia importante entre la
teoría estándar de la utilidad y la teoría de juegos del programa Nash-Harsanyi-Aumann.
En la teoría de juegos, especialmente en juegos de información completa, todas las preferencias de
los individuos son conocidas por todos los jugadores, lo que fundamenta su subjetividad en la
interacción del juego en lugar de ser exclusivamente "propias". Esto permite tratar las preferencias
auto-idénticas de los individuos como la fuente de una relación auto-idéntica en la que el individuo
se reproduce constantemente.
En resumen, el programa Nash-Harsanyi-Aumann aborda la concepción del individuo en términos
de relaciones auto-idénticas y reflexividad. A través del teorema del punto fijo y la interpretación de
las preferencias en el contexto de juegos de información completa, se proporciona una base formal
para explicar la existencia de los individuos y su participación en los juegos.
5.2.1 Juegos con información completa
El programa de refinamiento Nash-Harsanyi-Aumann aborda la concepción del individuo en el
contexto de la teoría de juegos, utilizando el teorema del punto fijo de Brouwer-Kakutani como base
para explicar la existencia de individuos en los juegos. En los juegos de información completa, los
jugadores necesitan conocer las reglas del juego, las ganancias de utilidad de los demás jugadores
y jugar de manera racional. La conciencia mutua y el conocimiento común son requisitos
fundamentales para el equilibrio de Nash. A diferencia del modelo estándar de utilidad, que enfatiza
las preferencias privadas e independientes, en la teoría de juegos se considera el conocimiento
mutuo y el conocimiento común, lo que organiza las preferencias individuales en una estructura
transparente y reflexiva. Las preferencias individuales siguen siendo subjetivas, pero se enmarcan
en un contexto intersubjetivo de interacción en los juegos. En este marco, los individuos se
consideran sistemas de relaciones organizados en torno a una relación auto-identificada que se
reproduce constantemente. Por lo tanto, la identidad y la existencia del individuo se determinan en
términos de estas preferencias auto-idénticas, pero en el contexto interactivo de los juegos,
adquieren un significado diferente, incorporando la individualidad en la sociedad.
5.2.2 Juegos con información incompleta
Los argumentos de Harsanyi abordan dos problemas relacionados con los juegos de información
incompleta. En primer lugar, el marco de equilibrio de Nash requiere información completa, pero la
mayoría de los juegos son juegos de información incompleta. En segundo lugar, las estrategias
mixtas (combinación de diferentes estrategias puras con probabilidades) son necesarias para
justificar los equilibrios de Nash en muchos juegos, pero las estrategias mixtas carecen de
plausibilidad en la toma de decisiones del mundo real. Harsanyi propone una solución al utilizar
estrategias puras que se presentan como estrategias mixtas a través de las conjeturas o
suposiciones de otros jugadores sobre las estrategias puras que están siendo jugadas. Esto permite
analizar los juegos de información incompleta como si se estuvieran jugando estrategias mixtas.
Aumann extiende la doctrina de Harsanyi al argumentar que, si los individuos comparten creencias
iniciales y actualizan sus creencias de manera bayesiana cuando se enfrentan a diferencias de
información, las diferencias de información se eliminan y las probabilidades posteriores se vuelven
iguales. Esto se debe a que el conocimiento común prevalece sobre la información asimétrica, lo
que implica que los jugadores no pueden estar de acuerdo en estar en desacuerdo.
Harsanyi propone que los juegos de información incompleta se formulen considerando los tipos de
jugadores en lugar de los jugadores individuales. Los jugadores se representan como tipos que
poseen ciertas características, y las evaluaciones de probabilidad se basan en las características
conocidas por todos los jugadores. Cada jugador estima las probabilidades de que otros jugadores
sean de ciertos tipos y actúa asumiendo que los demás harán lo mismo. La evaluación de los tipos
de los jugadores se realiza condicionada al conocimiento de su propio tipo. La ganancia esperada
de cada jugador depende de las estrategias de todos los oponentes potenciales, lo que implica que
los tipos de jugadores son los "verdaderos jugadores" y sus funciones de ganancia son las
"verdaderas funciones de ganancia". De esta manera, se puede definir fácilmente el equilibrio de
Nash en el juego construido.
En resumen, los argumentos de Harsanyi resuelven los problemas de información incompleta y
justificación de estrategias mixtas al considerar los juegos como si fueran juegos de información
completa y utilizar tipos de jugadores como los "verdaderos jugadores" en el análisis del equilibrio
de Nash.
5.3 Conocer tu propia identidad
El argumento planteado es que los juegos de información completa sustituyen la concepción
subjetiva de las preferencias individuales por una concepción objetiva del juego, lo que representa
un avance en la forma de pensar sobre el individuo. Sin embargo, en los juegos de información
incompleta, el marco de Harsanyi-Aumann reintroduce el concepto problemático de preferencias
privadas de la teoría de utilidad estándar. En estos juegos, los jugadores conocen sus propios tipos
con certeza, pero solo tienen información probabilística sobre los tipos de los demás jugadores.
Esto implica que los jugadores tienen un acceso especial a sus propias preferencias, lo que
contradice la estructura intersubjetiva del juego. En consecuencia, se vuelve al enfoque de utilidad
subjetiva estándar, que resulta circular y vacío, y no proporciona una concepción adecuada del
individuo en un contexto de información incompleta.
Aunque el marco de Harsanyi-Aumann se ha utilizado ampliamente en la economía para analizar
juegos de información incompleta, el concepto de preferencias individuales no desempeña un papel
funcional en dicho análisis. El enfoque se centra en la naturaleza de la interacción entre los
jugadores, asumiendo que los tipos de los jugadores son dados y descartando la posibilidad de que
la interacción estratégica cambie la naturaleza de los jugadores. Sin embargo, es razonable
considerar que los individuos pueden cambiar sus tipos y otras características como resultado de la
interacción estratégica. La teoría evolutiva de juegos aborda explícitamente esta cuestión al
investigar cómo la interacción endogeneiza a los jugadores a lo largo de las trayectorias de pagos.
En resumen, el análisis de los juegos de información incompleta de Harsanyi-Aumann restablece el
concepto de preferencias privadas, lo cual es problemático en términos de una concepción
adecuada del individuo en el contexto de la teoría de juegos. Sin embargo, la investigación
experimental de juegos repetidos y la teoría evolutiva de juegos ofrecen oportunidades para
desarrollar una concepción más dinámica del individuo en la interacción estratégica.
5.4 Principio del formulario
Juegos repetidos y experimentos
Los juegos finitamente repetidos se asemejan a los juegos de una sola jugada en el sentido de que
los jugadores pueden utilizar la inducción hacia atrás para jugar en la primera ronda de un juego de
múltiples rondas lo que jugarían en la ronda final. En contraste, en los juegos de juego repetido
indefinidamente, en los que los jugadores no prevén un final del juego, este razonamiento se
desmorona y existen un número infinito de estrategias de equilibrio. Esta diferencia plantea la
cuestión de la naturaleza del individuo en la interacción estratégica.
La investigación experimental en juegos de juego repetidos indefinidamente ha desafiado la
concepción del Homo economicus, mostrando que los individuos a menudo cooperan en lugar de
solo buscar sus propios pagos. Esto plantea la pregunta de si este tipo de comportamiento también
se aplica a los juegos de una sola jugada y de repetición finita en el mundo real. Sin embargo,
muchos teóricos de juegos todavía buscan "refinar" nuestra comprensión de los juegos de una sola
jugada y de repetición finita, asumiendo que la concepción estándar del individuo es esencialmente
correcta y ampliando los principios consistentes con el equilibrio de Nash.
La investigación experimental en teoría de juegos ha desempeñado un papel importante en el
desarrollo del pensamiento sobre los juegos de juego repetidos indefinidamente. La variedad de
soluciones y enfoques experimentales disponibles crea diferentes formas de entender la relación
entre la interacción y la naturaleza de los individuos. Además, el diseño del experimento influye en
la interacción entre los participantes y puede endogenizar la concepción del individuo.
En resumen, la investigación experimental en teoría de juegos ha cuestionado la concepción del
Homo economicus al demostrar comportamientos de cooperación en juegos de juego repetido
indefinidamente. El diseño del experimento puede influir en la forma en que se endogeniza la
concepción del individuo en la interacción. Esto plantea la pregunta de cómo la interacción
determina la naturaleza de los individuos en el contexto de los juegos.
5.4.1 Juegos repetidos indefinidamente
Los juegos de juego repetido indefinido han sido objeto de debate en la teoría de juegos. Algunos
consideran que son menos importantes en comparación con los juegos de una sola jugada,
mientras que otros argumentan que podrían ser un modelo para todo comportamiento estratégico.
La cuestión del ajuste entre la teoría de juegos y el mundo real ha sido fundamental en la
investigación de los juegos de juego repetidos. Los experimentos iniciales de Robert Axelrod,
conocidos como el Torneo de Dilema del Prisionero Computarizado, fueron influyentes en este
campo. Axelrod invitó a expertos en teoría de juegos a diseñar programas de computadora que
compitieron en una secuencia de juegos del dilema del prisionero. El programa victorioso en ambos
torneos fue TIT FOR TAT, que adopta una estrategia de cooperación inicial seguida de la acción del
oponente en cada ronda. Estos experimentos destacaron la importancia de la cooperación y la
reciprocidad en la interacción estratégica. El enfoque en el diseño experimental también surgió en
este contexto, ya que se reconoció que los resultados podrían depender de cómo se construyeran
los experimentos. Además, se observó una variedad de resultados experimentales que desafiaban
la teoría estándar y reforzaban la idea de que el comportamiento individual depende del diseño de
la interacción. En general, el experimentalismo en la teoría de juegos ha llevado a cuestionar la
concepción fija del individuo y a reconocer que lo que las personas son se ve influenciado por cómo
se diseñan las interacciones.
5.4.2 Experimentalismo y Diseño de Mecanismos
En resumen, el texto discute los problemas relacionados con el diseño experimental en juegos y la
validez externa de los resultados obtenidos en laboratorios. Se plantea que los juegos pueden ser
vistos como interacciones continuas en lugar de intercambios aislados, lo que puede llevar a que
los sujetos experimentales se comporten de acuerdo a lo que creen que se espera de ellos, incluso
si entienden la interacción de manera diferente.
El texto también destaca que el entorno del laboratorio es artificial y puede presentar dificultades
para representar el mundo real. Se argumenta que la validez externa se ve afectada por la falta de
contextos reales y la eliminación de señales contextuales en los experimentos controlados.
Además, se menciona que los sujetos experimentales son conscientes de que participan en un
experimento, lo que puede influir en su comportamiento.
Se plantea la cuestión de si los sujetos experimentales se preocupan por la utilidad del
experimentador y si los protocolos del experimento funcionan como señales contextuales que
indican cómo se debe jugar el juego. Se sugiere que la identificación social y las señales
contextuales pueden influir en el comportamiento de los sujetos experimentales.
El texto concluye que la validez externa de los experimentos es problemática debido al metajuego
en el que el investigador está incluido. Se argumenta que no hay un punto de referencia externo
para evaluar la validez externa y que la idea misma de validez externa pierde su significado.
Se menciona el enfoque de la teoría del diseño de mecanismos, que utiliza los resultados eficientes
de Nash como base para las políticas o los protocolos de experimentación. También se menciona el
enfoque de los paternalistas libertarios, quienes reconocen que las personas no siempre se
comportan como el Homo economicus y que las reformas institucionales pueden no producir
siempre dicho comportamiento.
En general, el texto sugiere que los individuos pueden ser influenciados por el entorno
experimental, pero que su comportamiento puede variar y no siempre seguirá las predicciones de la
teoría de juegos estándar.
5.5 Ambigüedad y construcción
En resumen, el autor sugiere que los juegos de repetición indefinida inicialmente eran menos
propicios para el análisis formal en la teoría de juegos en comparación con los juegos de una sola
jugada y los juegos de repetición finita. Sin embargo, la investigación empírica de los juegos de
repetición indefinida ha impulsado la teoría de juegos experimental, desplazando en gran medida a
la teoría de juegos clásica. Esta investigación ha llevado a una reevaluación de la concepción del
individuo en la teoría de juegos.
En primer lugar, la investigación experimental ha generado una consideración activa de los
individuos en interacción. La variedad de soluciones y enfoques experimentales en los juegos de
repetición indefinida ha ampliado la comprensión de la interacción y su impacto en los individuos. La
visión convencional del individuo como caso general ha dado paso a una visión en la que el
comportamiento no convencional se considera más común. Aunque la visión convencional todavía
se defiende en economía, ahora necesita ser respaldada con evidencia empírica.
En segundo lugar, la interacción estratégica plantea preguntas sobre los límites de la concepción
del individuo. La teoría de juegos no ha abordado de manera exhaustiva los límites y la
reconfiguración de lo que implica ser un individuo en interacción. La concepción del individuo en la
teoría de juegos es ambigua, ya que existen múltiples posibilidades y poca orientación sobre cómo
abordar esta cuestión.
Además, se plantea la idea de que los investigadores experimentales pueden construir o influir en la
identidad de los sujetos experimentales. Los sujetos experimentales ejercen una capacidad
reflexiva para adoptar o rechazar la identidad deseada por el investigador. Esta capacidad de
construcción de identidad amplía la descripción del experimento e implica una relación entre el
investigador y los sujetos experimentales.
En conclusión, la teoría de juegos ha influido en el pensamiento económico sobre la concepción del
individuo. La investigación experimental ha llevado a una consideración activa de los individuos en
interacción, pero los límites y la reconfiguración de la concepción del individuo aún no se han
abordado completamente. Además, la capacidad de construir identidades en los entornos
experimentales destaca la naturaleza relacional de la identidad del individuo.
5.6 Problemas y límites
En resumen, este capítulo analiza dos áreas principales en la teoría de juegos: el programa de
refinamiento del equilibrio de Nash-Harsanyi-Aumann y los juegos indefinidamente repetidos desde
una perspectiva experimental. Se argumenta que el programa de Nash-Harsanyi-Aumann no logra
escapar de las limitaciones subjetivas del enfoque estándar y ofrece una descripción de los
individuos como paquetes de estrategias arbitrariamente determinados. Por otro lado, la
investigación experimental de los juegos indefinidamente repetidos plantea preguntas sobre la
naturaleza de los individuos, aunque aún no se ha llegado a conclusiones definitivas. El siguiente
capítulo se centrará en explicaciones racionales de los individuos en dos dominios diferentes: los
equipos y la neuroeconomía. Se destaca la importancia de abordar los límites sub personales y
supra-personales de la individualidad para una comprensión más completa de los individuos en la
economía
—----------------------------------------------------------------------------------------------------------------------------Texto 22: Azar P. (2021). Diferencias de género en el comportamiento económico
En la teoría económica neoclásica, la racionalidad es uno de los supuestos principales, en donde
comportamientos basados en altruismo, arte y belleza, solidaridad, etc. quedan excluidos de la
motivación de la acción humana en el aspecto económico.
La economía feminista ha realizado esfuerzos por revisar los modelos neoclásicos para incorporar
incentivos y comportamientos que no se ajustan a la racionalidad económica que dichos modelos
suponen. Existen diferencias en el vínculo tradicional de hombres y mujeres con el mercado y éstas
los llevan a tener preferencias y realizar elecciones distintas, incluso ante idénticas situaciones.
En base a experimentos realizados a un grupo de estudiantes teniendo en cuenta el “competir” o
“cooperar” se arrojaron los siguientes resultados: Los análisis parten del supuesto de que hombres
y mujeres reaccionarán diferente frente a la competencia: por lo tanto, se espera que su
comportamiento diverge cuando se introducen cambios en el entorno.
Efectivamente, en Gneezy, Niederle y Rustichini (2003), el cambio de un desafío personal a uno en
competencia implicó una mejora del desempeño de los hombres que se atribuye únicamente a la
postura favorable a la competencia que presentan los varones, a diferencia de las mujeres. Aún
más, de acuerdo a Niederle y Vesterlund (2007), varones y mujeres difieren en su evaluación
acerca del desempeño que tienen en el grupo, y por lo tanto estiman diferente sus oportunidades de
éxito, más allá de los resultados reales que obtienen. Ello puede incidir en su actitud frente a la
competencia.
En el mismo sentido, el trabajo de Niederle y Yestrumskas (2008) enfatiza la disímil percepción de
hombres y mujeres de sus capacidades para desempeñarse. Vinculan el resultado a que las
mujeres no solo muestran más incertidumbre acerca de sus capacidades, sino que se inclinan
menos a explorar y probarlas. En cambio, los hombres presentan una sobreconfianza y más
atracción hacia los desafíos, lo que podría explicar la mayor inclinación masculina a la competencia
encontrada en el experimento. Las autoras señalan que estas diferencias en la actitud de unas y
otros podrían explicar, en parte, la subrepresentación de mujeres en actividades de alto perfil,
aunque no existan diferencias de género en la capacidad para realizarlas.
¿Son las mujeres más aversas al riesgo?
En la literatura económica, una mayor aversión al riesgo se interpreta directamente como un
defecto. Se asocia con una menor habilidad para tomar decisiones “racionales” en juegos de
probabilidad, con falta de ambición o con escasa capacidad para avanzar en la pirámide
ocupacional o en las jerarquías empresariales. Si las mujeres fueran más aversas al riesgo que sus
pares varones, se esperaría que
dejaran pasar con más frecuencia oportunidades de lucro, solo por evitar la incertidumbre.
El hallazgo más habitual en estos estudios es que, en promedio, las mujeres muestran una mayor
aversión al riesgo que los varones. Para ellos, las situaciones de riesgo son un desafío que los
convoca a participar. Para ellas, son amenazas que es preferible evitar.
Más allá de los experimentos reseñados, también es cierto que cuando se trabaja con muestras de
población con calificaciones específicas, por ejemplo gerentes y profesionales activos, las
diferencias de género en las preferencias por el riesgo se reducen o desaparecen. Tal es el caso del
estudio de Atkinson, Baird y Frye (2003) sobre el comportamiento inversor de hombres y mujeres
gerentes de fondos mutuales de inversión. Las diferencias en el desempeño se atribuyen a
conocimiento de la
materia y a restricciones en el nivel de riqueza que se maneja en los portafolios, pero no al género.
¿Las mujeres se preocupan más que los hombres por el bienestar del resto?
Ortmann y Tichy (1999) diseñan un juego basado en el dilema del prisionero usando las
recompensas percibidas por cada elección para analizar diferencias de género en la manera de
tomar decisiones estratégicas a través de diferentes rondas. Encuentran que en las primeras
rondas, las mujeres optan por cooperar con más frecuencia que los hombres (41 % vs. 30 %). Sin
embargo, en las rondas siguientes, el nivel de cooperación baja y la diferencia entre hombres y
mujeres se reduce. Es decir, la cooperación o el engaño a través de las rondas lleva a un
aprendizaje sobre el comportamiento esperado que es similar para varones y mujeres. Por lo tanto,
aunque en las primeras rondas las mujeres se aproximen al juego de manera más cooperativa que
los hombres, con la experiencia alinean sus comportamientos.
A priori, parecería encontrarse una predisposición diferente a la negociación en los varones y
mujeres que participan de los experimentos. Ellas parecerían sentirse menos cómodas con la
negociación o mejorar su desempeño solo cuando negocian por los demás, es decir cuando son
responsables de velar por los intereses de otras personas. Además, parecerían tender a adoptar
comportamientos que las conducen a reducir las probabilidades de obtener mejores condiciones
laborales o mayores reconocimientos (como en el caso de la académica). Sin embargo, las
diferencias psicológicas por género que parecen detectarse también parecen diluirse con la
experiencia.
¿Cuánto explica la biología y cuánto la cultura las diferencias de comportamiento entre hombres y
mujeres?
Los seres humanos somos producto de la evolución, por lo cual es posible que ésta tenga un rol
importante para configurar las preferencias de hombres y mujeres en función de qué actitud les ha
sido más efectiva para preservarse en el entorno desde tiempos remotos. Desde esta perspectiva,
la mayor predisposición hacia la competencia de los varones respecto a las mujeres podría tener su
origen en la necesidad de asegurarse el éxito reproductivo. Dado que los hombres pueden tener
más hijos que las mujeres, tienen más que ganar de la competencia frente a otros hombres, desde
el punto de vista reproductivo.
Por otra parte, es cierto que existen diferencias biológicas entre hombres y mujeres, con
implicancias directas para el desempeño económico de cada uno (por ejemplo, la fuerza física
habilita a ocupar ciertos puestos de trabajo o las tareas asociadas al nacimiento pueden afectar la
inserción laboral de las madres).
A su vez, desde el punto de vista de la cultura o la socialización de género; los roles de género no
son innatos, sino aprendizajes de nociones socialmente construidas. En este sentido, el
comportamiento de hombres y mujeres bien podría derivarse de normas construidas socialmente.
Comportarse de acuerdo a estas expectativas puede reflejar la voluntad de actuar según lo que se
espera de la pertenencia a una determinada categoría social. Se espera que hombres y mujeres
tengan diferentes roles en las sociedades y así son entrenados desde la niñez.
Varios experimentos demuestran que para el caso de la mujeres, el haber tenido profesores de su
mismo sexo mejoraría su desempeño educativo posterior; no así en el caso de los hombres para los
cuales es indiferente. Entonces ¿cuál es la explicación? Más que elegir una u otra línea de
argumentos, es probable que ambas se complementen.
—----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Texto 23. Backhouse, R. E, y Cherrier, B. (2017). The age of the applied economist:
the transformation of economics since the 1970s. History of Political Economy,
49(Supplement), 1-33.
El texto empieza con una frase de Angus Deaton (2007) que dice: “Si la tesis típica de los ochenta
era una elaborada pieza de teoría de precios estimada por máximos no lineales basada un número
muy reducido de observaciones, la tesis típica de hoy utiliza poca o ninguna teoría, una
econometría mucho más simple y cientos de miles de observaciones”. Dicha afirmación demuestra
el cambio a lo largo del tiempo que tuvo el tratamiento de los problemas económicos dado por los
economistas, que al inicio se basaba prácticamente en teoría y muy pocas observaciones, para
ahora, un uso reducido de teoría y una extrema importancia aplicada a las observaciones.
Una crítica común del pasado era que los economistas, en lugar de comprometerse con el mundo
real, formulaban supuestos que les permitían sacar sus conclusiones preferidas. La transformación
de la economía en las últimas décadas del siglo XX se ha denominado cada vez más un "giro
empírico". El autor menciona que desde los años 80 se produjo un gran crecimiento de la
investigación empírica y al mismo tiempo un declinio de la investigación teórica. Sobre esta base,
se anuncian conclusiones como "la muerte de la teoría" o al menos un "cambio de paradigma".
Muestra que se ha producido un cambio dirigido al trabajo empírico en tres de las principales
revistas, que los trabajos empíricos han adquirido más prestigio.
El autor menciona que existen varias razones de por qué se fue dando este cambio. Una de ellas es
la ya mencionada arriba, el prestigio del trabajo económico empírico. Otras son el surgimiento de
nuevas técnicas, como la contabilidad nacional, los índices del coste de vida, el análisis
input-output, el análisis coste-beneficio y la evolución de las finanzas supusieron el desarrollo de
nuevos conceptos y herramientas, así como grandes proyectos para recopilar, registrar y dar
sentido a los datos.
De la tabla presente en la página 3 del texto que muestra la metodología usada en la publicación
del “American Economic Review” desde 1963 hasta 2011 se pueden sacar 3 conclusiones
fundamentales: En primer lugar, el período en el que la teoría, tal y como se entiende ahora el
término, dominó el trabajo empírico, que duró unos treinta años, fue interludio excepcional. En
segundo lugar, se ha producido un cambio en la relación entre el trabajo teórico y empírico, pero el
trabajo empírico no se ha desconectado completamente de la teoría. En tercer lugar, el descenso
más significativo es el de los artículos exclusivamente teóricos.
Como afirmó Dani Rodrik (2015): "Hoy en día, es prácticamente imposible publicar en las mejores
revistas …de desarrollo y economía internacional sin incluir algún análisis empírico serio. ... Las
normas de la profesión exigen ahora mucha más atención a la calidad de los datos, a la inferencia
causal a partir de pruebas y a una serie de trampas estadísticas. En general, este giro empírico ha
sido bueno para la profesión.”
La importancia concedida a la "teoría aplicada" y al análisis político es un claro indicio de que lo que
ha ocurrido recientemente no sólo se refiere al trabajo empírico, sino que abarca la relevancia de la
teoría y la política. Esto sugiere que la economía no ha pasado realmente "de la teoría a los datos",
sino que ha experimentado una profunda redefinición de la relación entre el trabajo teórico y el
empírico.
El autor afirma que el término “aplicada” de economía aplicada tiene un efecto ambiguo pero, en
realidad lo hace mejor y no peor para lo que pretende explicar. Dice que se necesita un término que
englobe un conjunto grande de identidades y prácticas que aquellos que se acompasan dentro del
término “empírico”. Como sostiene Erickson, la "aplicación" se refiere a menudo a la capacidad de
una teoría para producir padrones innovadores de colaboración, no sólo su capacidad para predecir
o describir resultados.
En resumen, este volumen trata de cómo el periodo en el que ser teoricista era la actividad más
prestigiosa para un economista evolucionó hasta la situación actual en que los economistas se
enorgullecen de ser aplicados, ya sean teóricos aplicados o economistas empíricos que abordan
problemas de política.
El texto también aborda detalladamente la relación entre estudiantes de economía, los profesores y
la importancia que se daba a diversos temas a lo largo de los años 40/50 hasta el 2000. Y comó se
fueron observando esos diversos cambios. Se puede ver un ejemplo cuando menciona que la
creciente complejidad de la relación entre teoría y aplicación quedó ilustrada por los premios de los
años 60 y principios de los 70, cada uno de los cuales implicaba una relación diferente entre teoría
y aplicación. También menciona algunas ramificaciones políticas, por ejemplo: a principios de la
década de 1970 se sucedieron varios ataques en discursos presidenciales contra la economía por
ser demasiado teórica y alejada de la realidad.
Una primera explicación del giro aplicado en economía es el surgimiento de nuevas y diversas
técnicas para confrontar los modelos con los datos. Otra técnica cada vez más utilizada era la
economía experimental. El período en que la economía experimental se afianzó firmemente
coincide con el desarrollo de un conjunto de diversas técnicas. Otras técnicas difuminaron la
demarcación entre teoría y trabajo aplicado, construyendo objetos económicos en el mundo real en
vez de solamente estudiarlos. Una segunda explicación del reciente giro aplicado es la "revolución
de los datos". Aunque la reciente explosión de bases de datos digitales multivariables a gran escala
y en tiempo real es alucinante y tiene el atractivo de una revolución, la disponibilidad de datos
económicos también ha evolucionado constantemente desde la Segunda Guerra Mundial. Más que
una revolución en los años ochenta o en cualquier otra década, la historia de la economía parece
ser una de constante adaptación a nuevos tipos de datos. En 1970, por ejemplo, Jorgenson explicó
que "la base de datos para la investigación econométrica se está expandiendo mucho más
rápidamente que la propia investigación econométrica". La espectacular mejora en la recopilación y
el almacenamiento de datos ha sido posible gracias a la mejora de la tecnología informática.
Normalmente considerado como el factor más importante detrás del giro aplicado, el ordenador ha
influido en mucho más que solamente los datos económicos. No era inevitable que los ordenadores
irían favorecer trabajo empírico sobre la teoría: de hecho, uno de los principales usos de los
ordenadores era la simulación, una técnica (o quizá una familia de técnicas) que difuminaba la
distinción entre teoría y trabajo aplicado.
Uno de los puntos que afirman Blackhouse y Cherrier es que las simulaciones desdibujan la
distinción entre teoría y aplicación. A lo largo de la posguerra, los economistas han afirmado
repetidamente que la disponibilidad de nuevos conjuntos de datos y la potencia informática para
analizarlos han transformado diversos campos.
Sin embargo, en todas las historias mencionadas en este texto, la diversidad de las prácticas de
economía aplicada es el resultado no sólo de combinaciones idiosincrásicas de técnicas de
modelización, conjuntos de datos, de técnicas de modelización, software y hardware; también fue
consecuencia de una variedad de sitios, antiguos y nuevos, en los que se practicaba la economía
aplicada, y de las cambiantes demandas que patrones y clientes imponían a los economistas. Esto,
por supuesto, está relacionado con la orientación política del giro aplicado. Un ejemplo del texto: los
economistas se enfrentaron con exigencias diversas, a veces contradictorias, que crearon nuevas
formas de hacer un trabajo "aplicado" y capas adicionales de complejidad en las relaciones de
estas prácticas con el trabajo teórico. (Esto es importante para la conceptualización de lo que le
ocurrió a la economía en aquel "plan macroeconómico"
se dejó de pensar en metas y objetivos para pasar a comprender métodos y técnicas que se
concibieron independientemente.)
Todo esto sugiere que el giro hacia la economía aplicada, que implicó cambios tanto en las
prácticas de los economistas como en la percepción de su identidad, fue cambiado, en cierta
medida, por las exigencias políticas y las instituciones que las mediaron.
Conclusión: Las décadas de 1950 y 1960 podrían describirse como la era del economista teorista.
La teoría ocupaba un lugar destacado en las principales revistas y fue estructurando cada vez más
la forma en que los economistas pensaban sobre problemas económicos.
Como hemos mostrado, la situación cambió gradualmente, a medida que nuevas técnicas y nuevas
fuentes de datos permitieron obtener resultados que los economistas consideraban más sólidos. Se
consideraba que el trabajo aplicado necesitaba una base teórica, y la econometría se utilizaba para
probar hipótesis teóricas formalmente especificadas. Pero al mismo tiempo, el giro hacia la teoría
de juegos y el desarrollo de teorías de información imperfecta y asimétrica ampliaban enormemente
las herramientas teóricas a disposición de los economistas, proporcionando teorías formales de
fenómenos sobre los que antes los economistas sólo podían hablar de manera informal. A medida
que esto sucedía, el papel de la teoría cambió. Ya no era posible poner fé en una única teoría
general que lo abarcara todo: en su lugar, lo mejor que podían esperar los economistas era una
serie de teorías, cada una de las cuales podía utilizarse en diferentes circunstancias. Este es el
antecedente del creciente uso del término teoría aplicada. Los crecientes y complejos vínculos con
los responsables políticos y una variedad de clientes también hicieron más difícil aplicar la teoría de
forma estandarizada. Las demandas públicas y privadas empujaron a los economistas a adaptar las
teorías y herramientas a usos específicos, modificándolas profundamente en el proceso. Pero ésta
fue sólo una dimensión de la importancia de la economía aplicada. A medida que los gobiernos se
volcaron a soluciones del mercado para problemas económicos, aumentó el alcance del trabajo
aplicado. Se había vuelto la era del economista aplicado.
Descargar