Escriba lo que desea buscar en este blog

viernes, 27 de septiembre de 2019

La Teoría General de Keynes y la macroeconomía moderna

La Teoría General de Keynes y la macroeconomía moderna

Keynes' General Theory and modern macroeconomics

Jaime Ros*

* Facultad de Economía de la Universidad Nacional Autónoma de México (UNAM). Correo electrónico: <ros.1@nd.edu>.

Artículo recibido en septiembre de 2011.
Aceptado en enero de 2012.

Resumen
Este artículo contrasta las dos visiones de la macroeconomía que se han enfrentado entre sí desde la publicación de la Teoría General de Keynes y los debates entre su autor y sus críticos de esos años (los clásicos). Esta comparación hace hincapié en los dos principales temas que separan a estas dos visiones: la crítica de Keynes a los supuestos de la economía clásica sobre el equilibrio continuo en los mercados, particularmente en el mercado del trabajo, y su crítica a los supuestos que esa economía hace sobre el conocimiento que los agentes económicos tienen del futuro.
Palabras clave: desempleo, Keynes, Ley de Say, macroeconomía, previsión perfecta.
Clasificación JEL:* E01, E02, E03, B02, D00.

Abstract
This article contrasts the two approaches to macroeconomics that have faced each other since the publication of Keynes' General Theory and the debates between its author and its contemporaneous critics (the classics). This comparison stresses two main aspects that keep the two schools of thought apart: Keynes' criticism of the assumption of classical economics about continuous market clearing, particulary in the labor market, and his criticism about the knowledge that, in classical economics, economic agents are supposed to have about the future.
Key words: unemployment, Keynes, Say's Law, macroeconomics, perfect foresight.

INTRODUCCIÓN
La crisis económica mundial de los últimos años es una crisis de gran envergadura que tendrá probablemente importantes repercusiones en años por venir en la teoría macroeconómica y su enseñanza, especialmente a nivel de posgrado. Durante esta crisis, los debates de política macroeconómica de los años 1930, cuando la macroeconomía nació como disciplina con la publicación de la Teoría General de la ocupación, el interés y el dinero (1936) de Keynes, se han repetido nuevamente. Ello se debe, en parte, a la vigencia de la obra de Keynes que tiene por lo menos dos razones de ser. La primera es que la Teoría General es una obra muy moderna en el terreno de los hechos debido a que la actual crisis económica y financiera mundial ha vuelto a poner a los mercados financieros en el epicentro del mal funcionamiento del sistema económico en su conjunto. Y este es precisamente uno de los temas centrales de la Teoría General. La segunda es que esta obra es muy relevante en el terreno de las ideas, tanto para el presente como para el futuro, debido a la vigencia de la crítica de Keynes a lo que llamó la economía clásica. Y lo es, como argumentaré en este artículo, porque si sus críticas a los clásicos son válidas, éstas son igualmente aplicables a la moderna nueva economía clásica.
Este artículo contrasta precisamente las dos visiones de la macroeconomía que se han enfrentado entre sí desde la publicación de la Teoría General y los debates entre su autor y sus críticos de esos años (los clásicos).1 Esta comparación hace hincapié en los dos principales temas que separan a estas dos visiones. Las dos primeras secciones del artículo abordan esos temas: la crítica de Keynes a los supuestos de la economía clásica sobre el equilibrio continuo en los mercados y su crítica a los supuestos que esa economía hace sobre el conocimiento que los agentes económicos tienen del futuro.2 La tercera sección junta estos dos temas y resume lo que me parecen los mensajes de la Teoría General más relevantes para la situación que vive la economía mundial hoy en día: la idea que el desempleo involuntario tiene su origen en una falla de coordinación en los mercados financieros y la idea que la flexibilidad salarial no es una solución a esa falla de coordinación. Las dos últimas secciones comentan brevemente sobre cómo evolucionó la macroeconomía después de la Teoría General, contrastando la economía de Keynes con la de la síntesis neoclásica, la nueva economía clásica y la nueva economía keynesiana.

EL EQUILIBRIO CONTINUO EN LOS MERCADOS, EL RECHAZO DEL SEGUNDO POSTULADO DE LA ECONOMÍA CLÁSICA Y EL DERRUMBE DE LA LEY DE SAY
¿Cuáles fueron las críticas de Keynes a los clásicos? En primer lugar, Keynes consideraba que la economía clásica descansaba en dos postulados: 1) la igualdad entre el salario real y el producto marginal del trabajo, y 2) la igualdad entre el salario real y la desutilidad marginal del trabajo.
Keynes aceptó el primer postulado. Este proviene simplemente de la condición de primer orden de la maximización de beneficios por parte de empresas que operan en competencia atomística y que, en consecuencia, toman como dados precios y salarios y maximizan, sujetas a una restricción tecnológica (dada por la función de producción). Esta historia de empresas atomísticas que toman los precios como dados, claramente no es cierta, al menos en la gran mayoría de los mercados. Pero Keynes, por razones que creo entender, decidió no meterse con este postulado aunque con seguridad sabía muy bien que la competencia perfecta no era una buena descripción de la situación que prevalece en los mercados de bienes, con excepción de algunos de ellos. El artículo de Sraffa de 1926, la tesis de licenciatura de Kahn a principios de los años 1930 y el libro de Joan Robinson de 1933 versaban sobre la teoría de la competencia imperfecta. Creo por ello, que la decisión de Keynes de aceptar el primer postulado fue una decisión estratégica: le permitió concentrarse en el segundo postulado, su rechazo y las consecuencias de ese rechazo.
¿De dónde proviene el segundo postulado de la economía clásica? Proviene de las condiciones de primer orden del programa de maximización de la utilidad por parte de hogares trabajadores. Estos hogares maximizan su utilidad, que depende positivamente del consumo y negativamente del trabajo, y, sujetos a una restricción de presupuesto y nada más, maximizan tomando precios y salarios como dados (ya que también son atomísticos). Así, el hogar decide trabajar hasta el punto en que el salario que el trabajador recibe (medido en términos de los bienes que consume) le compensa exactamente por la desutilidad marginal del trabajo. Ni una hora más ni una menos. El resto del tiempo lo dedica al ocio.3
Keynes, en los años veinte y treinta del siglo pasado, observaba que, con mucha frecuencia y a veces masivamente, los hogares trabajadores no podían decidir cuánto trabajar, sobre todo cuando estaban desempleados. Es por ello que rechazó el segundo postulado de la economía clásica y en su lugar supuso que el hogar, además de la restricción de presupuesto, enfrentaba una restricción de cantidad respecto al monto de trabajo que podía vender en el mercado.4 En suma, lo que Keynes supuso es que los trabajadores no están siempre en sus curvas de oferta de trabajo deseadas; es decir, no siempre pueden vender la cantidad de trabajo que desean.
Al rechazar el segundo postulado de la economía clásica, la ley de Say se derrumba y la demanda agregada pasa a desempeñar un papel clave en la determinación del producto. En efecto, la restricción de cantidad que enfrentan los hogares está dada, para el conjunto de ellos, por la demanda de trabajo de las empresas, que puede resultar inferior a la oferta de trabajo deseada por los hogares. Así, ante una caída en el nivel de empleo, de tal magnitud como para generar un exceso de oferta de trabajo, los hogares trabajadores ajustan a la baja su demanda de consumo y el producto total queda determinado por la demanda efectiva. Por cierto, demostrar que al ajustarse a la baja la demanda de consumo, el producto converge de todos modos a un equilibrio estable en el mercado de bienes —con exceso de oferta en el mercado de trabajo— en lugar de continuar descendiendo hasta llegar a cero, debe haber sido un verdadero vía crucis, en el que participó decisivamente Richard Kahn.5 Afortunadamente, la condición crucial para la estabilidad de ese equilibrio a menos de pleno empleo es que la propensión marginal a consumir sea menor a la unidad.
Don Patinkin tuvo razón, creo, cuando argumentó que demostrar la estabilidad del equilibrio de menos de pleno empleo es la característica distintiva de la teoría de la demanda efectiva de Keynes. Refiriéndose al famoso diagrama de Paul Samuelson con la recta de 45 grados que intersecta desde abajo una línea de gasto agregado con un intercepto positivo y una pendiente positiva y menor a la unidad,6 Patinkin dice: "Lo que llamo la teoría de la demanda efectiva es no sólo que la intersección de la curva de demanda agregada E = F(Y) con la línea de 45 grados determina el producto real de equilibrio Yo a un nivel que puede ser inferior al de pleno empleo [...] sino también (y ésta es la característica distintiva nueva) que el cambio en el producto (y por lo tanto en el ingreso) actúa como una fuerza equilibradora [...] La teoría de la demanda efectiva se refiere no sólo a la solución matemática de la ecuación de equilibrio F(Y) = Y, sino a demostrar la estabilidad de este equilibrio tal y como está determinado por la ecuación de ajuste dinámico dY/dt = θ[F(y) - y], donde θ' > 0" (1982, p. 9-10).
Esto es lo que explica en qué sentido la teoría propuesta por Keynes se refiere al caso general. En efecto, ¿por qué dice Keynes que su teoría se refiere al caso general del cual la economía clásica es un caso especial? y ¿qué tiene esto que ver con el abandono del segundo postulado de la economía clásica? El caso analizado es el caso general precisamente porque en presencia de un exceso de oferta en el mercado de trabajo, Keynes introduce el supuesto —que debería ser evidente para todo mundo— de que los trabajadores no van a formular sus planes de consumo de la misma forma en que lo hacen cuando el mercado de trabajo está en equilibrio. Si hay exceso de oferta en el mercado de trabajo, los trabajadores enfrentan una restricción de cantidad al monto de trabajo que pueden vender en el mercado, y toman en cuenta esta restricción a la hora de formular su demanda de consumo. Como lo dice Edmond Malinvaud, en un texto que sintetiza las contribuciones de Clower y Bénassy a la comprensión de la economía de Keynes: "Al decidir su demanda de consumo por un bien particular, un individuo desempleado recuerda que está desempleado." (Malinvaud, 1985, p. 23).
En la economía clásica, y en particular en su expresión más acabada —el modelo walrasiano de equilibrio general—, el trabajador no considera la posibilidad de quedar desempleado a la hora de formular su plan de consumo. La restricción de cantidad no se toma en cuenta en el programa de maximización de su utilidad. Por el contrario, en el plan óptimo que los hogares formulan al maximizar su utilidad, se determinan simultáneamente la demanda de consumo, la cantidad de trabajo y el ocio, suponiendo que no hay restricciones a la cantidad de trabajo que los hogares pueden vender en el mercado. Esto es precisamente lo que dice el segundo postulado de la economía clásica. Pero esto sólo es cierto si el mercado de trabajo despeja porque, si no lo hace, el plan de consumo de los hogares tiene que tomar en cuenta que esos hogares no logran vender la cantidad de trabajo que desean (al salario y precio de los bienes de consumo vigentes).
¿Por qué, desde Walras, los modelos de equilibrio general walrasiano, estáticos o dinámicos hacen caso omiso de la restricción de cantidad, un supuesto a todas luces tan extraño? Porque implícitamente o explícitamente, como lo hizo Walras mismo, suponen la existencia de un subastador que tiene, entre otras tareas, la de prohibir que se lleven a cabo transacciones mientras no se haya encontrado el vector de precios de equilibrio que despeja todos los mercados. Y como el trabajador desempleado sabe que el subastador walrasiano no permitirá las transacciones hasta que el mercado de trabajo despeje, con una pureza lógica impecable, formula su plan de consumo suponiendo que puede vender la cantidad de trabajo que desea, sin más restricciones que la de presupuesto, estática o intertemporal, dados los precios y salarios vigentes en el mercado.7

EXPECTATIVAS SOBRE EL FUTURO, PREVISIÓN PERFECTA, E INCERTIDUMBRE
Keynes también rechazó los supuestos de la economía clásica sobre información y previsión del futuro. Como lo dice en su artículo del Quarterly Journal of Economics de 1937 (p. 222): "La teoría ortodoxa supone que tenemos un conocimiento del futuro de una naturaleza muy distinta a la que en realidad poseemos [...] La hipótesis de un futuro calculable conduce a una interpretación incorrecta de los principios de comportamiento que la necesidad de la acción nos obliga a adoptar, y a una subestimación de los factores escondidos de la duda absoluta, la precariedad, la esperanza y el miedo".
En lugar del supuesto de previsión perfecta, Keynes tomó, con frecuencia, las expectativas sobre periodos futuros (o lo que llamó el "estado de las expectativas de largo plazo") como dadas. Las conclusiones del análisis dependen entonces de que las expectativas no cambien ante un cambio supuesto en otras variables: dado el estado de las expectativas (o de las noticias), tal o cual cosa puede suceder como resultado de un cambio en tal o cual variable. En este caso, Keynes sustituyó el supuesto de previsión perfecta por el supuesto de expectativas exógenas que puede atribuirse, como lo plantea Phelps (1990, cap. 1), a la existencia de una comunicación intertemporal incompleta entre participantes del mercado y el problema consiguiente de coordinación de las decisiones intertemporales de ahorro e inversión.8
En otras ocasiones, Keynes endogeneiza las expectativas, pero de una manera que toma en cuenta el hecho de que los agentes ignoran el futuro (véase en particular su artículo en el Quarterly Journal of Economics ya citado). El hecho de que el futuro es desconocido tiene varias consecuencias. La primera es que en nuestras decisiones le damos poco peso a lo que puede suceder en el futuro lejano. Ello se debe a que entre más lejano es el periodo futuro considerado, menos sabemos sobre él y menos podemos aplicar cálculos probabilísticos. Podemos tener una noción (subjetiva) de la distribución de probabilidades de los eventos en el futuro cercano. Entre más lejano el futuro, menos pensamos que sabemos sobre la distribución de probabilidades. Además, sabemos que sabremos más acerca de este periodo futuro a medida que pase el tiempo, de manera que podemos posponer nuestra decisión. Una segunda consecuencia es que tendemos a usar el presente y el pasado reciente como una guía para adivinar el futuro (a menos que tengamos buenas razones para no hacerlo), a pesar de lo endeble que, como dice Keynes (1936), resulta este procedimiento. Un tercer efecto de la incertidumbre es que dependemos de las opiniones de otros (de la opinión promedio) para formular nuestra mejor opinión sobre el futuro. El llamado "concurso de belleza" al que se refiere Keynes es el mejor ejemplo de este comportamiento.
Otra observación aguda que aparece en la Teoría General de múltiples maneras —en la discusión de la función consumo, los efectos de cambios en los salarios, etcétera— es que el efecto en las expectativas sobre el futuro de un cambio en una variable económica depende de cómo este cambio es percibido por los agentes económicos. Cambios que son percibidos como de corto plazo, reversibles (temporales, en terminología moderna) tendrán poco efecto sobre el valor esperado en el futuro de la variable en cuestión, mientras que cambios que son percibidos como de naturaleza más permanente tendrán un mayor efecto en los valores futuros esperados. La elasticidad de las expectativas depende de estas percepciones y éstas varían de acuerdo con las circunstancias.

LA TEORÍA DEL DESEMPLEO INVOLUNTARIO
Poner estos dos temas juntos, el del equilibrio en los mercados y el de las expectativas sobre el futuro, conduce a una distinción sutil entre la eficiencia de un mercado en el sentido de si despeja o no y que tan rápido lo hace, y el papel de un mercado como fuente de mal funcionamiento del sistema económico. Por ejemplo, para Keynes el mercado de trabajo no despeja tan rápido como los mercados financieros. Sin embargo, lo que Keynes llama desempleo involuntario tiene su origen en el hecho de que los mercados financieros, aunque despejan todo el tiempo, pueden hacerlo a "precios erróneos": son capaces de despejar a una tasa de interés que es inconsistente con el pleno empleo en el mercado de trabajo. Dicho a la vieja usanza, la tasa de interés de equilibrio puede ser demasiado alta para que la inversión deseada por las empresas a esa tasa de interés logre absorber los ahorros correspondientes al nivel de ingreso de pleno empleo. El nivel de ingreso, y no la tasa de interés, se ajusta entonces a la baja y con ello el nivel de ahorro queda por debajo del nivel de pleno empleo.

En esta visión los mercados financieros son los principales candidatos para caer en fallas de información (especulación mal informada) precisamente porque están encargados de la coordinación de las decisiones de producción y consumo en el futuro. El desempleo generado por estas fallas de información sobre el futuro, y de las resultantes fallas de coordinación de las decisiones de ahorro e inversión, es involuntario precisamente en el sentido de que no tiene su origen en el funcionamiento del mercado de trabajo sino en el mal funcionamiento de los mercados financieros. Y ello no es culpa de nadie. Es el resultado de que la coordinación de las decisiones intertemporales se lleva a cabo en condiciones de incertidumbre (o, si se prefiere, de ignorancia) sobre el futuro. Como lo dice Leijonhufvud: "En el mundo keynesiano, los mercados financieros son manifiestamente incapaces de proveer la consistencia de los planes de producción y consumo de largo plazo" (Leijonhufvud, 1968, p. 276).

El desempleo es involuntario también en el sentido de que la flexibilidad a la baja de los salarios nominales no es una solución a este problema de coordinación entre decisiones de ahorro e inversión, como Keynes lo argumenta en el capítulo 19 de la Teoría General. Volveremos a este tema en la siguiente sección pero vale la pena enfatizar que varios keynesianos, de Kalecki (1944) a Leijonhufvud (1968), pasando por Patinkin (1965) y Tobin (1980), y otros artículos y conferencias), entendieron muy claramente el argumento de Keynes y sus implicaciones de política económica. Creo que Tobin es quien lo dijo mejor: "(Keynes) reta a la ortodoxia en terreno sagrado, su fe en que la competencia ajustará los precios de los bienes y factores de manera a eliminar excesos de oferta, o de demanda, en todos los mercados. No dice meramente que este proceso puede tomar un tiempo muy largo; dice que simplemente no funciona [...] la moraleja práctica es que una política activa, junto con respuestas de mercado, es parte del mecanismo social para el mantenimiento o restablecimiento del equilibrio" (Tobin, 1980, p. 2).
Hay aquí un gran contraste con la macroeconomía moderna. En la nueva economía clásica, la explicación de los ciclos económicos también considera la existencia de información incompleta (como en el caso del modelo Lucas-Phelps) pero ubica las fallas de información en el mercado de trabajo (trabajadores que confunden aumentos en los salarios nominales con aumentos en los salarios reales) o en los mercados de bienes (agentes que confunden cambios en el nivel general de precios con cambios en precios relativos). De manera similar, en la nueva economía keynesiana de las últimas décadas, el desempleo se explica, en algunas versiones, como resultado de imperfecciones o fallas de información en el mercado de trabajo.

LA MACROECONOMÍA DESPUÉS DE LA TEORÍA GENERAL
En cuanto a lo que ocurrió con la macroeconomía keynesiana después de la Teoría General quiero poner el acento en tres temas. El primero se refiere al supuesto de salarios nominales dados (que Keynes mantuvo hasta el capítulo 19 de la Teoría General en que analiza el caso general de flexibilidad de salarios y precios). El segundo se refiere a la pérdida de relevancia en la síntesis neoclásica, que se origina en el modelo IS-LM de Hicks, de las expectativas sobre el futuro en la determinación del nivel actual de actividad económica y empleo. El tercero tiene que ver con la reintroducción del segundo postulado de la economía clásica en la macroeconomía pos 

Teoría General
El papel del supuesto de salarios nominales dados
Como lo ha hecho ver Patinkin, para Keynes la rigidez de los salarios nominales es más una recomendación de política económica que un supuesto de comportamiento ¡Cómo podría ser de otra manera si la gran depresión de los años treinta del siglo pasado registró una deflación sin precedente de los salarios nominales! En cambio, en la síntesis neoclásica, y más aún entre los nuevos keynesianos, la rigidez de los salarios nominales (o de los precios en algunas versiones) se convirtió en un supuesto clave para la existencia de un equilibrio con desempleo. Ello abrió las puertas para la resurrección de la principal conclusión de la economía clásica: con precios y salarios plenamente flexibles, la economía tiende al pleno empleo.

El comentario de Kalecki al profesor Pigou (1943), publicado en el Economic Journal de 1944, está ahí para recordarnos la falla en el razonamiento que conduce a esa conclusión. En ese comentario de dos páginas, Kalecki argumenta que el efecto positivo sobre la demanda agregada del aumento en los saldos monetarios reales, provocado por la deflación, se verá contrarrestado con toda seguridad por el aumento en el valor real de las deudas de empresas y familias y su efecto negativo sobre la demanda agregada. Esto es así, argumentó Kalecki, porque en una economía monetaria moderna los saldos monetarios son, en su mayor parte, depósitos bancarios que tienen, como contraparte en la hoja de balance de los bancos, activos de los bancos que son, a su vez, deuda de empresas y hogares.
El argumento de Kalecki implica, en términos del modelo de oferta y demanda agregada de los libros de texto, que la curva de demanda agregada (en espacio nivel de precios, nivel de producto) no tiene porqué tener pendiente negativa. Y, por lo tanto, el desplazamiento hacia abajo de la curva de oferta agregada, resultante de la caída de los salarios nominales, no tiene porqué llevarnos a un equilibrio con pleno empleo. Este es un tema, como ya lo mencioné al final de la sección anterior, que ha sido enfatizado también por otros keynesianos.

Las expectativas sobre el futuro en la síntesis neoclásica
Como lo ha argumentado Leijonhufvud (1968), un tema central de la Teoría General es cómo opiniones cambiantes sobre el futuro son capaces de influir en el nivel actual de ocupación. El vínculo crucial es la inversión que afecta a los niveles presentes de actividad económica y de empleo y que, como ya lo mencioné, es una decisión intertemporal que depende de las expectativas sobre el futuro. Es interesante observar que la ausencia de las expectativas sobre el futuro en la determinación del nivel de ingreso de equilibrio inferior al de pleno empleo es la principal objeción de Keynes al modelo IS-LM de Hicks. En efecto, en la correspondencia entre Keynes y Hicks después de que Hicks formulara su modelo IS-LM en "Mr. Keynes and the classics" (1937), Keynes le escribe a Hicks que tiene poco que agregar a su formalización excepto porque la función de inversión (en la que Hicks hace depender la inversión del nivel de ingreso presente) debería depender de condiciones futuras (porque las empresas invierten, no para producir en el presente, sino para producir en el futuro). Es interesante también que esto es prácticamente todo lo Keynes tiene que agregar a la formulación de Hicks!
Ese tema central se perdió en la síntesis neoclásica, lo que abrió las puertas para la reemergencia de modelos de optimización intertemporal en la nueva economía clásica (y también entre los nuevos keynesianos) que, en cierto modo, echaron fuera de la bañera al bebé junto con el agua sucia: es decir, reintrodujeron correctamente la importancia de las expectativas sobre el futuro —en la que la Teoría General había hecho tanto hincapié—, pero descartaron los necesarios supuestos sobre la incertidumbre fundamental que tienen los agentes económicos acerca del futuro.

La reintroducción del segundo postulado de la economía clásica y con ello del supuesto de equilibrio continuo en el mercado de trabajo

Las puertas para que avanzara la contrarrevolución se abrieron de par en par con la Presidential Address de Milton Friedman a la American Economic Association en 1968 ("El papel de la política monetaria"). Esa ponencia es un hito porque marca, hasta donde puedo ver, el momento en el que, en la macroeconomía post Teoría General se reintroduce el supuesto que el mercado de trabajo despeja en todo momento, es decir que el mercado de trabajo está en equilibrio continuo. En efecto, el modelo implícito de Friedman en esa ponencia supone que ese mercado siempre está en equilibrio y los efectos de la demanda agregada sobre el nivel de actividad, provocados por choques monetarios, se dan como resultado de fluctuaciones en la oferta de trabajo, sin que ello implique cambios en el nivel de desempleo. Estas fluctuaciones en la oferta de trabajo son el resultado de que los trabajadores confunden temporalmente los aumentos en salarios nominales con aumentos en salarios reales (lo que conduce a un aumento de su oferta de trabajo) al no darse cuenta de inmediato que los precios, al igual que los salarios nominales, también aumentan con la expansión monetaria. Pero en todo este proceso, el mercado de trabajo está siempre en equilibrio y los trabajadores pueden en todo momento vender la cantidad de trabajo que desean a los precios y salarios que perciben. En otras palabras, una expansión (o contracción) de la demanda agregada no afecta el nivel de actividad reduciendo (o expandiendo) el desempleo: los trabajadores siempre están en su curva de oferta de trabajo deseada. El segundo postulado de la economía clásica se vuelve a cumplir.

El famoso modelo de Lucas (1972) no es más que una variación sobre el mismo tema. El modelo es esencialmente el de Friedman, con dos diferencias. Primero, en el modelo de Lucas los agentes económicos son en cierta forma pescadores que pescan diferentes tipos de peces, a diferencia del modelo de Friedman en el que los agentes son empresas y trabajadores. Segundo, en el modelo de Lucas los agentes económicos tienen expectativas racionales (en lugar de expectativas adaptativas como en Friedman). Debido a la falta de información completa, los agentes económicos confunden también temporalmente cambios en el nivel general de precios con cambios en los precios relativos, haciendo así que el dinero pueda no ser neutral a corto plazo. Es precisamente por el hecho que ahora las expectativas son racionales y de que hay información incompleta que es necesario hacer una distinción entre los efectos de choques monetarios anticipados —que son neutrales aun en el muy corto plazo— y los de choques monetarios no anticipados que no son neutrales en el corto plazo.

LA EDAD OBSCURA DE LA TEORÍA MACROECONÓMICA

Desde entonces hemos vivido en lo que Paul Krugman ha llamado "la edad obscura de la macroeconomía" (Krugman, 2011). En estos años, los últimos treinta, piensa Krugman, sucedieron dos cosas. En primer lugar, se destruyó conocimiento previamente acumulado con consecuencias sociales nefastas. En efecto, se repiten hoy, con una fe que no existía hace treinta o cuarenta años, las mismas falacias que se decían en los años treinta antes y después de la publicación de la Teoría General. Para la ortodoxia, por ejemplo, el desempleo involuntario (cuando se admite su existencia, lo cual es raro) vuelve a ser resultado de la rigidez a la baja de los salarios nominales y, más sorprendente y notable aún, se atribuye a Keynes esa explicación del desempleo! Considérese, por ejemplo, la siguiente cita de Gary Becker (2009) de la Universidad de Chicago y premio Nobel de Economía:
Keynes y muchos economistas anteriores a él enfatizaron que el desempleo aumenta durante las recesiones porque las tasas de salario nominal tienden a ser inflexibles a la baja. La forma natural en que los mercados usualmente eliminan una demanda insuficiente por un bien o servicio, tal como el trabajo, es por la vía de una reducción del precio de ese bien o servicio. Una caída en el precio estimula la demanda y reduce la oferta hasta que éstas se vuelven aproximadamente iguales entre sí. La inflexibilidad a la baja de los salarios impide que eso ocurra rápidamente cuando hay una demanda insuficiente de trabajadores.9
Véase también sobre el mismo tema lo que dice Robert Barro (2009) de la Universidad de Harvard (citado por Krugman, 2011):
John Maynard Keynes sostuvo que el problema radicaba en que los precios y los salarios tenían un nivel excesivamente alto. Sin embargo, ese problema podía solucionarse fácilmente a través de una política monetaria expansiva, de tal forma que los precios y los salarios no tendrían que caer.
Al igual que en los años treinta del siglo pasado, de acuerdo con la ortodoxia un aumento del gasto público necesariamente desplaza un monto igual de gasto privado. En este sentido, Krugman (2011) cita a John Cochrane (2009) de la Universidad de Chicago:
Primero, si no se imprime dinero, éste tiene que venir de algún lugar. Si el gobierno nos pide prestado un dólar, ese dólar no los vamos a gastar o a prestarlo a una empresa para que realice una nueva inversión. Cada dólar en que se incrementa el gasto público debe corresponder a un dólar menos de gasto privado. Los puestos de trabajo creados a través de un gasto estimulador son compensados por pérdidas de empleos causadas por la caída en el gasto privado. Se pueden construir caminos en vez de fábricas, pero el estímulo fiscal no nos puede ayudar a construir más de ambos. Esto es contabilidad, y no necesita un argumento complejo para describir el fenómeno del desplazamiento (crowding out).
Sobre el mismo tema, Krugman (2011) cita también a Niall Ferguson, historiador de la Universidad de Harvard, (en Soros et al., 2009), una cita extraordinaria en un momento en que la tasa de interés de corto plazo había caído ya prácticamente a cero y la base monetaria se había multiplicado varias veces:
Ahora estamos en la fase de terapia ¿y qué terapia estamos siguiendo? Bueno, es una muy interesante porque tiene dos componentes contradictorios. Uno es el prescrito por el Dr. Friedman —es decir, Milton Friedman— que ha sido administrada por la Reserva Federal: inyecciones masivas de liquidez para evitar el tipo de crisis bancaria que causó la Gran Depresión a principios de la década de 1930. Yo estoy de acuerdo con esa. Es correcto hacer eso. Pero hay otro componente de la terapia que es administrado de forma simultánea, que fue prescrito por el Dr. Keynes —John Maynard Keynes— y esta parte de la terapia implica la generación de un déficit que excederá el 12% del PIB el corriente año y la emisión, por lo tanto de un gran cantidad de nuevos bonos.
Existe una clara contradicción entre estas dos políticas, y estamos tratando de tenerlas a ambas. No se puede ser monetarista y keynesiano al mismo tiempo —por lo menos no sé cómo se puede hacer, porque si el objetivo de una política monetarista es mantener la tasa de interés baja y mantener una liquidez alta, el efecto de la política keynesiana es presionar al alza la tasa de interés.
Después de todo, 175 000 millones de dólares es una gran cantidad de nuevos bonos puestos en el mercado de bonos en el momento de la recesión, y todavía no sabemos bien quién los comprará. Ciertamente, no serán los chinos. Eso funcionó bien, en los buenos tiempos, pero lo que yo llamo quimérico, el matrimonio entre China y América, está alcanzando su final. Tal vez termine en un divorcio escandaloso.
Todo esto ayuda a explicar porqué Krugman afirma que si todo lo que supiéramos cuando la actual crisis estalló fuera la macroeconomía de los años 1950 habríamos estado mejor preparados para enfrentarla. Y también porqué Robert Lucas, de la Universidad de Chicago y premio Nobel de Economía, podía decir con confianza, en plena edad obscura, sólo cinco años antes de la crisis reciente lo siguiente:
Mi tesis en esta lección es que la macroeconomía en este sentido original [como un campo distinto dentro de la economía desde los años cuarenta] ha tenido éxito: su problema central de prevención de la depresión ha sido resuelto, para todo propósito práctico, y de hecho ha sido resuelto desde hace muchas décadas (Lucas, 2003, p. 1).
De manera que un primer aspecto de la edad obscura es la destrucción de conocimiento. El segundo aspecto es que, en estos años, ha predominado una visión de la macroeconomía en la que se supone que los agentes económicos, con gran información sobre el funcionamiento de la economía y basados en las correspondientes expectativas racionales, formulan sus planes óptimos de producción, inversión, consumo, trabajo y ocio, y los mercados, en equilibrio continuo, se encargan de volver consistentes entre sí esos planes óptimos. Otra manera de referirse a esta visión es, en la expresión de Buiter (1980), como la macroeconomía del Dr. Pangloss.
¿Cómo pueden estos modelos walrasianos dinámicos, con equilibrio continuo en todos los mercados, explicar los ciclos económicos, la alternancia en la economía de periodos de auge y empleo alto seguidos de recesiones y alto desempleo, uno de los fenómenos más importantes que dieron origen a la macroeconomía? La moderna nueva economía clásica tiene dos principales respuestas a esta pregunta. Una está basada en la existencia de perturbaciones monetarias (choques de demanda agregada que como en el modelo Lucas-Phelps dan lugar a fluctuaciones del producto en presencia de información imperfecta). Ya comenté sobre el mecanismo que permite que la demanda agregada tenga un efecto sobre la actividad económica. La otra respuesta está basada en perturbaciones reales, en particular choques tecnológicos que, en la literatura sobre ciclos económicos reales, conducen a fluctuaciones del producto a través de varios mecanismos posibles de propagación (entre otros, la sustitución entre trabajo presente y futuro). En este caso, la demanda agregada no cumple ningún papel.
Creo que sobra decir que estas explicaciones del ciclo económico no tienen nada que ver con la crisis actual, la cual, esperemos, se encargará de echarlas —y junto con ellas al segundo postulado de la economía clásica— al basurero de la historia de la macroeconomía. Y esperemos que, en el caso del segundo postulado de la economía clásica, esta vez sea la definitiva.

REFERENCIAS

Barro, R., 2009. Government spending is no free lunch. Wall Street Journal, January 22.         [ Links ]

Becker, 2009. How to increase employment. Becker-Posner-blog.com The Becker-Posner blog [blog]. Disponible en: <http://www.becker-posner-blog.com/2009/11/how-to-increase-employment--becker.html>         [ Links ].

Bénassy, J.P., 1975. Neo-Keynesian disequilibrium theory in a monetary economy. The Review of Economic Studies, 42(4), pp. 503-23.         [ Links ]

Buiter, W, 1980. The macroeconomics of Dr. Pangloss: a critical survey of the New Classical Macroeconomics. Economic Journal, 90, pp. 34-50.         [ Links ]

Clower, R., 1965. The Keynesian counter-revolution: a theoretical appraisal. En: F. Hahn y F. Breching eds. The theory of Interest Rates. Londres: Macmillan.         [ Links ]

Cochrane, J., 2009. Fiscal stimulus, fiscal inflation, or fiscal fallacies? Disponible en: <http://faculty.chicagobooth.edu/john.cochrane/research/Papers/fiscal2.html>         [ Links ].

Friedman. M., 1968. The role of monetary policy. The American Economic Review, 58 (1), pp. 1-17.         [ Links ]

Hahn, F., 1984. Equilibrium and Macroeconomics. Cambridge, MA: The MIT Press, 394.         [ Links ]

Hahn, F., 1965. On some problems of proving the existence of equilibrium in a monetary economy. En: F. Hahn and F. Brechling, eds. Theory of Interest Rates. Londres: Macmillan, pp. 126-35.         [ Links ]

Hicks, J., 1937. Mr. Keynes and the Classics: a suggested interpretation, Econometrica, 5(2).         [ Links ]

Kalecki, M., 1944. Professor Pigou on "The Classical Stationary State" a comment. The Economic Journal, 54(213), abril, pp. 131-2.         [ Links ]

Keynes, J.M., 1936. The General Theory of Employment, Interest and Money. Nueva York: Harcourt and Brace.         [ Links ]

Keynes, J.M., 1937. The general theory of employment, Quarterly Journal of Economics, 51(2), pp. 209-23.         [ Links ]

Soros, G. et al., 2009. The crisis and how to deal with it. New York Review of Books, junio 11.         [ Links ]

Krugman, P., 2011. Mr. Keynes and The Moderns. En: University of Cambridge, Cambridge Conference Commemorating the 75th Anniversary of the publication of The General Theory of Employment, Interest, and Money. 20-21 de junio de 2011. Cambridge, MA: University of Cambridge.         [ Links ]

Leijonhufvud, A., 1968. On Keynesian Economics and the Economics of Keynes: A Study in Monetary Theory, Nueva York: Oxford University Press.         [ Links ]

Lucas, R., 1972. Expectations and the neutrality of Money. Journal of Economic Theory, 4, pp. 103-24.         [ Links ]

Lucas, R., 2003. Macroeconomic priorities. [mimeo] Chicago: Department of Economics, The University of Chicago.         [ Links ]

Malinvaud, E., 1985. The Theory of Unemployment Reconsidered. Nueva York: B. Blackwell.         [ Links ]

Patinkin, D., 1965. Money, Interest, and Prices: an integration of monetary and value theory. Nueva York: Harper & Row.         [ Links ]

Patinkin, D., 1982. Anticipations to the general theory? And other essays on Keynes. Chicago: The University of Chicago Press, 302.         [ Links ]

Phelps, E., 1990. Seven Schools of Macroeconomic Thought: the Arne Ryde memorial lectures. Nueva York: Oxford University Press.         [ Links ]

Pigou, A.C., 1943. The Classical Stationary State. The Economic Journal, 53(212), pp. 343-51.         [ Links ]

Robinson, J., 1933. The Economics of Imperfect Competition. Londres: Macmillan.         [ Links ]

Sraffa, P., 1926. The laws of returns under competitive conditions. Economic Journal, 36(144), pp. 535-50.         [ Links ]

Tobin, J., 1980. Asset Accumulation and Economic Activity: reflections on contemporary macroeconomic theory. Chicago: University of Chicago Press.         [ Links ]

NOTAS
* JEL: Journal of Economic Literature-Econlit.
Una versión preliminar de este artículo fue presentada en septiembre de 2011 en la Conferencia de celebración del 70 Aniversario de la Revista Investigación Económica, en la sesión dedicada al 75 aniversario de la publicación de la Teoría General de Keynes. Agradezco a Ignacio Perrotini, Director-Editor de Investigación Económica; Anthony P. Thirlwall; Santiago Capraro, mi ayudante de docencia; mis estudiantes de posgrado de Teoría Macroeconómica I, y los participantes en la Conferencia de Investigación Económica que, de diversas maneras, contribuyeron a mejorar la versión presentada en septiembre pasado. Las traducciones al español de las citas originales en inglés son, al igual que otros errores que pueda contener este artículo, de la exclusiva responsabilidad del autor.
1 En mi opinión, la interpretación de la Teoría General que más ilumina las diferencias entre Keynes y sus críticos es la que ofreció, hace ya muchos años, Axel Leijonhufvud en On Keynesian Economics and the Economics of Keynes, publicado en 1968, un libro basado en su tesis de doctorado y que, junto con las contribuciones asociadas de Clower y Bénassy, es seguramente una de las bases necesarias para reconstruir la macroeconomía después de la debacle producida por la contrarrevolución.
2 En la visión clásica que Keynes criticó —representada hoy en día por la nueva economía clásica— los mercados están en equilibrio continuo y los agentes económicos, además de optimizar intertemporalmente, tienen ya sea previsión perfecta o bien, con algunas adecuaciones y en terminología moderna, 'expectativas racionales'. El modelo subyacente, sin formalizar aún cuando Keynes escribió, tiene su origen en un modelo walrasiano dinámico, tal y como fue ampliado y elaborado por Arrow y Debreu. Es interesante observar que ni Arrow ni Debreu pensaban que ese modelo fuera una descripción de la realidad, como muchos en las siguientes generaciones de walrasianos parecen haber creído. Frank Hahn, que hizo importantes contribuciones a la teoría del equilibrio general competitivo, ofrece la mejor descripción que conozco de la función que puede cumplir ese modelo: "[...] el modelo de Arrow y Debreu [...] mostró que es lógicamente posible describir un mundo en el que individuos egoístas y racionales respondiendo sólo a señales de precios toman acciones que son mutualmente compatibles. La teoría no describe a la mano invisible en movimiento sino con la tarea cumplida. La importancia de este logro intelectual es que provee un punto de referencia. Por ello, quiero decir que realiza una función similar a la que un cuerpo ideal y perfectamente saludable realiza para un patólogo clínico cuando mira a un cuerpo real" (Hahn, 1984, p. 308).
3 El segundo postulado puede ilustrarse con los ejemplos de los pequeños agricultores, carpinteros, artesanos o pescadores que, como Robinson Crusoe, poseen sus medios de producción. ¿Pero puede aplicarse también a los asalariados que no tienen posesión de los medios de producción con que trabajan? Es en la respuesta negativa a esta pregunta, es decir en el rechazo al segundo postulado de la economía clásica, que la economía de Keynes y la de Marx se intersectan. Ello explica, creo, porque se intersectan también en el rechazo a la ley de Say. Recuérdese, a este respecto, el "problema de la realización" en Marx y el reconocimiento por parte de Keynes, en el capítulo 3 de la Teoría General, de la contribución de Marx a la teoría de la demanda efectiva junto con las de Malthus, Silvio Gesell y Major Douglas.
4 Una contribución de Clower (1965), Leijonhufvud (1968) y Bénassy (1975) es haber aclarado precisamente esto.
5 Richard Kahn es el economista al que Keynes más agradece, por sus conversaciones, en el prólogo de la Teoría General.
6 El diagrama de Paul Samuelson es el primer intento por formalizar de una manera sencilla y clara el capítulo 3 de la Teoría General. El modelo IS-LM de Hicks formaliza el modelo de Keynes suponiendo la existencia de dos activos financieros (bonos y dinero) y es en cierta forma más comprehensivo que el diagrama de Samuelson porque contiene un lado real (la curva IS) y un lado financiero (la curva LM). Pero no tiene un mercado de trabajo explícito. El modelo completo de Keynes, con mercado de trabajo y salarios nominales flexibles, se encuentra en el capítulo 19 de la Teoría General. Este modelo completo es muy difícil de formalizar debido a la posible inexistencia de un equilibrio (para una discusión del tema, véase Hahn, 1965).
7 Por qué Walras hizo ese supuesto es un tema que está fuera del alcance de este artículo pero tiene que ver con la necesidad de no hacer su tarea imposible ya que el consideró un modelo con n bienes y m factores de producción, modelo que se vuelve analíticamente muy difícil si se suponen transacciones fuera del equilibrio.
8 Estas decisiones de inversión y ahorro son intertemporales en el sentido preciso de que dependen crucialmente de las expectativas sobre el futuro. Las empresas invierten hoy, no para producir hoy, sino para producir en el futuro. El ahorro también es una decisión intertemporal en el sentido de que los hogares ahorran hoy para consumir en el futuro (o simplemente para acumular riqueza futura). En ambos casos, las expectativas sobre las condiciones futuras cumplen un papel crucial en esas decisiones.
9 Para un análisis mayor véase: Rajiv Sethi, 2009. On the consequences of nominal wage flexibility Rajivsethi.blogspot.com Rajiv Sethi. Thoughts on economics, finance, crime and identity..., [blog] 08 de diciembre. Disponible en: <http://rajivsethi.blogspot.com/2009/12/on-consequences-of-nominal-wage.html>.

Realismo de los Supuestos en Economía: un Análisis Bajo la Lógica de los Procesos Socioeconómicos

Realismo de los Supuestos en Economía: un Análisis
Bajo la Lógica de los Procesos Socioeconómicos
Unrealistic Assumptions in Economics: an Analysis under the Logic of
Socioeconomic Processes
Leonardo Ivarola∗
ivarola@economicas.uba.ar


Resumen: 
El realismo de supuestos es una discusión permanente dentro de la filosofía de la economía. Uno de los trabajos más referidos en este marco es el de Milton Friedman. Este trabajo defiende el uso de supuestos irrealistas, no sólo por una cuestión pragmática, sino también por las dificultades intrínsecas de determinar el grado de realismo de los supuestos. Los realistas, por su parte, han criticado el uso de supuestos irrealistas –como el supuesto de acción racional, información perfecta, bienes homogéneos, etc. –, pero no han acompañado a sus declaraciones con una elaboración epistemológica suficiente. En el presente trabajo se prevé mostrar que una clase particular de realismo de los supuestos es relevante a la hora de examinar los modelos económicos, en función de que el sistema bajo estudio (las economías reales) no es compatible con la lógica de la invarianza y de los mecanismos, sino con la de los árboles de posibilidades. A causa de ello, los modelos no funcionarán como herramientas para la predicción de resultados, sino como representaciones simplificadas de escenarios alternativos, cuya similaridad con el mundo real será examinada en términos de la verosimilitud de una clase de supuestos que los conforman.

Palabras clave: Realismo de los supuestos; procesos socioeconómicos; Milton Friedman; modelos económicos.

Abstract: 
The realism of assumptions is an ongoing debate within the philosophy of economics. One of the most referenced papers in this matter belongs to Milton Friedman. He defends the use of unrealistic assumptions, not only because of a pragmatic issue, but also the intrinsic difficulties of determining the extent of realism. On the other hand, realists have criticized (and still do today) the use of unrealistic assumptions - such as the assumption of rational choice, perfect information, homogeneous goods, etc. However, they did not accompany their statements with a proper epistemological argument that supports their positions. In this work it is expected to show that the realism of (a particular sort of) assumptions is clearly relevant when examining economic models, since the system under study (the real economies) is not compatible with logic of invariance and of mechanisms, but with the logic of possibility trees. Because of this, models will not function as tools for predicting outcomes, but as representations of alternative scenarios, whose similarity to the real world will be examined in terms of the verisimilitude of a class of model assumptions.
Keywords: Realism of assumptions; socioeconomic processes; Milton Friedman; economic models.
∗ Argentino, Licenciado en Economía por la Universidad de Buenos Aires y Doctorando en Filosofía en la Universidad de Buenos Aires. Actualmente es profesor adjunto de la materia “Epistemología de la Economía” en la Universidad de Buenos Aires. Es miembro del Comité de Publicaciones de la editorial del CIECE y del Comité Ejecutivo de las Jornadas de Epistemología de las Ciencias Económicas (CIECE). Dirige el proyecto “Mecanismos socioeconómicos. Desde el deductivismo hacia la actividad interdisciplinaria” (PROINC-FCEUBA).

1.- Introducción

El debate acerca de los supuestos en economía alcanza su punto más alto en 1953 con la publicación de “La metodología de la economía positiva” de Milton Friedman, quien reformula, sobre la base de la epistemología y metodología vigente, el problema del carácter abstracto de la teoría económica, y la utilidad de los modelos económicos para explicar y predecir. Contra el realismo “ingenuo” entonces predominante, Friedman intenta precisar qué tipo de enunciados son los supuestos, cuál es su función en la estructura de la teoría, a qué entidades pueden referir y cómo se los evalúa.

En dicho análisis el autor termina defendiendo una concepción “práctica” de la ciencia económica, por cuanto su interés gravita en la capacidad de las teorías y modelos para proporcionar predicciones correctas acerca de las consecuencias de cualquier cambio de circunstancias.

El texto de Friedman ha sido enormemente influyente dentro de la economía estándar. Más aun, su defensa del “irrealismo” de los supuestos presupone el señalamiento de ciertos problemas epistemológicos importantes. Por un lado, Friedman argumenta que, en un sentido estricto, todos los supuestos son irrealistas, ya que por definición involucran descripciones incompletas, idealizaciones, abstracciones, etc.
Por consiguiente, la pregunta correcta no es preguntarse por realismo de los supuestos, sino por su aproximación con la realidad.
 A ello Friedman va a responder que el único modo de ver si son buenas aproximaciones o no es chequeando la precisión predictiva de las teorías, modelos y/o hipótesis. He aquí un problema que ha sido pasado por alto por varios defensores del realismo: no es posible testear independientemente los supuestos de las implicaciones de una teoría. Así, más que prestar atención a si los supuestos de un modelo son más o menos realistas, Friedman propone evaluar a las teorías por su capacidad para proporcionar buenos vaticinios, esto es, por su precisión predictiva.

En el presente artículo se hará una crítica a la defensa friedmaniana del irrealismo de los supuestos. 

Por un lado, se prevé mostrar que la imposibilidad de testear los supuestos independientemente de las implicaciones de la teoría emerge cuando no existe otro punto de referencia más que la propia evidencia empírica, pero no es aplicable para aquellos casos en los cuales la comparación se hace entre otros supuestos de modelos alternativos. Asimismo, se argumentará que el irrealismo de los supuestos puede no ser un inconveniente cuando el sistema bajo estudio es apto para el descubrimiento de regularidades invariantes.

Sin embargo, sí resulta ser un problema cuando esto no es posible. Éste es el caso de los procesos socioeconómicos. Se mostrará que su naturaleza más cercana a los árboles de posibilidades que a los mecanismos hace que el comportamiento regular de las variables económicas sea más la excepción que la regla. En este sentido, se prevé mostrar que, a diferencia de la concepción friedmaniana de entender a los modelos como “herramientas” o “instrumentos” para predecir fenómenos, éstos pueden ser mejor comprendidos como representaciones de escenarios alternativos del mundo real, y que la elección entre ellos estará basada en su similaridad con la realidad, donde dicha similaridad no será evaluada en función de la capacidad predictiva de cada modelo, sino en términos de la verosimilitud de algunos de sus supuestos.

2.- Friedman y el irrealismo de los supuestos

Friedman sostiene una concepción limitada de los objetivos de la economía, en cuanto ciencia positiva. Según el autor, lo realmente interesante de un modelo, hipótesis o teoría es su capacidad para proporcionar predicciones correctas1. 

Esta elección revela su enfoque eminentemente práctico, ya que la predicción exitosa constituye la base para la elección e implementación de políticas económicas. Sin embargo, la predicción también se conecta de modo significativo con la evaluación de las teorías económicas2.
A este respecto, Friedman va a defender tres tesis fundamentales.
En primer lugar, sólo el test empírico de una teoría es relevante para su evaluación.
En segundo lugar, lo que se testean son las predicciones o implicaciones de una teoría, no sus supuestos3.
Finalmente, no todo test es relevante para la evaluación de una teoría. Sólo lo es aquél que examina una clase particular de predicciones4.

De estas tres tesis, Friedman concluye que evaluar a las teorías o modelos económicos testeando sus supuestos es una falacia metodológica. Quienes la cometen, adhieren a lo que Marqués denomina “Tesis del Realismo de los Supuestos”5, la cual puede ser caracterizada de la siguiente manera:
(a) Las teorías tienen supuestos, y si éstos son ‘irrealistas’, las invalidan.
(b) Es posible sustituir el test de una teoría por el test de sus supuestos (y tomar sobre esta base una decisión acerca de qué hacer con la teoría)

1 La tarea de la teoría económica “es proporcionar un sistema de generalizaciones que puedan ser usadas para hacer predicciones correctas acerca de las consecuencias de cualquier cambio en las circunstancias”. FRIEDMAN, Milton. «The Methodology Of Positive Economics». En FRIEDMAN,
Milton Essays In Positive Economics. University Of Chicago Press, Chicago, 1953
2 “Considerada como un cuerpo de hipótesis sustantivas, una teoría debe ser juzgada por su poder predictivo respecto de la clase de fenómenos que se intenta ‘explicar’. FRIEDMAN, Milton. «The Methodology Of Positive Economics», p. 8. Énfasis en original.
3 “El único test relevante de la validez de una hipótesis es la comparación de sus predicciones con la experiencia”. FRIEDMAN, Milton. «The Methodology Of Positive Economics», pp. 8-9.
4 “Los propósitos perseguidos por los economistas proporcionan el criterio fundamental que permite dividir a las predicciones en dos subclases: aquellas que interesan o son juzgadas importantes, y aquellas que no son ni una cosa ni la otra. Según Friedman, sólo las del primer tipo son relevantes para el test de la teoría” MARQUÉS, Gustavo. De la mano invisible a la economía como proceso administrado. Una reflexión filosófica y epistemológica. Ediciones Cooperativas, Buenos Aires, 2004, p. 201.
5 MARQUÉS, Gustavo. «Dos cuestiones insuficientemente debatidas acerca de los supuestos en economía». Análisis Filosófico, Vol. 24, No. 1, 2004, p. 62.


Existen varios supuestos sumamente controvertidos en economía. La mayor parte de estos proviene del pensamiento neoclásico, como por ejemplo el supuesto de optimización de beneficios, equilibrio general, ventajas comparativas, expectativas racionales, desempleo voluntario, etc. Si bien el debate acerca del realismo de las teorías y de los modelos económicos viene de antaño, las discusiones más prominentes desde el punto de vista epistemológico comenzaron a darse a partir de principios del siglo XX, principalmente en lo que se refiere a la teoría de la elección racional del consumidor y del productor.

Un debate más reciente respecto del realismo de los supuestos ha sido llevado a cabo por economistas del Behavioral Economics. Dentro de esta nueva corriente de pensamiento se considera que un mayor realismo de los supuestos mejorará sustancialmente las teorías y modelos económicos, tanto para explicar y predecir como para intervenir. Y a pesar de que no acompañen sus declaraciones con una elaboración epistemológica adecuada que fundamente su postura, se ha mostrado en los hechos mismos que el reemplazo de supuestos controvertidos por otros más “realistas” (donde dicho realismo se entiende en términos de correspondencia con patrones de conducta avalados empíricamente por la psicología conductista) explica una serie de anomalías no solucionadas dentro de la ortodoxia económica.
Empero, en estos debates lo que se hace es criticar a las teorías y/o modelos por sus supuestos, y es justamente lo que cuestiona Friedman. En un sentido estricto, todos los supuestos son irrealistas. Todos son simplificaciones y/o abstracciones de la realidad. Nunca se podrá dar una descripción exhaustiva del mundo real.
Tampoco es necesario. Más aun, es un mérito decir mucho con poco. El asunto es que, para lograr dicho mérito, las teorías deben ser irrealistas: (…) cuanto más significativa es la teoría más irreal serán los supuestos (…) La razón es sencilla. Una hipótesis es importante si "explica" mucho con poco, o sea, si abstrae los elementos comunes y cruciales de la masa de circunstancias complejas y detalladas que rodean al fenómeno que va a explicarse y permite unas predicciones válidas6.
El punto no es examinar el grado de realismo de los supuestos, sino su grado de aproximación con la realidad, y el único modo de saber si es una buena aproximación o no es examinando las predicciones de la teoría:
6 FRIEDMAN, Milton. «The Methodology Of Positive Economics», p. 14

(…) el problema esencial en torno a los "supuestos" de una teoría no es, si son descriptivamente "realistas", porque nunca lo son, sino, si constituyen aproximaciones lo suficientemente buenas para resolver el problema de que se trate. Y esta cuestión puede -contestarse sólo comprobando si la teoría
funciona, lo que sucede si proporciona vaticinios bastante seguros7.
Tomemos como ejemplo el supuesto de vacío en el marco de la ley de Galileo, la cual suele formularse como s = ½.g.t2, donde s es la distancia recorrida en pies, g la constante gravitacional y t el tiempo en segundos. La presión atmosférica cerca del nivel del mar es de una atmósfera o quince libras por pulgada cuadrada.
Claramente, el supuesto de vacío es “irrealista”. Ahora bien, lo que Friedman sugiere es no prestar atención a si dicho supuesto es o no realista, sino si constituye una buena aproximación a la realidad. El único modo de saber esto es probando si la teoría funciona, esto es, si sus predicciones son bastante acertadas. Supongamos entonces que se arroja desde el techo de una casa un objeto de peso considerable (v. gr., una bola maciza de acero). ¿Cómo saber si el supuesto de vacío es una buena aproximación o no? Observando la fiabilidad de las predicciones. En el presente caso, el valor predicho estará lo bastante cercano al valor real. Por consiguiente, el supuesto de vacío será una buena aproximación.
Pero si en lugar arrojar un objeto pesado como la bola maciza lo que se arroja ahora es una pluma, entonces el valor predicho diferirá sustancialmente del valor real. Por consiguiente, el supuesto de vacío no será una buena aproximación.
Así, lo que sugiere Friedman es no prestar atención a si dicho supuesto es o no realista, sino si constituye una buena aproximación a la realidad. Tomemos como caso la hipótesis de que las plantas maximizan el uso de la luz solar. Dicha hipótesis es claramente falsa: las plantas, por ejemplo, no tienen la capacidad de tomar decisiones basadas en los axiomas de la elección racional, condición necesaria para cualquier tipo de optimización. No obstante, ésta puede ser una buena aproximación a la realidad. Por ejemplo, en el hemisferio norte las copas de los árboles son más frondosas en el lado sur que en el lado norte (caso inverso en el hemisferio sur), suelen presentar inclinaciones cuando la luz no es recibida de manera directa, etc. Comparemos esta hipótesis con la teoría de la fotosíntesis.
Esta última presenta una explicación mucho más detallada que la primera, y está más acorde con los mecanismos que efectivamente operan en el mundo real. Sin embargo, a juicio de Friedman, ésta no es la razón por la cual se elige a la teoría de la fotosíntesis por sobre la hipótesis de la maximización de la luz solar. Su elección es producto de las mejores predicciones de la primera respecto de la segunda. En otras palabras, la hipótesis alternativa es más atractiva que la hipótesis primera, no porque sus supuestos sean más "realistas", sino más bien porque forma parte de una teoría más general que se aplica a una variedad más extensa de fenómenos, entre los que la posición de las hojas de un árbol es un caso especial, porque posee más deducciones capaces de contrastación y porque
ha afirmado su validez en una más amplia variedad de circunstancias.
7 FRIEDMAN, Milton. «The Methodology Of Positive Economics», p. 15.

Y así como el criterio de evaluación de la ley de Galileo y de la hipótesis de maximización de la luz solar es la contrastación de sus implicaciones con la realidad, de la misma manera Friedman sugiere que debería evaluarse la teoría de la elección racional.
De acuerdo con el autor, las críticas dirigidas hacia ésta por el uso de supuestos irrealistas están mal fundamentadas. Lo (aparentemente) interesante de la teoría de la elección racional no son las aserciones acerca del modo en que los agentes eligen las canastas óptimas o los productores la combinación de factores productivos que le permitan maximizar sus beneficios. La lectura no debe ser “literal”, así como tampoco es literal la lectura que se hace de la hipótesis de maximización de la luz solar. No es que los empresarios produzcan en aquel punto donde el ingreso marginal es igual al costo marginal, sino que se comportan como si lo hicieran. Si no actuasen de dicha manera, es altamente probable que sean expulsados del mercado. Lo relevante no es la hipótesis per se, sino sus implicaciones.
De lo anterior se sigue que el test de los supuestos y el test de las teorías es uno solo: el test empírico de sus predicciones. Para determinar la significación de las discrepancias entre las condiciones de aplicación asumidas en la teoría y las condiciones concretas que rigen en cualquier ámbito de aplicación particular no hay otro camino que testear las predicciones de la teoría. El único modo de saber si el supuesto de vacío es una buena aproximación o no es examinando la precisión de las predicciones de la ley de Galileo. De la misma manera, el único modo de saber si el supuesto de que las plantas maximizan el uso de la luz solar es un buen supuesto o no es examinando las discrepancias entre los valores predichos y los resultados empíricos. Por tanto, (…) no es posible estimar independientemente del test de una teoría (y por anticipado), si el desacuerdo entre lo afirmado en sus supuestos (de aplicación) y los hechos descritos por ellos, es o no suficientemente significativo8.
Que los dos presuntos tests (el de los supuestos y el de las predicciones) se reduzcan en realidad a uno solo es un resultado cuya importancia no puede ser pasada por alto. Una de sus consecuencias inmediatas es que la tesis del realismo de los supuestos es insostenible. Pero su significación es mucho más general: si Friedman tiene razón, entonces no va a ser posible “un procedimiento en dos tiempos, consistente primero en decidir si se cumplen las condiciones de aplicación de una teoría y luego en examinar si es adecuada en su dominio de aplicación”9.
8 MARQUÉS, Gustavo. De la mano invisible a la economía como proceso administrado. Una reflexiónfilosófica y epistemológica, p. 208.
9 MARQUÉS, Gustavo. «Dos cuestiones insuficientemente debatidas acerca de los supuestos en economía». Análisis Filosófico, p. 68.


3.- Diferenciando los sentidos de “realismo”

Friedman defiende el uso de supuestos irrealistas en la economía, tomando como base la idea de que la adecuación de una teoría, modelo o hipótesis debe ser juzgada por la concordancia de sus consecuencias lógicas con la realidad fenoménica. No obstante, el autor no da una definición de “irrealismo”, y simplemente considera que todos los supuestos son irrealistas. La falta de un análisis exhaustivo y las consecuentes ambigüedades terminológicas que subyacen a la denominación de “irrealismo” de los supuestos ha dado lugar a una miríada de críticas, tanto dentro de la filosofía de la economía como fuera de ella.
Una de las primeras críticas fue abordada por Nagel10. Según éste, el irrealismo de los supuestos puede ser entendido de tres maneras diferentes: (1) como una descripción incompleta, (2) como una abstracción, y (3) como una falsedad.
Respecto del primer punto, Nagel concuerda que todos los supuestos son por naturaleza irrealistas, ya que ninguno proporciona una descripción exhaustiva. No obstante, esto no significa adoptar una postura a favor del irrealismo de los modelos económicos. El segundo caso hace referencia a casos ideales. Ejemplos de esto son los supuestos de vacío o de bienes homogéneos. Por lo general, estos supuestos son utilizados con el objetivo de aislar una contribución causal de una miríada de factores perturbadores. De acuerdo con Nagel, esta clase de supuestos tampoco sería materia de discusión; cualquier autor estaría de acuerdo en decir que estos supuestos son por naturaleza irrealistas. El tercer caso sí es más controvertido que los anteriores. Cuando se dice que un supuesto es falso, lo que se afirma es que éste no es concordante con la evidencia disponible. Esta clase de supuestos sí puede llegar a marcar una diferencia entre aquellos defensores del realismo de los supuestos y aquellos que no, en cuanto los primeros no aceptarían que un supuesto que sea inverosímil o incongruente con el conocimiento disponible.
Similarmente, Musgrave11 critica a Friedman de no haber podido distinguir entre tres tipos de supuestos, los cuales juegan un rol específico en la teoría:
1. supuestos insignificantes
2. supuestos heurísticos
3. supuestos de dominio
10 NAGEL, Ernest. «Assumptions in economic theory». The American Economic Review, 1963, pp.
211-219.
11 MUSGRAVE, Alan. «Unreal Assumptions in Economic Theory: The F-Twist Untwisted». Kyklos,
1981, pp. 377-387.


Los supuestos insignificantes son aquellos en el cual un cierto factor F, que tiene la capacidad de influir en un resultado R, no la ejerce en el caso bajo estudio. Esto significa que, aunque F no sea significativo en ese momento, existe la posibilidad de que sí lo sea en otro. El supuesto de vacío (o de resistencia nula del aire) es para Musgrave un supuesto insignificante: si bien el aire es un factor que puede afectar (y que de hecho afecta) a la caída de los graves, para ciertos casos a examinar no es significativo.
Los supuestos heurísticos son aquellos que sirven como paso previo para alcanzar hipótesis más profundas. El propósito de esta clase de supuestos es sencillamente simplificar el análisis dentro de una teoría. Consideremos un ejemplo de la física.
Cuando Newton buscaba descubrir qué predecía su teoría acerca del sistema solar, primero omitió las fuerzas gravitacionales interplanetarias, asumiendo que sólo había un planeta girando alrededor del sol. Newton probó que, si su teoría era correcta, el planeta se movería elípticamente alrededor de éste. Claramente, dicho supuesto no pertenece a la primera categoría mencionada. Newton sabía que los planetas tienen un efecto gravitacional significativo sobre los demás.
Musgrave considera que es un sinsentido criticar a esta clase de supuestos de “irrealistas”. Quien lo introduce sabe que lo son, como así también sabe que las consecuencias derivadas de los supuestos heurísticos no representan las predicciones de la teoría bajo análisis. Son tan solo pasos que se siguen a fin de alcanzar derivaciones más precisas.
Finalmente, los supuestos de dominio son aquellos que especifican el alcance, dominio o rango de aplicabilidad de la teoría. En este último caso la discusión acerca del realismo de los supuestos es diferente. Suponiendo que los supuestos de dominio nunca se cumpliesen – ni siquiera aproximadamente–, ¿qué sentido tendría su aplicación al mundo real? A diferencia de los otros dos supuestos, Musgrave parece pretender un mayor realismo para esta clase: cuanto más irrealistas sean los supuestos de dominio, menos aplicable (y/o testeable) va a ser la teoría, y por consiguiente menos significativa12.
En un análisis más reciente, Kuorikoski y Lehtinen13 consideran que en los modelos teóricos coexisten dos tipos de supuestos: los sustantivos y los auxiliares. Los supuestos auxiliares cumplen una función heurística o de tratabilidad dentro del modelo. Supuestos como los de funciones de utilidad continua en todo su dominio o de que sólo existen dos agentes en el mercado son utilizados con el propósito de facilitar la inferencia de resultados, aunque se espera que no hagan una diferencia a los mismos (esto es, que utilizando otra clase de supuestos auxiliares no se infieran resultados diferentes).
12 “Si un supuesto de dominio es siempre falso, la teoría que lo contiene no puede ser aplicada a ninguna situación real, y de hecho es no testeable. Si los gobiernos nunca equilibran sus presupuestos, una teoría acerca de lo que pasa si ellos lo hacen no puede ser testeada. Por ende, si valorizamos la testeabilidad, debemos esperar que nuestros supuestos de dominio [...] sean verdaderos en el mayor número posible de circunstancias reales” MUSGRAVE, Alan. «Unreal Assumptions in Economic Theory: The F-Twist Untwisted», pp. 381-382.
13 KUORIKOSKI, Jaakko; LEHTINEN, Aki. «Incredible Worlds, Credible Results». En Erkenntnis, Vol. 70, No. 1, 2009, pp. 119-131.

Por su parte, los supuestos sustantivos se refieren a aspectos del mecanismo causal central del modelo, del que uno se esfuerza en hacer afirmaciones importantes. Por lo general son supuestos que se espera que tengan algún grado de mérito empírico, es decir, que se considere que sean más o menos ciertos de los sistemas-objetivo. Kuorikoski y Lehtinen sostienen que si los supuestos substantivos no son realistas o verosímiles, el contenido informativo de los modelos carecerá de relevancia epistémica.
No obstante, los tres enfoques recién mencionados parecen dar por sentada la factibilidad del test de los supuestos, pero es justamente lo que Friedman critica.
¿Cómo saber si un supuesto substantivo es verosímil? ¿Cómo saber si un supuesto es falso? Testeando las predicciones de la teoría. Ésta es para Friedman la única posibilidad de saber si en efecto un supuesto es una buena aproximación a la realidad. Para Friedman, si una teoría proporciona buenas predicciones – es, en términos de Musgrave, “significativa” – entonces podremos decir que los supuestos son buenas aproximaciones. No es que la teoría no sea significativa porque los supuestos son malas aproximaciones. Éstos son malas aproximaciones justamente porque la teoría no es significativa (esto es, no proporciona buenos vaticinios). Así, no sólo es intrascendente incorporar supuestos que se correspondan con las condiciones vigentes, sino que, en la práctica, como no hay una manera independiente de determinar dicho grado de correspondencia, tampoco se puede estimar su relevancia hasta no haber examinado las predicciones que se siguen de la teoría (Marqués, 2004a).

4.- Testeando los supuestos. Una alternativa al “problema” de Friedman

Evaluar a los modelos económicos según sus supuestos es para Friedman no sólo una falacia metodológica, sino también una imposibilidad. Retomemos una vez más el ejemplo de la ley de Galileo. Evaluar esta ley por sus supuestos implicaría, por ejemplo, medir la presión atmosférica actual y ver si está bastante cerca de cero. Al nivel del mar la presión es de aproximadamente 15 libras por pulgada cuadrada. ¿Es entonces el supuesto de vacío irrealista? Claramente lo es, en tanto 15 difiere de cero. Pero esta pregunta no es la correcta. Según Friedman, lo correcto es preguntarse si las 15 libras están lo suficientemente cerca de cero como para juzgar a esa diferencia significativa o no. El único modo de saberlo es probando si la teoría funciona, esto es, chequeando la precisión de las predicciones. Friedman considera que el supuesto de vacío es una buena aproximación para el caso de objetos pesados – como por ejemplo la caída de una bola maciza – pero no para el caso de la pluma.
Ahora bien, lo que en realidad se está haciendo en estos casos es establecer un punto de referencia o de comparación. Cuando Friedman se pregunta si la presión de 15 libras por pulgada cuadrada está suficientemente cerca de cero o no, lo que hace es comparar esta diferencia con la discrepancia entre el valor predicho y el valor real. Hasta aquí estamos de acuerdo con Friedman. Pero en lo que no estamos de acuerdo con el autor es que el único punto de referencia sea el grado de acercamiento de los vaticinios.

Tomemos el caso de la fórmula de Galileo (x) y expresémosla de un modo más abstracto:
s = x (g, t)
La ley de Galileo asume un medio vacío, esto es,
s = x (g, t, p = 0)
donde p es la presión atmosférica.
Supongamos ahora que hubiese una fórmula alternativa a la ley de Galileo (w), la cual incorporase como otra variable relevante la presión atmosférica. Esto se podría expresar de la siguiente manera:
s = w (g, t, p = 15)

Lo que deseamos ahora es comparar los supuestos de ambas ecuaciones con las condiciones del mundo real. Para Friedman, el grado de proximidad se establece en relación con la precisión de las predicciones. Esto se hace cuando tenemos un sólo modelo. Sin embargo, si tenemos más de uno, la comparación puede hacerse entre estos, sin necesidad de recurrir al grado de confianza de los vaticinios. Para el caso de las fórmulas x y w la pregunta “¿cuál de los dos supuestos está más próximo a la realidad: el de p = 0 o el de p = 15?” se puede responder comparando a éstos con el valor real de la presión atmosférica. Es posible que a causa de cambios en las condiciones climáticas la presión no sea precisamente de 15 libras por pulgada cuadrada, pero lo que sí se podrá decir con total confianza es que, en las cercanías del nivel del mar, el supuesto de p = 15 estará más próximo a la realidad que el supuesto de p = 0. Y esta respuesta se logra sin tener que recurrir al grado de precisión de las predicciones de dichas fórmulas.
Acá no importa qué teoría sirva más para propósitos predictivos. La pregunta relevante es acerca del grado de aproximación de algunos de los supuestos de la teoría. Esto se puede responder comparando los valores asumidos en los modelos con los valores reales. Si no hay un modelo alternativo, la única forma de saber si 0 (cero, o supuesto de vacío) está suficientemente cerca del valor real de la presión atmosférica es revisando la precisión de las predicciones de la teoría. Sin embargo, si disponemos de un modelo alternativo que incorpore el valor de 15, entonces 0 y 15 van a ser valores que se podrán comparar con el valor real. Lo interesante de esto es señalar que, para medir el grado de aproximación, no se necesita recurrir a las predicciones de la teoría.
Así, la cuestión acerca de si las acciones reales de los empresarios están más próximas a la utilización de ciertas heurísticas explicables a través de la psicología, o si en realidad toman decisiones consultando los valores, curvas o funciones de costo e ingreso marginal, no es algo que deba decidirse necesariamente sobre la base de la precisión predictiva de los modelos. Lo mismo ocurrirá con cualquier otro supuesto en economía. El problema introducido por Friedman emerge cuando no se tiene otro punto de referencia que la evidencia empírica. Empero, éste desaparece en tanto el punto de comparación sea(n) otro(s) supuesto(s) de modelos alternativos. Existe una diferencia sustancial entre preguntar “¿es X realista?” o “¿es X más realista que Y?”. La primera se contesta observando la precisión predictiva. La segunda no.

5.- Irrealismo de los supuestos bajo la lógica de los procesos  socioeconómicos

Según lo examinado más arriba, en el enfoque de Friedman los modelos y/o teorías sólo sirven para ordenar y predecir fenómenos observables. De ser esto cierto, luego lo evidentemente interesante de un modelo, hipótesis o teoría va a residir en su capacidad para configurar relaciones invariantes entre diferentes variables. Tomemos como ejemplo la investigación meteorológica14. En 1955 Norman Phillips tuvo éxito en reproducir los patrones del viento y de la presión de toda la atmósfera en un modelo de computadora. Phillips usó solamente seis ecuaciones, las cuales se condecían con las leyes de la hidrodinámica15. El modelo de Phillips tuvo un gran éxito, puesto que pudo imitar los patrones climáticos bastante bien. Sin embargo, este éxito le duró solo unas semanas: el modelo no era invariante ante cambios en determinadas condiciones iniciales como la dinámica de la atmósfera.
Ciertos modelos alternativos fueron propuestos con el objetivo de dar cuenta de las anomalías del modelo de Phillips. Uno de ellos fue el desarrollado por Akio Arakawa. Este modelo involucraba el deshacerse de los verdaderos procesos, y en cambio focalizarse en la imitación de la dinámica de los resultados. Para garantizar la estabilidad del procedimiento de simulación, Arakawa introdujo una serie de supuestos adicionales, muchos de ellos contradictorios con la física teórica y con la misma experiencia. Por ejemplo, Arakawa supuso que la energía quinésica en la atmósfera sería preservada. Este supuesto es claramente “irrealista”: parte de la energía es transformada en calor por la fricción. Asimismo, la disipación es presumiblemente un factor importante para la estabilidad de la atmósfera real. Así, al asumir la preservación de la energía quinésica, Arakawa limitó “artificialmente” la fuente de inestabilidades. Este supuesto no fue derivado de una base teorética. Su lugar dentro del modelo estaba sólo justificado por el mayor éxito predictivo que éste proporcionaba en relación con otros modelos.
En términos más generales, supongamos dos variables X e Y. Supongamos que un modelo M muestra que X e Y se conectan con un alto grado de regularidad o invarianza, donde los valores de X representarían las condiciones iniciales de M e Y las respectivas implicaciones. De acuerdo con lo que Friedman propone, es irrelevante que las propias proposiciones de M sean verdaderas o no. Lo relevante estriba en mostrar que la mayor parte de las veces que X tome un determinado valor, se podrá predecir con un alto grado de confianza el valor de Y.

14 Ejemplo tomado de GRÜNE-YANOFF, Till; WEIRICH, Paul. «The Philosophy and Epistemology of Simulation: A Review». En Simulation and Gaming, Vol. 41, 2010, No. 1, p. 36.
15 Éstas son concebidas como la base de la climatología.


Ahora bien, este enfoque cobra sentido en la medida en que los sistemas bajo estudio puedan dar cuenta de relaciones invariantes. Piénsese por un momento en el conocimiento que se tiene respecto de la relación entre el crecimiento (o densidad de follaje) de las plantas y la luz solar. En la medida en que se descubra una relación invariante entre el crecimiento de las plantas y la luz solar, uno podría asumir que las plantas se van a comportar como si maximizaran el uso de la luz solar. Sobre la base de este tipo de conocimiento se va a poder predecir con buen grado de confianza qué pasaría bajo diferentes circunstancias (como por ejemplo modificar la ubicación de una planta dentro de la casa).
No obstante, es cuestionable que dicho enfoque tenga la misma validez en sistemas donde la invarianza es la excepción más que la regla. Éste es el caso de los sistemas socioeconómicos.
A un nivel muy general, se puede decir que los procesos socioeconómicos se componen de dos elementos fundamentales: 1) las condiciones del contexto, que acotan el marco de acción de las personas; 2) las señales del mundo, que son interpretadas por los sujetos para tomar decisiones.
En principio, decir que los procesos sociales dependen de las señales del mundo significa decir que la información que los agentes reciben del mundo (v. gr., cambios en variables económicas, anuncios políticos, tapa de un periódico, un rumor) constituye una señal a ser captada e interpretada por las personas. Estas interpretaciones conducirán a la formación de expectativas sobre estados del mundo futuro, el cual es incierto por definición. Finalmente, diremos que las personas actuarán sobre la base de sus interpretaciones y expectativas. Estas acciones darán lugar a nuevas señales, las cuales serán recibidas e interpretadas por otros agentes, etc.
Un ejemplo de un proceso cuyo resultado depende de las señales del mundo es la teoría de la profecía autocumplida formulada por Merton. Ésta se refiere a un fenómeno social por el cual una señal informativa falsa tiene consecuencias verdaderas, las cuales eran inverosímiles antes del envío de dicha información. A modo de ejemplo, supongamos que se difunde el rumor sobre el posible quiebre de un banco. Algunos de los depositantes retirarán sus depósitos, haciendo que las reservas del mismo disminuyan. Esto reforzará aún más el rumor, por lo cual un número creciente de personas retirarán sus depósitos. Este proceso continuará hasta que el banco se quede sin reservas y termine finalmente presentando la bancarrota.
Asimismo, los procesos socioeconómicos dependen fuertemente de las condiciones del entorno, contexto o macro-estructura, las cuales “dan forma” al comportamiento de los individuos. Dicha estructura no es otra cosa que el conjunto de condiciones habilitantes e in-habilitantes de la acción humana. Esto significa que existen ciertas circunstancias del contexto que habilitan a las personas a tomar determinadas decisiones, así como también hay otras que las limitan. El proceso de la “bicicleta financiera” durante la década del 70’ en Argentina es un buen ejemplo de ello:

El mecanismo utilizado era muy simple: se introducían dólares prestados por bancos extranjeros, se los pasaba a pesos, se realizaban ganancias por la tasa de interés nominal interna mucho mayor que el costo del crédito, fijado por la tasa de interés externa y el ritmo de devaluación, después se reconvertían los pesos a dólares, se los sacaba del país y se los depositaba en un banco extranjero, y se obtenía un nuevo crédito en dólares de ese banco con la garantía del depósito; y así se repetía la operación16.

Lo anterior puede resumirse en las siguientes condiciones:

1. Gran liquidez en los mercados financieros mundiales y baja demanda de créditos en los países desarrollados, lo cual favoreció que regiones como América Latina comenzaran a jugar un rol importante como tomadores de créditos.
2. Reforma financiera de 1977 en Argentina: completa liberalización del movimiento de capitales con el exterior.
3. El sector público tomó créditos destinados a la formación de reservas de divisas
4. La tasa de interés interna era superior a la internacional. Esta brecha se acentuaba más ante expectativas de devaluación.
El ejemplo anterior permite ilustrar cómo las condiciones de la macro-estructura habilitan en algunos casos (e in-habilitan en otros) determinadas tomas de decisiones. Los préstamos en dólares no habrían sido posibles si la liquidez de los mercados mundiales no hubiese sido abundante; sin la reforma financiera el flujo de capitales que se movía libremente entre Argentina y el resto del mundo no habría tenido lugar; el diferencial de tasas de interés interna e internacional fue quizás el mayor aliciente para emprender las maniobras especulativas; si el Banco Central no hubiese tomado préstamos para la formación de reservas, la conversión de pesos a dólares se hubiese dificultado.
Dentro de la filosofía de la ciencia moderna existe un fuerte interés por explicar los fenómenos del mundo real apelando a una ontología mecanicista. Esto ha llevado al desarrollo de una nueva escuela a la que se ha denominado “Nueva Filosofía Mecanicista”17. Una particularidad de los mecanismos es que exhiben un comportamiento regular o invariante18. Esta invarianza es consecuencia del comportamiento estable de sus partes constituyentes. 

16 CALCAGNO, Alfredo. La perversa deuda argentina. Legasa, Buenos Aires, 1985, pp. 59-60.
17 SKIPPER, Robert; MILSTEIN, Roberta. «Thinking about evolutionary mechanisms: natural selection». Studies in History and Philosophy of Biological and Biomedical Sciences, Vol. 36, No. 2, Elsevier, Ámsterdam, 2005.
18 WOODWARD, James. «What Is a Mechanism? A Counterfactual Account». Philosophy of Science, Vol. 69, 2002, pp. 366-377.


En otras palabras, las regularidades que denotan el comportamiento de un mecanismo son invariantes
porque las actividades19 que se desarrollan dentro de éste son invariantes. En contraste, las actividades que se llevan a cabo en el interior de los procesos socioeconómicos se corresponden con las acciones de las personas, las cuales pueden ser muy volátiles. Por ejemplo, cualquier cambio en la interpretación de las señales recibidas redundará en una modificación en la formación de expectativas; cualquier cambio institucional redireccionará los cursos de acciones posibles de las personas, etc. Por consiguiente, las actividades subyacentes a los procesos socioeconómicos no serán estables o invariantes, lo cual contribuirá a la inestabilidad de los mismos.
Tomemos como ejemplo de un proceso socioeconómico el “efecto Keynes”. Se trata de un proceso por el cual un aumento en la cantidad real de dinero conduce a un descenso en la tasa de interés, estimulando inversión y en consecuencia el empleo y la producción. Ahora bien, es erróneo pensar que un cambio positivo en la cantidad real de dinero conducirá de manera invariante a un descenso en la tasa de interés, a un aumento en la inversión, y por consiguiente a un incremento en el nivel de empleo y de la renta nacional. Por el contrario, de acuerdo con el marco contextual y con las interpretaciones y expectativas que formen las personas, distintos serán los caminos que puedan tomar esta clase de procesos.

Keynes ha sido explícito al respecto:

… si bien puede esperarse que, ceteris paribus, un aumento en la cantidad de dinero reduzca la tasa de interés, esto no sucederá si las preferencias por la liquidez del público aumentan más que la cantidad de dinero; y mientras que puede esperarse que, ceteris paribus, un descenso en la tasa de interés aumente el volumen de la inversión, esto no ocurrirá si la curva de la eficiencia marginal del capital baja con mayor rapidez que la tasa de interés; y mientras es de suponer que, ceteris paribus, un aumento en el volumen de la inversión haga subir la ocupación, esto puede no suceder si la propensión marginal a  consumir va en descenso20.

Este ejemplo permite mostrar que los procesos económicos no responden de manera adecuada a la lógica de la invarianza y de los mecanismos. Por el contrario, se ajustan mejor a la lógica de los “árboles de posibilidades” o “resultados de final abierto”: dado un acontecimiento determinado (inflación, aumento del gasto público, huelga gremial, etc.), existen diferentes caminos o alternativas. Cualquiera de éstos es en principio plausible. Su acontecimiento o no dependerá de cómo las personas formen sus expectativas en ese momento, del marco cultural, institucional, etc. 

19 MACHAMER, Peter; DARDEN, Lindley; CRAVER, Carl. «Thinking About Mechanisms». Philosophy of Science, Vol. 67, No. 1, pp. 1-25, 2000. El término “actividad” ha sido acuñado por estos autores para denotar las relaciones productivas o causales entre variables y/o entidades.
20 KEYNES, John. La Teoría General de la Ocupación, el Interés y el Dinero. Fondo de Cultura económica, Buenos Aires, 2001, p. 150.


En este sentido, no parece apropiado hacer afirmaciones del tipo “existe un mecanismo por el cual la oferta monetaria provoca cambios en la renta nacional”. No hay una fuerza causal que induzca a las personas a demandar mayor cantidad de activos financieros cada vez que la cantidad real de dinero aumente en una economía. Las personas pueden volcar estos incrementos a la compra de bienes y servicios o al atesoramiento. Las acciones no están - por decirlo de alguna manera - “predeterminadas”, sino que dependen fuertemente de las condiciones del contexto, de cómo formen sus expectativas, etc.
Ahora bien, puesto que en los procesos socioeconómicos no hay invarianza, y ésta es una pieza clave para justificar los modelos irrealistas, se sigue de ello que buena parte de los modelos económicos no se ajustará a los requisitos de precisión predictiva pretendidos directa o indirectamente por Friedman. De estos modelos, pocos serán realmente “útiles”, y aquellos que lo sean lo serán por tiempo limitado21.
Al concebir los procesos socioeconómicos bajo la lógica de los árboles de posibilidades se puede pensar en un enfoque alternativo al de Friedman, respecto del conocimiento que proporcionan los modelos económicos, y como éstos pueden utilizarse para diferentes propósitos. Más específicamente, estos modelos pueden ser entendidos como representaciones de escenarios alternativos, donde lo que se modelan son anteproyectos que involucran el cierre de los árboles de posibilidades a través de diferentes nodos. Cada modelo representaría entonces un escenario diferente. Si esto es así, entonces, modelos en apariencia incompatibles pueden no serlo, en tanto y en cuanto sus dominios de aplicabilidad sean diferentes. Así, para cada situación tendríamos un modelo que proporcione información acerca de las condiciones se necesitan para llegar a un resultado determinado.
Para entender mejor este punto, consideremos un ejemplo sencillo en el que se desea aplicar una política monetaria expansiva (shock exógeno), proporcionando a los consumidores un dinero extra. Supongamos que el sistema económico real está experimentando una tendencia recesiva por exceso de oferta en el mercado de bienes.

21 La lógica de los árboles de posibilidades o resultados de final abierto no implica que no sea posible observar secuencias regulares o invariantes al nivel de los eventos. No sólo son plausibles, sino que la historia da cuenta de su factibilidad (como por ejemplo la relación inversa que William Phillips encontró entre el desempleo y la tasa de variación de los salarios monetarios en el Reino Unido entre 1861 y 1957). Sin embargo, la invarianza de esos procesos es posible a causa de una conformación de expectativas poco volátiles, de arreglos institucionales estables en el tiempo, etc., lo cual significa que cualquier cambio en las expectativas o en la conformación de nuevos arreglos institucionales podrá “quebrar” dicha relación (como efectivamente ocurrió en la década del 70’: la inflación permanente hizo que los agentes incorporasen a sus expectativas futuros aumentos de precios, lo que llevó a un periodo de alta inflación con desempleo o estanflación).

Se asume que al proporcionar este dinero extra las personas lo destinarán al consumo. Para el análisis de la política se han tomado como base tres anteproyectos o modelos22. Cada uno de ellos asume una determinada “ley de movimiento” o patrón de conducta (L) y su respectiva implicación o resultado
(R):

Modelo 1:
L: existe una alta propensión al consumo.
R: las personas destinarán del excedente de dinero al consumo de bienes y servicios, estimulando así la demanda agregada.

Modelo 2:
L: a causa de un marco incierto, existe una alta propensión al atesoramiento.
R: las personas sacarán del mercado este excedente, por lo cual no habrá repercusión alguna de la política aplicada en la economía.

Modelo 3:
L: existe una alta propensión al ahorro.
R: las personas destinarán buena parte del exceso de dinero a la compra de activos financieros.

Teniendo presente estos tres modelos, lo que se busca es predecir el impacto de un aumento de la cantidad de dinero en la economía. ¿Qué criterio se utilizaría para hacer tal predicción? O, lo que es semejante, ¿Qué criterio se utilizaría para elegir entre los diferentes modelos?
Friedman fue contundente. El único modo que tenemos para evaluar una teoría o modelo, y por lo tanto para elegirlo a la hora de hacer una predicción, es observando la precisión de sus predicciones. No importa si los supuestos del modelo son verosímiles o no. Lo único relevante es que pueda predecir con exactitud.
Sin embargo, el éxito predictivo no parece ser un buen requisito para evaluar qué modelos servirán mejor. En principio, todo modelo económico tiene evidencia tanto favorable como desfavorable. Pero hay un problema aún más importante, y es que esta evidencia empírica debe ser entendida en el marco de las características puntuales del sistema en donde se hicieron dichas observaciones.
Tomemos como ejemplo el caso de la “curva de Phillips”. El economista William Phillips publicó en 1958 un artículo titulado "La relación entre el desempleo y la tasa de variación de los salarios monetarios en el Reino Unido, 1861-1957", en el cual se establecía la existencia de una correlación negativa entre la tasa de desempleo y la inflación. 
22 El ejemplo es burdamente sencillo, y como tal omite otros escenarios alternativos, como por
ejemplo aquellos que involucren formación racional de expectativas. Sin embargo, creemos que
igualmente puede ser útil para propósitos explicativos.


Dos años más tarde, Samuelson y Solow encontraron el mismo registro estadístico para Estados Unidos entre 1900 y 1960. Sobre la base de la correlación inversa entre inflación y desempleo se diseñaron políticas que mejoren el nivel de empleo, a expensas de una inflación más alta. La explicación que subyacía a esta regularidad era la siguiente: suponiendo un contexto de baja inflación, un aumento en el nivel de precios (impulsado por un aumento en la demanda agregada) reduciría los salarios reales, abaratando así los costos de los empresarios. Esto permitiría aumentar la demanda de empleo, disminuyendo de esta manera la tasa de paro.
No obstante, es bien conocido que esta correlación inversa entre inflación y desempleo se “esfumó” entre 1960 y 1970. El proceso inflacionario se acentuó durante estos años, lo cual modificó el modo en el que las personas formaban sus expectativas. Durante los periodos de inflación baja y poco persistente, tanto los trabajadores como las empresas solían no tener en cuenta la inflación pasada, suponiendo así que los precios en los próximos periodos no iban a diferir significativamente de los precios actuales. Pero en un marco de inflación sistemática, los agentes empezaron a suponer que, en los próximos periodos, los precios seguirían aumentando, haciendo que la relación inversa entre inflación y desempleo desaparezca. La curva de Phillips es un modelo que explica y predice el desempleo en términos de inflación. Sin embargo, éste solo será útil en aquellos sistemas o escenarios en donde los agentes no esperen un aumento de precios para los próximos periodos. Si esto último se llegase a dar, entonces otros modelos podrían explicar mejor la dinámica del proceso socioeconómico en cuestión.
El éxito predictivo no puede ser entonces la base para la elección de un modelo que apunte a describir el funcionamiento de una economía bajo posibles shocks exógenos. La correspondencia de los hechos con las predicciones de un modelo puede estar asociada a la semejanza estructural (o de escenarios) de éste con el mundo real en periodos pasados. No obstante, nada garantiza que en el futuro dicha estructura prevalezca.
Contrario a ello, un mejor criterio para elegir entre los diferentes modelos es el grado de similaridad que existe entre el escenario descrito por el modelo y el escenario del mundo real. Sin embargo, la manera de reconocer esta similaridad es observando los supuestos del modelo, no sus predicciones. Volviendo al ejemplo de la política monetaria, se puede decir que una vez obtenidos estos escenarios posibles, el hacedor de política los comparará con el escenario del mundo real. Si lo que domina a los consumidores es la incertidumbre del futuro económico, y dentro de ellos está el temor por perder su trabajo (dada la tendencia recesiva en la que está entrando la economía), entonces es muy probable que ese plus de dinero no sea destinado al consumo, sino al atesoramiento. En tal caso, el escenario descrito por el modelo 2 es el que más estará acorde con la realidad  vigente. Si en cambio en la economía real la propensión marginal a consumir es muy alta, entonces es muy probable que el modelo 1 represente mejor las consecuencias de la aplicación de la política monetaria.
Cada caso es un nodo diferente del árbol de posibilidades. Alguno de ellos estará más acorde con la realidad fenoménica que se pretende estudiar en ese momento. Sin embargo, esto no significa que el modelo escogido sea el “verdadero” o que valga para cualquier contexto. Su elección estará basada en los patrones de similaridad que se encuentren con la realidad. Y esta similaridad no será evaluada en función de la capacidad predictiva del modelo, sino de sus supuestos substantivos y/o de dominio.
Al utilizar como criterio de elección de los modelos la plausibilidad de estas clases de supuestos no se está diciendo que un modelo sea verdadero y otro falso, sino que a uno lo podrá aplicar en circunstancias acordes con la realidad vigente, mientras que el otro será aplicable en condiciones diferentes. No es que uno sea más creíble que otro, sino que se adecúa mejor a la realidad de ese momento. Y la única manera de reconocer cuál de los modelos se adecúa más a esa realidad, es mirando los supuestos substantivos y/o de dominio de éstos. La capacidad predictiva no es – a diferencia de lo que Friedman pensaba – el criterio de elección de los modelos económicos. En todo caso, las implicaciones o resultados que éstos arrojen serán de utilidad para estimar las posibles consecuencias de una perturbación exógena en el sistema real.

El realismo de los supuestos sí resulta ser entonces importante a la hora de evaluar a los modelos económicos. Desde ya que varios supuestos van a ser irrealistas. Sin embargo, debe tenerse presente el sentido del término “irrealismo”  que se utilice. Afirmar que todos los supuestos son irrealistas porque son abstracciones o idealizaciones no contribuye a la discusión. Tildar de “irrealista” a cualquier modelo sólo porque hace uso de supuestos heurísticos tampoco constituye una crítica constructiva. Sí creemos que puede arrojar luz examinar el realismo de los supuestos de acuerdo con el grado de plausibilidad que estos tengan de efectivizarse en el mundo real, dado nuestro conocimiento disponible de cómo actúan las personas y de las características del contexto. Una vez que se examine dicha plausibilidad, se podrá tener un mejor panorama de qué modelos serán más útiles a la hora de predecir las posibles consecuencias de un shock exógeno en el mundo real.

Bibliografía.


1. CALCAGNO, Alfredo. La perversa deuda argentina. Legasa, Buenos Aires, 1985.
2. FRIEDMAN, Milton. «The methodology of positive economics». En FRIEDMAN, Milton. Essays in Positive Economics. University of Chicago Press, Chicago, 1953.
3. GRÜNE-YANOFF, Till; WEIRICH, Paul. «The Philosophy and Epistemology of Simulation: A Review». En Simulation and Gaming, Vol. 41, No. 1, Sage publications, Thousand Oaks, 2010.
4. KEYNES, John. La Teoría General de la Ocupación, el Interés y el Dinero. Fondo de cultura económica, Buenos Aires, [1936] 2001.
5. KUORIKOSKI, Jaakko; LEHTINEN, Aki. «Incredible Worlds, Credible Results». En Erkenntnis, Vol. 70, No. 1, Springer, Nueva York, 2009.
6. MACHAMER, Peter; DARDEN, Lindley; CRAVER, Carl. «Thinking About Mechanisms». Philosophy of Science, Vol. 67, No. 1, The philosophy of science association, Chicago, 2000.
7. MARQUÉS, Gustavo. De la mano invisible a la economía como proceso administrado. Una reflexión filosófica y epistemológica. Ediciones Cooperativas, Buenos Aires, 2004.
8. ________________. «Dos cuestiones insuficientemente debatidas acerca de los supuestos en economía». Análisis Filosófico, Vol. 24, No. 1, Sadaf, Buenos Aires, 2004.
9. MERTON, Robert. Social theory and social structure. The Free Press, Nueva York, [1948] 1968.
10.MUSGRAVE, Alan. «Unreal Assumptions in Economic Theory: The F-Twist Untwisted». Kyklos, Vol. 34, No.3, Wiley online library, Malden, 1981.
11.NAGEL, Ernest. «Assumptions in economic theory». The American Economic Review, Vol. 53, No. 2, AEA, Pittsburgh pp. 211-219, 1953.
12. PHILLIPS, Alban. «The Relation Between Unemployment and the Rate of Change of Money Wages in the United Kingdom, 1861-1957». Economica, Vol. 25, No. 100, Wiley online library, Malden, 1958.
13. SKIPPER, Robert; MILSTEIN, Roberta. «Thinking about evolutionary mechanisms: natural selection». Studies in History and Philosophy of Biological and Biomedical Sciences, Vol. 36, No. 2, Elsevier, Ámsterdam, 2005.
14.WOODWARD, James. «What Is a Mechanism? A Counterfactual Account». Philosophy of Science, Vol. 69, The philosophy of science association, Chicago, 2002.

VER MÁS
IVAROLA, Leonardo. «Realismo de los Supuestos en Economía: un Análisis Bajo la Lógica de los Procesos Socioeconómicos». HYBRIS. Revista de Filosofía, Vol. 5 N° 2. ISSN 0718-8382, Noviembre 2014, pp. 7-26

ENTRADAS/SPOTS