Página principal

" Los últimos cincuenta años de Microeconomía"


Descargar 136.45 Kb.
Página1/2
Fecha de conversión18.07.2016
Tamaño136.45 Kb.
  1   2
Los últimos cincuenta años de Microeconomía”

Omar O. Chisari1


(UADE, CONICET y Academia Nacional de Ciencias Económicas)


  1. Los fundamentos y los primeros sesenta años del siglo XX.

El propósito de este capítulo es dar un panorama de los cambios y de los principales progresos que caracterizaron las últimas cinco décadas de la Teoría Microeconómica. Para 1906, fecha en la que Pareto publica su Manual de Economía Política, estaban ya casi totalmente definidos los conceptos básicos de la microeconomía (¡nada menos que la idea de equilibrio general walrasiano y la de óptimo paretiano!). Luego, en el siglo XX, el análisis se hizo más riguroso, se establecieron los fundamentos axiomáticos y los métodos e instrumentos de trabajo (por ejemplo la optimización, la estática comparada, el uso de los teoremas de punto fijo y de convexidad). Durante los primeros cincuenta años de ese siglo se forjaron los cimientos del método de la microeconomía actual; basta recordar que Valor y Capital de John R. Hicks, y los Fundamentos del Análisis Económico de Paul A. Samuelson, se escribieron antes de 1950 para justificar este aserto. Los temas tratados en esos textos eran justamente las bases sobre las que se asentó el análisis microeconómico actual; los principios analíticos del estudio de la conducta de productores y consumidores, la idea de oferta y demanda como funciones de comportamiento obtenidas con el teorema de la función implícita, los principios de la estática comparada y de la estabilidad del equilibrio, la teoría de la dualidad y de la preferencia revelada, los problemas de agregación de mercancías...ya formaban parte de la literatura microeconómica. Por si esto fuera poco, Arrow, Mackenzie y Debreu, entre otros, habían conseguido dar las demostraciones más rigurosas de existencia de equilibrio general apenas se iniciaban los siguientes cincuenta años (aunque la Teoría del Valor de Gerard Debreu se publicara en 1959, y el libro de Arrow y Hahn, Teoría del Análisis Competitivo, recién en 1971), y Nash y Morgenstern-Von Neumann definieron también los fundamentos del análisis de la economía de la incertidumbre y de la interacción estratégica (teoría de los juegos). Tal grado de desarrollo hace pensar que un economista formado en la década de los años cincuenta disponía ya de un bagaje de conocimientos suficientes para trabajar el día de hoy. Fue una etapa excepcional.

Puestas las cosas así, el lector podría inclinarse a pensar que debería estar leyendo sobre ese período inicial, y no sobre el que le siguió. Nos toca aquí concentrarnos en la segunda etapa, de asentamiento, reevaluación y aplicación, más que fundacional o de cambio estructural. En esta aparecieron asuntos nuevos (como las asimetrías de información) y fueron reconsiderados otros (como el análisis de estabilidad del equilibrio). El aprendizaje con el uso llevó al mejor aprovechamiento de lo ya conocido (como la teoría de la dualidad y la teoría de los juegos), a la vez que se entraba en una etapa más intensa de aplicaciones de la microeconomía como bien de demanda derivada. Al mismo tiempo que creció enormemente la comunidad académica, se hizo más profesional la producción de conocimiento microeconómico (orientado a las finanzas públicas y privadas, a la economía del sector público, la organización industrial, la economía ambiental y del derecho, entre otros campos). Fueron difundidos los principios del análisis microeconómico a través de la enseñanza, a tal punto que la microeconomía –en alguna de sus formas- es ahora infaltable en los programas de formación, no sólo de economistas, sino de dirigentes empresariales.




  1. La definición de la microeconomía.

¿Ha hecho este progreso que cambiara la definición misma de microeconomía? ¿Cómo se la definía y cómo se la ve más recientemente? Hagamos un rápido repaso de lo que dicen algunos textos básicos para la formación de microeconomistas y que han contribuido a construir su medio ambiente intelectual. Partamos entonces de Henderson y Quandt (HQ) en su versión castellana de 1962, y del texto de Malinvaud de 1968. Para esa época ya había ocurrido un primer salto en la evolución del concepto, de Teoría de los Precios a Microeconomía. En efecto, Henderson y Quandt (1962), señalan que 1) “la microeconomía es el estudio de las acciones económicas de individuos y grupos de ellos bien definidos”; 2) “antes de ponerse de moda la distinción micro-macro lo que estaba en uso era análisis de precios - análisis de renta”, 3) “en las teorías micro la determinación de las rentas de los individuos se ensambla dentro del proceso general de precios”. Seis años después, el texto de Malinvaud (1968) ya contenía una batería de temas de avanzada y decía que “la teoría por la que vamos a interesarnos tiene por objeto principal el análisis de la determinación simultánea de los precios y de las cantidades producidas, intercambiadas y consumidas. Se llama microeconómica porque pretende respetar en sus formulaciones abstractas la individualidad de cada bien y de cada agente.”

A esta visión que se concentraba en el equilibrio general indicado por la determinación simultánea de precios que son tenidos en cuenta en los ingresos individuales a partir de formulaciones abstractas de la individualidad, le siguió el énfasis en el proceso de decisión individual y en la interacción estratégica de agentes racionales. En efecto, según Kreps (1990), “la microeconomía se ocupa del comportamiento de los actores económicos individuales y de la agregación de sus acciones en diferentes ambientes institucionales...tradicionalmente el análisis del equilibrio”. Y un poco más recientemente, Mas-Colell, Whinston y Green (1995) afirman que “una característica distintiva de la teoría microeconómica es que trata de modelar la actividad económica como una interacción de agentes económicos individuales que persiguen su interés privado”. Pero no mencionan más características de la teoría microeconómica, y se lanzan de lleno al estudio de las elecciones del “agente que toma decisiones”.

Un poco después, Jehle y Reny (2000) dedican algún esfuerzo a defender la utilidad del enfoque analítico de la teoría, pero ¡se pasan por alto la definición e inician directamente con el tratamiento técnico! ¿Habrá dejado de ser necesario o posible definir la microeconomía por comprensión? Tampoco Varian la define en la edición de 1992 de su libro más conocido. Vayamos entonces por la definición por extensión. Sabemos: 1) que la escasez de recursos, ahora con el agregado de la información, el equilibrio y los precios siguen en la agenda; 2) que el examen meticuloso de las proposiciones sobre la base de conductas individuales y de la interacción estratégica de los agentes se han agregado al temario y han aumentado su peso relativo; 3) que los temas de formas tecnológicas y estructuras de mercados no neutrales (organización industrial) son relevantes; 4) que deseamos saber qué es mejor, contratos, mercados o firmas; 5) que nos gustaría conocer cuáles son las mejores instituciones para asegurar la provisión de bienes públicos; 6) que deseamos establecer cuáles son los métodos de protegernos contra la incertidumbre y evitar las enfermedades de los mercados de seguros. En síntesis, todavía queremos saber qué decisiones individuales y agregadas son las mejores para la satisfacción de las necesidades humanas con recursos escasos.


  1. El progreso en el programa del equilibrio general: menos exigencia en los axiomas y expansión de las fronteras.

Recordemos que según HQ, la separación entre teoría de los precios y de la renta ocurre por la exhaustiva descomposición de la renta en sus fuentes y la evaluación de su nivel usando los precios. El corolario es que el análisis en equilibrio general es inherente a la microeconomía.

Hacia 1957 ya sabíamos que una economía de agentes racionales, y mercados competitivos podía tener una solución de equilibrio general (un conjunto de precios que despejaran todos los mercados simultáneamente, con todos los agentes maximizando y respetando sus restricciones presupuestarias), bajo intercambio voluntario, en ausencia de no convexidades y fallos de mercado, y con agentes que tuvieran dotaciones iniciales en el interior de sus conjuntos de consumo2. El programa científico del estudio de las economías en equilibrio general estaba casi completo, y podía confiarse que un conjunto sencillo de axiomas llevaba a que era conceptualmente posible probar que el equilibrio competitivo existía y era optimal (en el sentido paretiano); se había superado la duda usando los teoremas de punto fijo y los teoremas de separación de conjuntos convexos.



El trabajo que siguió se orientó hacia la búsqueda de generalidad de resultados (reduciendo las exigencias de las hipótesis de partida), con la cual se consiguió algún avance (como en el caso de la transitividad). En otros casos, el progreso mostró que ciertos resultados deseables (como la estabilidad global) no debían ya esperarse. Algunos de los resultados principales de los últimos cincuenta años en el campo del equilibrio general son los siguientes:

  • Es posible probar el teorema de Brouwer de punto fijo si se ha demostrado la existencia de equilibrio general para una cierta economía (Uzawa (1962)). Este resultado estableció un vínculo estrecho entre la teoría del equilibrio general walrasiano y la matemática.

  • El problema de existencia puede atacarse como uno de optimización (paretiana) si se admite un conjunto de transferencia presupuestarias artificiales (que son cero en el equilibrio) (Negishi (1960)). Por lo tanto, el problema de equilibrio general puede tratarse muchas veces como uno de optimización, para su cómputo.

  • Las economías regulares son la regla (las que tienen jacobiano singular son la excepción). Economías regulares son aquellas en las que los precios pueden ponerse en dependencia causal de las dotaciones. Los datos de los modelos económicos no son seguros y por lo tanto es preferible trabajar con construcciones analíticas estructuralmente estables. Las construcciones de equilibrio general lo son: Debreu, quien usó el teorema de Sard en 1972, y Mas-Colell en 1974 probaron que las economías de equilibrio general regulares son genéricas. Los resultados de Dierker en 1972 y Mas-Colell en 1977 permitieron contar el número de equilibrios y llegar a la conclusión de que en general es impar (siempre y cuando se apele a la hipótesis de deseabilidad de las mercancías, donde: para cada bien, a un precio bajo, el exceso de demanda correspondiente es positivo)3. Fue así que la topología diferencial comenzó a usarse en el programa del equilibrio general (un tratamiento completo que extiende resultados a economías con producción se encuentra en Mas-Colell (1985)).

  • Existen equilibrios únicos inestables, según la regla de ajuste dinámica de Walras (Scarf (1960)). Este resultado, y el que sigue de Mantel-Debreu-Sonnenschein fueron golpes duros al programa de equilibrio general, al poner límites a la capacidad de demostrar que el equilibrio siempre es estable usando la ley de ajuste walrasiana (aunque Walras la había enunciado para probar existencia).

  • Dado cualquier vector de funciones continuas en ciertas variables (precios), homogéneas de grado cero y que cumplan la Ley de Walras (o sea un modelo de equilibrio general) puede encontrarse un conjunto de agentes cuyo comportamiento agregado las genere (teorema de Mantel-Sonnenschein-Debreu; véase una síntesis en Mas-Colell, Whiston y Green (1995)). Si esto es así, no pueden descartarse formas funcionales de los excesos de demanda que por influencia de efectos ingreso o complementariedades entre bienes, den lugar a comportamientos extraños (como ciclos límites o caos) en el sistema dinámico walrasiano (esto lo retomaremos en la próxima sección).

  • En la búsqueda del equilibrio, puede trabajarse con un modelo sin productores equivalente al modelo con producción, bajo condiciones relativamente laxas, limitando la representación a una economía de intercambio netos equivalentes (Principio de Equivalencia de Rader (1972)).

  • Puede prescindirse de las hipótesis de transitividad y de completitud del orden de preferencias. La demostración de Mas-Colell (1974) abrió un nuevo campo: aún en ausencia de los axiomas de transitividad y orden completos (utilizados para probar que existe una función de utilidad) era posible definir la demanda y probar la existencia de equilibrio.

  • Bajo incertidumbre, y aunque no todos los bienes contingentes a cada estado estén disponibles para comerciar el primer día (sólo se necesitan activos que abarquen todo el espacio de rendimientos) se puede alcanzar un equilibrio optimal de Pareto en los períodos subsiguientes, si los precios de ocasión futuros son correctamente anticipados en el primer día, y se pueda transferir poder de compra entre estados. Este resultado, que prueba la conjetura de Arrow de 1953, se debe a Radner (1972). Pero Hart (1975) mostró que no siempre es posible cubrir con activos todo el espacio de rendimientos, de modo que el equilibrio de Radner no necesariamente existirá siempre (este resultado depende de la forma del conjunto de presupuesto, y nos hace recordar la necesidad de tener el vector de dotaciones en el interior del conjunto de consumo, aún en un modelo estático y sin incertidumbre).

  • La información puede ser un bien escaso más, que es costoso adquirir, y entonces no puede garantizarse la eficiencia del sistema de precios. Grossman y Stiglitz en 1980 cuestionaron la posibilidad de tener eficiencia de mercados. Argumentaron que no es posible un equilibrio que elimine todos los márgenes de arbitraje si se incluye a la industria de la información en el modelo. No todos los agentes se informarán, si es caro hacerlo (ésta es la hipótesis principal), y los precios sólo reflejaran parcialmente la información (la de los individuos informados). Para una síntesis de los puntos de vista, véase Stiglitz (1985).

  • El equilibrio competitivo es la única asignación no bloqueada, en economías formadas por continuos de agentes (el número de agentes es infinito no numerable, como el segmento real entre cero y uno). Este resultado se debe a Aumann (1964), quien dio así la definición rigurosa de competencia perfecta. En economías como ésas, los agentes pueden tratarse como anónimos (Hildenbrand (1974)). ¿Qué ocurre si el conjunto de bienes es un continuo? Olivera (1984) presenta un análisis de economías distribucionales, en las que se alivian las condiciones de diferenciabilidad y se estudia la existencia de equilibrio general con infinitos bienes no numerables; este enfoque es útil cuando se trata de bienes indexados por tiempo o estado de la naturaleza.

  • Sobre la base del resultado anterior, es posible relajar los requisitos de convexidad exigidas a las preferencias y conjuntos de consumo y producción, recurriendo a la hipótesis de economías formadas por un conjunto infinito no numerable (continuo) de agentes, y aún así probar la existencia de equilibrio. Ellickson (1993) es una buena presentación de cómo usar la infinitud no numerable para atacar las no convexidades.

  • Uno de los mayores desafíos del programa hacia fines de la década de los cincuentas, estaba en demostrar la existencia de equilibrio con rendimientos crecientes. El resultado de la infinitud que corrige las no convexidades ayudó bastante. El problema fue abordado con otros enfoques con limitado éxito. Por una parte, cuando fue redefinido como uno de equilibrio de fijación de precios según costos marginales (marginal cost pricing), Bonnisseau y Cornet en 1990 mostraron que la no convexidad de los conjuntos de producción puede ser corregida para aplicar el teorema de Kakutani. Por la otra, Scarf utilizó en 1963 la teoría del núcleo (“core”) de la economía para dar un resultado negativo: la asignación de equilibrio es no bloqueada si y sólo si el conjunto de producción es convexo. Una síntesis de esos resultados puede hallarse en Quinzii (1992).

4. ¿Un programa incompleto? El abandono progresivo del problema de la estabilidad.

En la edición de 1962, Henderson y Quandt dedicaban al menos dos secciones al tratamiento de la estabilidad estática y dinámica en mercados únicos y en multimercado, y trataban también el problema del “equilibrio dinámico con ajuste retrasado”.

Pero esos temas comenzaron a desaparecer en las ediciones modernas de varios libros. Prueba de ello es la cita de Silberberg (2001) quien dice que “to accomodate this new material (i.e. la teoría de la información), we discarded the old Chapter 19 on stability of equilibrium”, el que sí había sido incluido en la versión de 1990. ¿Por qué ocurrió que la estabilidad del equilibrio fue perdiendo lugar en los principales textos de microeconomía?

Es posible que la razón se halle en que no pudo probarse que el equilibrio general de la economía, aunque siempre exista, sea siempre estable –Kehoe (1988). Sólo en algunos casos especiales (cuando todos los bienes son sustitutos brutos entre sí o cuando las funciones de exceso de demanda agregadas cumplen el axioma débil de la preferencia revelada) se consiguieron los resultados esperados: que la mano invisible del mercado encontrara el equilibrio.

El hecho de que la estabilidad fuera sensible al numerario (resultado de Gale), el contraejemplo de Scarf (basado sobre complementariedades de tres bienes en la función de utilidad) y el teorema Mantel-Debreu-Sonnenschein (MDS), citado en la sección anterior, fueron golpes duros para la idea de que el equilibrio general, de existir, debiera ser siempre estable (globalmente).

El teorema MDS permitió decir que funciones de exceso de demanda muy extrañas y que generaran un equilibrio inestable (por ejemplo, porque hay fuertes efectos ingreso que hacen que algún bien sea de Giffen, o porque se parecen al caso de Scarf) serían de todos modos admisibles en el programa del equilibrio general, siempre que constituyeran un modelo de equilibrio general (fueran continuas, homogéneas de grado cero en los precios y cumplieran la Ley de Walras).

El trabajo científico subsiguiente mostró que corregir el mecanismo walrasiano para obtener estabilidad requería tener mucha información (privada) disponible para el rematador (Smale (1976)). Como luego veremos, esto confrontaba con la idea de hoy día de que la información privada no se obtiene gratis. O bien, que podría mejorarse la estabilidad si las dotaciones iniciales estaban muy cerca de las paretianas (Hirota (1981)), lo que alejaba los resultados de la “globalidad” deseada.

Hubo así un “sudden stop” del programa de equilibrio general destinado a confirmar la estabilidad de las posiciones de equilibrio, y esto se reflejó en los textos. Por ejemplo, para Villar (1996), “las dos preguntas centrales que aborda la microeconomía del equilibrio general son las siguientes: (a) ¿Consiguen los mercados hacer compatibles las acciones de numerosos agentes que toman sus decisiones de manera independiente?, y (b) ¿Es deseable el resultado que se alcanza?”. La interpretación implícita de Villar es que el problema (a) se reduce a la prueba de existencia, porque no dedica ninguna página a la estabilidad –aunque sí lo hace en un libro más reciente (Villar (2006)).

Podemos hacer dos objeciones a esta decisión implícita de la academia de postergar el tratamiento de la estabilidad. El estudio de la estabilidad del equilibrio tiene valor educativo (¿cómo entienden los estudiantes lo que ocurre fuera del equilibrio?), y mantiene su interés desde la óptica de la economía positiva.

En este último sentido, nos quedaba la duda de si la estabilidad debía o no asociarse a una regla fija, construida como un agregado de comportamientos en una macrodescripción alejada del paradigma microeconómico. ¿Por qué limitar nuestro estudio a la regla de ajuste walrasiana –de un rematador conceptual- en su forma más clásica? Fue por ello que Kumar y Shubik (2001) mostraron que la estabilidad depende justamente de la regla adoptada. Eso implica que tanto el examen de la regla como de su efectividad pueden ser una cuestión también empírica. En el mismo sentido, Roth (2002) destaca la importancia del estudio de la estabilidad pero sostiene que el algoritmo de mercado para alcanzar el equilibrio puede alcanzar o no el punto de equilibrio, y puede ser o no walrasiano. El examen de un algoritmo existente se vuelve una cuestión de economía positiva, y la construcción de uno que funcione, es un tema de diseño apropiado. Roth se concentra allí en un modelo que sigue la tradición de uno similar construido por Gale y Shapley en 1962; el tema allí es la estabilidad de los intercambios no bloqueados por coaliciones. Y en efecto, el análisis de estabilidad del equilibrio también tuvo un giro hacia la visión positiva con la aplicación de los conceptos de estabilidad de las coaliciones de la teoría de los juegos cooperativos (Shapley y Shubik (1977)) y de los modelos de emparejamiento (“matching”). Pero hubo además otros cambios en el instrumental del microeconomista, como la posibilidad de computar. ¿Será que la posibilidad de computar que tenemos ahora tampoco requiera que usemos el “principio de correspondencia” y esto explique por qué no estudiamos tanto la estabilidad? El principio de correspondencia de Samuelson ayuda con los datos cualitativos de la estabilidad a determinar los signos ambiguos de la estática comparada; pero si ahora podemos poner números, y computar muchos efectos simultáneamente, se necesitan menos datos cualitativos de la estabilidad (el tema del cómputo es discutido brevemente en la sección de microeconomía experimental).


5. Construir seguros o comprarlos hechos: las decisiones bajo incertidumbre.

Los fundamentos del Principio de Bernoulli fueron establecidos muy firmemente por Von Neumann y Morgenstern en 1953. Probaron que podía enunciarse un conjunto de axiomas de elección entre loterías que justificaban el uso de la utilidad esperada como criterio de selección. El trabajo que siguió fue muy importante y fructífero, y éste es uno de los campos de mayor progreso en el período que se reseña aquí. Recordemos que luego Savage (1970) extendió sus resultados a probabilidades subjetivas, más que objetivas.

En el fondo, el tema de la microeconomía del riesgo es el precio del seguro. Si fuera gratis, todo el mundo habría ya eliminado los daños eventuales, y esta sección nunca hubiera sido escrita. Pero resulta que no es gratis, y quedan dos alternativas. Los agentes pueden comprar seguros en los mercados, o fabricar los propios, o sea, auto-asegurarse (por ejemplo, reduciendo el nivel de producción para protegerse de eventuales caídas de precios, asociándose con otros agentes para distribuir mejor el riesgo o buscando apuestas similares no correlacionadas para usar la ley de grandes números).

Los trabajos de Pratt (1964) y Arrow (1970) abrieron el camino a la determinación del precio subjetivo que estamos dispuestos a pagar para sacarnos de encima el riesgo. Mostraron que es posible asociar la prima de riesgo con las características de preferencias sobre loterías, y que la concavidad (local) de la función de utilidad juega un rol crucial en el monto del seguro que los agentes están dispuestos a pagar para evitar riesgos.

El análisis de Dominación Estocástica (DE), de Hadar y Russell (1969), generalizó estos resultados y los que había obtenido Markowitz. Mientras que el análisis Arrow-Pratt comparaba activos ciertos e inciertos, el método de dominación estocástica permite comparar loterías entre sí. Por lo tanto, al evaluar distribuciones completas y no sólo algunos de sus momentos, el método de dominación estocástica supera al de Markowitz. Como la elección entre loterías es implícitamente una elección entre distribuciones completas de probabilidad (ya que los estados faltantes pueden rellenarse con probabilidades iguales a cero), la idea de la DE es decir cuáles serán preferidas por los subconjuntos de agentes siguientes: 1) todos aquellos quienes tengan funciones de utilidad de la riqueza continuas y crecientes (DE de Primer Grado), 2) los que además sean adversos al riesgo (DE de Segundo Grado) y 3) quienes adicionalmente tengan grado de rechazo (aversión) del riesgo decreciente (DE de Tercer Grado, definida por Whitmore (1970)). Rothschild y Stiglitz ((1970) y (1971)) hicieron operativa la DE de segundo grado, a partir de agregar “ruido” a una distribución, de modo que la esperanza del resultado quedara igual, a la vez que aumentaba la varianza. Su trabajo hizo más fácil la aplicación del concepto a la microeconomía tradicional, ya que permitió comparar el precio del seguro con la tasa marginal de sustitución entre esperanza y varianza. Por ejemplo, Sandmo (1971) presentó un análisis de la firma que enfrenta riesgo, y demostró que la cantidad producida por una empresa competitiva adversa al riesgo sería menor que la producida por una empresa neutral al riesgo, y encontró que el nivel de producción sería menor si ocurría un “incremento del riesgo que mantuviera el precio esperado constante” (“mean preserving spread” según Rothschild y Stiglitz), o cuando subieran sus costos fijos y el grado de aversión al riesgo del empresario fuera decreciente.

Pero si de precios de seguros se trata, ¿cuánto estamos dispuestos a pagar por postergar una decisión hasta tener mejor información? ¿Cuánto por eliminar el lado malo de una distribución? Esto es lo que respondieron Black y Scholes (1973).

¿Y cómo se podrían armar portafolios? El método de la DE no está orientado a ese objetivo. El modelo de Markowitz carece de carácter general y es sensible a las volatilidades específicas de los activos. El Capital-Asset-Pricing-Model dio una respuesta consistente (Sharpe (1964), Lintner (1965) y Mossin (1966))4. Este modelo daba a conocer que los precios relativos en equilibrio general de los activos inciertos dependían de su mayor o menor capacidad para reducir el riesgo intrínseco de un sistema económico (la covarianza de su rendimiento con el rendimiento de mercado, su beta) –véase Huang y Litzenberger (1988) para un resumen de la teoría. La idea fue que el llamado riesgo no sistémico (o específico de los activos) puede licuarse casi completamente a través de la diversificación, pero que siempre queda un núcleo de riesgo compartido remanente, el sistémico. Los agentes tratarán de quitarlo de sus carteras demandando menos aquellos activos que más lo contienen (pagarán menos por los activos que tengan una beta más alta, es decir, un mayor grado de covarianza con el riesgo total del mercado). Fue una idea innovadora, de raíz claramente microeconómica y de equilibrio general, que asoció precios relativos a características conceptuales (en las mentes de los agentes) de activos y a un factor escaso: la capacidad de esos activos de permitir alguna inmunización con respecto al riesgo compartido inevitablemente (el costo fijo hundido de compartir un mismo medio ambiente económico). El modelo fue generalizado para no requerir la existencia de un activo con rendimiento cierto (Black (1972); y se confirmó así que (bajo propiedades de información eficiente, ausencia de costos de transacción y otras imperfecciones) el portafolio de mercado es único para todos los agentes).
6. Soluciones eficientes para la incertidumbre: los mercados de contratos.

La teoría de los contratos como formas alternativas de transacción a los mercados de ocasión ha sido desarrollada con profundidad en los últimos cincuenta años, aunque ya había sido considerada por Knight en la década de los años veinte del siglo pasado. La condición de optimalidad de Borch (1962) requiere la igualación de tasas marginales de sustitución entre estados como la regla paretiana lo hace entre bienes, y establece que el contrato debe especificar que el individuo menos adverso al riesgo debe vender un seguro (implícito o explícito) al más renuente al riesgo. La variabilidad de ingresos debe quedar en quien tiene más capacidad para enfrentar el riesgo por tener más activos, por tener más oportunidades para usar la ley de grandes números en la diversificación (el fondo común o risk pooling), porque puede distribuir riesgos indivisibles entre socios (la diseminación o risk sharing; en ese sentido, Arrow y Lind (1970) demostraron que si el riesgo de un proyecto –público- se distribuye entre muchos individuos, entonces es posible evaluarlo como si no hubiera riesgo), o porque tiene mejor acceso a mercados de capitales (entre accionistas).

Sus consecuencias fueron muy relevantes, en particular para los fundamentos microeconómicos de la macroeconomía. Recordemos que en los modelos de Azariadis (1975) y Baily (1974), la regla de Borch y las indivisibilidades en la demanda de trabajo, eran suficientes para probar la existencia de desempleo debido a la inflexibilidad de salarios a la baja. También explicaban que pudieran persistir situaciones de equilibrio con desempleo como es el caso del modelo de Weiss (1980) en el que se prometen salarios superiores a los de equilibrio para quienes exhiban capacidades diferenciales.


  1. Enfermedades de los mercados de seguros y contratos. La información como factor escaso: incentivos y asimetrías de información.

El análisis microeconómico contemporáneo se enriqueció significativamente con la inclusión en su órbita de los problemas de asimetrías de información, y de los conflictos de intereses emergentes de ellos. Es notable que la incertidumbre, razón de ser de los mercados de seguros, también contribuya a provocar sus enfermedades, y a poner en peligro su existencia. En efecto, si la incertidumbre no existiera, más bien, si no hubiera ruido, sería posible atribuir a cada acción un resultado y las responsabilidades de los individuos en su prevención estarían claras. Además, la presencia de ruido (o incapacidad de verificación) da lugar para que algunos agentes exploten los diferentes grados de información en su beneficio, y aunque se den cuenta que es posible corregir la enfermedad, consigan rentas (informativas) absteniéndose de hacerlo.

Los remedios explorados para solucionar esta problemática hasta ahora son tres. Incluyen: 1) la inducción de cultura sobre qué debe hacer un agente honesto, respetuoso del interés de los demás, de los accionistas y de su empresa, 2) el mayor control directo de las acciones del agente (inclusive la definición de jerarquías, Miller (1992)), o 3) el mejor diseño del sistema de incentivos para que el agente persiguiendo sus objetivos egoístas, haga lo que se le pide. Justamente, la teoría de la organización (de empresas) ha concentrado su análisis en la primera solución, mientras que el análisis microeconómico se ha focalizado más en la tercera. ¿Cuándo se usa la segunda? Hay discusión del asunto en la nueva teoría de la firma que abordaremos luego; pero podemos conjeturar que ello ocurre cuando los costos de monitoreo directo son bajos o los costos de arrepentimiento altísimos.

Tomemos un ejemplo de Campbell (1995): “...the welfare of the mechanic on the ground is not directly linked with the interests of the airline passengers”. Es contundente, pero puede que sea inapropiado para defender el enfoque de incentivos. El problema ahí radica en que una vez subidos al avión no podemos bajarnos en medio de la travesía. Los costos de arrepentimiento son altos, y hay una divergencia de intereses profunda entre pasajeros, aerolínea y mecánico. ¿Pasa la solución en ese caso por alinear mejor los intereses del mecánico con los de los pasajeros? Parece que no se puede. ¿Le pagaríamos por pasajeros supervivientes? Difícilmente. ¿O preferiríamos gastar en más monitoreo y superposición de controles? Debe ser la solución más probable.

La teoría de los incentivos que resuelven asimetrías de información tiene más bien su campo de aplicación en los escenarios de costos de monitoreo alto, costos de arrepentimiento bajos, y costos de reeducación (de inducción de cultura de organización o de equipo) elevados. Se distinguen dentro de ella: 1) dos grandes campos: el de las acciones ocultas y el de las características ocultas, 2) varias soluciones: los menús, los remates, y los gastos en señalización, y 3) un instrumento muy valioso de análisis microeconómico: el principio de revelación.

Los ingredientes básicos de la teoría de los incentivos, según Laffont y Martimort (2002), son dos: objetivos opuestos e información descentralizada. El problema nace de la existencia de información privada y de la no verificabilidad de los resultados (cuando una tercera parte, ajena al agente y el principal, no puede disponer de la información aún en la situación ex post para juzgar responsabilidades y determinar penalidades). La situación típica es una en la que un individuo, el Principal, delega en otro, el Agente, la realización de una acción. El Agente puede aceptar o no un contrato propuesto (diseñado) por el Principal. Normalmente el Agente es renuente al riesgo y el Principal es neutral, de modo que en ausencia de asimetrías de información, la solución optimal cumpliría el teorema de Borch, y el Principal le vendería un seguro al Agente. Además, normalmente se supone que el Principal no puede violar el contrato una vez despejada la incertidumbre. Esta descripción de la forma de la transacción corresponde más a la de mercados de contratos (explícitos o implícitos) que a las transacciones típicas en mercados de ocasión (spot).

El nuevo contrato puede caracterizarse sencillamente desde el punto de vista microeconómico, si se tiene en cuenta el Principio de Revelación: “el resultado de cualquier mecanismo de estrategia dominante puede ser conseguido usando un mecanismo de revelación directa para el cual decir la verdad y participar sean una estrategia dominante” (véanse Green y Laffont (1977), la extensión de Myerson (1979) al caso de un equilibrio de tipo Bayes-Nash, y Harris y Townsend (1981). El trabajo ulterior mostró que los menús lineales eran demasiado restrictivos, y que podía avanzarse en el sentido paretiano si se contemplaba la autoselección y los menús de pagos tanto variables como fijos – ver Spence y Zeckhauser (1971)).

Este principio ahorra muchos costos de diseño y de búsqueda de solución (por ejemplo en uno de sus campos de aplicación favoritos, la economía de la regulación). El Principal puede reducir los elementos del menú de contratos ofrecidos a uno que tenga tantas alternativas como tipos de agentes haya. El conjunto de oportunidades básico del Principal puede ser entonces reducido a uno que tenga en cuenta sólo dos restricciones: 1) la de participación del agente (no puede ganar menos que en otro lugar del mercado) y 2) la de compatibilidad de incentivos (una vez que dejamos de observar al agente, o cuando este esté en soledad disfrazando sus características, encontrará que decir la verdad es más redituable que mentir).

Pero la inclusión de la última condición no es, como debíamos esperar, gratuita porque tiene su precio-sombra. El principal encontrará que ha disminuido su resultado, que ha regalado renta al agente, aunque sea lo mejor que pueda hacer. La restricción de compatibilidad de incentivos puede tomar la forma de una condición de nivel (la utilidad del agente no puede ser menor que en el resto del mundo) o de una condición de primer orden cuando el principal tiene en cuenta la condición de primer orden para un máximo del agente en el esfuerzo o en las características (este enfoque de condiciones de primer orden presenta dificultades para garantizar unicidad y optimalidad globales, aunque puede ser ventajoso desde el punto de vista de la modelización; en cuanto a las dificultades que aparecen cuando los tipos o acciones se distribuyen como una variable continua están discutidas en Mirrlees (1971) y Grossman y Hart (1983)).

Marshack parece haber sido el primero en hacer notar, ya en 1955, la necesidad de tener en cuenta los problemas de diseño de incentivos para resolver problemas de delegación. Más tarde, Leibenstein señaló en 1966 el problema de la ineficiencia X. Pero antes, Kenneth Arrow, en 1963, había sido el primero en definir el concepto de “moral hazard”. La tecnología dejaba de ser así puramente una cuestión “dura”; cuando se incluyen los aspectos de organización e incentivos, los precios (incentivos) a las acciones correctas pasaron a formar parte de los argumentos de un concepto más abarcador de función de producción. Los desarrollos de asimetría de información se disparan con los trabajos de Akerlof (1970), Spence (1974) y Rothschild y Stiglitz (1976). Las condición de Spence-Mirrlees (sobre la monotonía decreciente de la tasa marginal de sustitución del Principal) y de Monotonía del Cociente de Verosimilitud de la distribución probabilística de los agentes según su grado de eficiencia (el número de individuos a los cuales hay que pagarles transferencias de renta para que revelen la verdad, aumenta más que el número de agentes que generan un excedente marginal) dan condiciones suficientes para que la solución implique compatibilidad de incentivos (global) y la producción requerida sea decreciente con el grado de ineficiencia. Carlier (2001) da una prueba de existencia de solución que no la requiere. Araujo y Moreira (2001) presentan un enfoque general del problema de “azar moral”.

Siguiendo con las enfermedades, a veces es el Agente quien toma la iniciativa para remediarla. Los trabajos de Spence ((1973) y (1974)) invirtieron la idea de quien paga los costos en un mercado de información asimétrica. ¿Qué ocurre si trabajadores de buena calidad desean diferenciarse del promedio? Gastan en educación para dar una señal a los posibles empleadores, inclusive en los casos en los que la educación no tiene realmente valor formativo. El resultado puede ser así ineficiente desde el punto de vista social (por ejemplo, cuando es una educación no contribuye al producto), pero efectivo para conseguir empleo. Las generalizaciones a mercados de crédito, de capitales y de trabajo han sido numerosas. Milgrom y Roberts (1987) mostraron que el gasto en señales puede ser un medio de modificar las creencias de los demás y obtener así ventajas en contextos de incertidumbre estratégica que abarquen varios períodos.




  1. Mejorando la asignación y extrayendo renta: la economía de los remates y el diseño de mecanismos.

Una de las aplicaciones más interesantes (y redituables) de la teoría microeconómica en los últimos años es la de la teoría de los remates. Ya se usaban en Babilonia, Grecia y Roma (la palabra “subasta” proviene de los remates convocados debajo del asta de la bandera), y han sido de aplicación común en los mercados de arte, en los de flores, e inclusive en los financieros. Los desarrollos de la microeconomía moderna no sólo han permitido analizarlos sino también proponer formas nuevas y/o mejor diseñadas para alcanzar resultados de maximización de bienestar (o de ingresos).

¿Qué quiere decir mejor diseñadas? Esencialmente el problema pasa por resolver la asimetría de información en cuanto a valuación de uno o más objetos por parte de los potenciales compradores, y el desconocimiento del vendedor de esa valuación. Hay una cercanía muy marcada con el problema de discriminación de precios de tercer grado (Bulow y Roberts (1989)). El objetivo privado del remate es el de maximizar la recaudación, y el social, que los objetos lleguen a quienes más los valúan5. Pero el método de asignación adquiere suma importancia para que esos objetivos se alcancen, ya que debe contrapesar la apertura de la información para evitar el temor de sobreofertar, con los efectos no competitivos que favorece la colusión de compradores.

Dos son los estilos de subastas principales. El remate inglés (oral descendente, tradicional de los remates de obras de arte) permite que se minimice la posibilidad de maldición del ganador pero favorece la colusión; podemos escuchar lo que los demás piensan que vale el objeto, pero también identificarlos, y ponernos de acuerdo en cuanto pagar. En cambio, el remate holandés (ascendente, no necesariamente oral, puede ser de sobre cerrado) reduce la posibilidad de colusión, pero puede inducir ofertas mezquinas si los agentes temen que la señal privada de valor que tienen no coincida con la social.

Uno de los resultados principales es el Teorema de la Equivalencia de Recaudaciones: bajo condiciones muy generales, el vendedor puede esperar que ambos modos de remate estándar (y muchos otros) le den la misma recaudación. Buena parte de la literatura actual, reexamina este resultado removiendo las hipótesis sobre la complementariedad o sustituibilidad de objetos rematados, sobre la forma en que se adquiere información, sobre la distribución de preferencias entre agentes y sobre el grado de independencia de las ofertas (véanse Klemperer (2004) y Krishna (2002)).

Vickrey (1961) es una pieza fundamental de este edificio teórico-práctico. Plantea el teorema mencionado y propone los remates de segundo precio (en los que se asigna el objeto a quien ofrece más por él, aunque pague el segundo precio ofrecido) como mecanismo para obtener la revelación de la verdadera preferencia por el bien, información útil si se piensa vender más objetos similares en secuencia. El mecanismo de Vickrey ha sido usado con resultados positivos y también funestos (porque se requiere una dosis de sentido común al implementarlo: por ejemplo, si las valuaciones son muy diferentes, se puede ofertar un millón de pesos por un bien... ¡y pagar sólo diez centavos, si ésa fuera la segunda oferta! Por lo tanto es mejor que quien diseña el remate fije un precio de reserva o se atenga a recaudar sólo diez centavos (McMillan (1994) presenta una síntesis muy útil de casos reales).

En estos casos –como en el de la estabilidad global que vimos antes- el problema es la información: la revelación de la verdadera tasa marginal de sustitución. En particular, eso también ocurre en la revelación de preferencias entre bienes públicos y privados; Clarke (1971) y Groves (1975), entre otros, propusieron los mecanismos más conocidos para conseguir la revelación de la verdadera voluntad de pago en esos casos. Sin embargo, no dieron una solución definitiva porque el problema enfrenta un teorema de imposibilidad. Gibbard (1973) y Satterthwaite (1975) mostraron que cualquier resultado que pueda ser implementado como un equilibrio de estrategias dominantes para toda estructura lógicamente aceptable de preferencias es necesariamente dictatorial6. Es un resultado negativo en realidad. Dice que sólo el control exclusivo de un mecanismo por parte de un individuo puede evitar la manipulación. ¿Cómo es que el remate de segundo precio entonces sí induce a decir la verdad? ¿O cómo es que sí lo consiguen los mecanismos de Clarke y Groves? La razón es que en los casos resueltos de remate y diseño de mecanismos hay restricciones sobre las preferencias. Así, el mecanismo de remates de segundo precio, inventado por Vickrey, sólo se aplica a estructuras de preferencias que pueden ser completamente caracterizada por valores de reserva, y no a todas (véase la discusión de Campbell (2000), en especial los capítulos 7 y 9).

También el diseño optimal de los contratos requiere tener en cuenta los problemas de asimetría de información; en efecto, la regla de Borch, ya que esta no inmuniza contra las enfermedades derivadas de la distribución de la información. Los problemas más complejos aparecen en los modelos dinámicos (de interacción repetida), en los que los agentes pueden usar con mayor flexibilidad las acciones estratégicas, como disfrazar su tipo o modificarlo, o pedir renegociación de contratos que jaqueen sus “compromisos”. Bolton y Dewatripont (2005) compactan los resultados en una proposición: “bajo asimetrías de información en un modelo intertemporal de interacción repetida, la optimización secuencial difiere de la optimización ex ante sobre todos los períodos”.


  1. Más cerca de la ingeniería social. Nuevos roles para el microeconomista: experimentación y diseño.

El diseño de mecanismos pone al microeconomista en el campo de la ingeniería. El problema es conseguir que los agentes digan la verdad en un mundo plagado por velos de incertidumbre que ocultan las preferencias y las voluntades de pago reales, y castigado por costos prohibitivos para el monitoreo directo de las acciones. Es un campo de aplicación nítida de la teoría de los juegos, de modo que el microeconomista se ha encontrado usando el instrumental muchas veces, más que desarrollándolo. Surge entonces aquí la cuestión de si la teoría de los juegos es o no parte de la microeconomía; en este volumen tenemos una contribución específica de modo que me aliviaré de la carga de tener que incursionar en el tema y de intentar una resolución de tal ardua cuestión (solucionada por el editor).

Acompañando estas ideas sobre diseño, han crecido significativamente los esfuerzos por poner a prueba las predicciones de la microeconomía sobre la base de experimentación (controlada). Según Roth (en Kagel y Roth (1995)), la Economía Experimental, incluye: 1) el testeo de teorías de elección individual, 2) la puesta a prueba de hipótesis de teoría de los juegos, y 3) las investigaciones de organización industrial. Con esa taxonomía, ¿no debería llamarse Microeconomía Experimental?

Un ejemplo relevante de estos avances es el trabajo Kahneman y Tversky (1979), el cual desafía la formulación de la utilidad esperada de Von Neumann y Morgenstern, utilizando como argumento un experimento propuesto a estudiantes. La experimentación referida a temas de decisiones bajo incertidumbre y que puso a prueba el resultado de la utilidad no es novedosa, porque el principio mismo de utilidad esperada surge de un experimento ideado por los Bernoulli (la paradoja de San Petesburgo; véase Kagel y Roth (1995)).

Kahneman y Tversky proponen el cambio de: 1) la función de utilidad por una expresión parecida, pero en la que se sustituyen los niveles en los estados por los cambios en dichos niveles, y 2) las probabilidades, por ponderaciones más generales dadas por funciones de esas probabilidades (que no necesariamente suman uno). En ese enfoque, la función objetivo debe ser tal que la función (elemental) de preferencias sea cóncava para ganancias, y convexa para pérdidas, y la compensación requerida por una pérdida sea mayor que la voluntad de pagar por una ganancia (existen otras formulaciones, que incluyen por ejemplo el modelo de Machina (1982) en el que se deja de lado el axioma de independencia entre alternativas irrelevantes).

La experimentación ha puesto en duda entonces la generalidad de la presentación de Von Neumann y Morgenstern, ya que aunque los experimentos (como los de la paradoja de Allais) refuten las predicciones de la teoría, y se haga ver a los agentes que han entrado en contradicción, ellos insisten en sostener su decisión. Esto desafía el programa de la utilidad esperada como uno educativo y correctivo de la irracionalidad – Hey (1989).

Un campo promisorio y de rápido progreso para el uso de experimentos es el del estudio de cómo tener en cuenta las preferencias de los demás (reciprocidad estratégica) en el propio proceso de toma de decisiones o para crear una reputación que dé ventajas de largo plazo –véase una síntesis en Sobel (2005). La experimentación podría ayudar a crear lazos estables, a diseñar instituciones y a resolver problemas como el del “holdup”.



Pero además, el progreso tecnológico ha hecho que el costo de disponer de métodos de cómputo haya bajado mucho. Tanto que casi es impensable actualmente trabajar sin una computadora. Por lo tanto, la evaluación ex ante de las políticas económicas, el ensayo previo, también es mucho más barato y se ha generalizado. Podríamos decir que forma parte de la Microeconomía Experimental y de la Economía del Diseño en el sentido de Roth (2002). La literatura económica es abundante hoy sobre temas de Equilibrio General Computado. Un Modelo de Equilibrio General Computado (MEGC) es una representación numérica de una estructura analítica que supuestamente replica una economía7, y puede reproducir un equilibrio inicial (gracias a la calibración inicial de parámetros libres). Los trabajos pioneros fueron los de Scarf (1967) y de Rolf Mantel. Los nuevos instrumentos computacionales permitieron hacer aplicación del lema de Sperner (piedra básica del teorema de Brouwer de punto fijo) para aplicar algoritmos simpliciales: los que buscan el equilibrio mediante una subdivisión del simplex de precios atribuyendo números a los vértices según los niveles de los excesos de demanda. El algoritmo modifica los precios en tanto y prosigue su camino, siempre que encuentre una “salida”: una faceta del subsimplex con números iguales (los excesos de demanda no tienen todos el mismo signo, negativo, positivo o cero). Se detiene (halla el equilibrio) cuando todas las facetas tienen números diferentes (los excesos de demanda tienen todos el mismo signo). En ese subsimplex está el equilibrio. La aplicación computada a temas de políticas económicas requiere el uso básico de la teoría del equilibrio general (Shoven y Whalley (1992), y Ginsburgh y Keyzer (1997)), ya sea en cuanto a las técnicas como a las limitaciones del análisis. Los teoremas principales, obtenidos a partir de la generalidad del método matemático son ineludibles. Sin embargo, la aproximación computada permite enriquecer el análisis con una evaluación experimental ex ante. Uno de los trabajos que más ha contribuido al desarrollo de programas de cómputo apropiados es el de Mathiesen ((1985a) y (1985b)) quien demostró que un EGC puede ser representado como un MCP (Mixed Complementary Problem): un problema en el que se busca la solución de un sistema que incluye condiciones de igualdad y de desigualdad, con variables duales asociadas (no se trata de un método de optimización ya que no todos los sistemas económicos son reducibles a uno de optimización, en presencia de restricciones (no se viola el teorema de Negishi arriba mencionado)). El modelo de equilibrio general queda así reducido a un caso particular de las desigualdades variacionales (véase Nagurney (1999)).


  1. Los usos de la dualidad.

Las bases del análisis de la dualidad se encuentran ya en la microeconomía antes de 1957, fecha de referencia para este trabajo. Marshall, Samuelson (1944) y Hicks (1938) las dejaron sentadas. La equivalencia (local) del enfoque de maximización de utilidades o beneficios, y de minimización de costos, permitió aprovechar los teoremas del enfoque dual en los resultados del primal. La identidad de Roy y los lemas de Shephard (1970) y de Hotelling, habían preparado el terreno para obtener en unas pocas líneas la ecuación de Slutsky, la cual no solo mejoraría la comprensión de la naturaleza del Excedente del Consumidor (medida de bienestar observable) sino que contribuiría al perfeccionamiento de la comprensión de la Variación Equivalente (VE) y la Compensadora (VC), medidas no observables pero bien fundadas teóricamente. Sabemos ahora que el nivel del cambio de bienestar medido por Excedente se encuentra entre los estimados por la VE y la VC.

En 1942 Samuelson estableció que la utilidad marginal del ingreso no necesariamente era constante y por lo tanto que no hay necesariamente una medición única de cambio de bienestar. Más tarde, Silberberg (1978) probó que el cambio en el Excedente del Consumidor depende de la secuencia o patrón que sigan los precios (es decir, el sendero de precios que se siga altera el valor integral de la función de demanda marshalliana). Esto se debe a que todos los bienes no tienen la misma elasticidad-ingreso.

Willig (1976) hizo un cálculo riguroso de las tres medidas principales (el Excedente del Consumidor, y las Variaciones Compensatoria y Equivalente) y mostró que ante un cambio en un precio la diferencia de magnitud entre ellas es despreciable si la elasticidad-ingreso es pequeña, si la variación de precios es poco significativa o si la participación del bien en el gasto es muy baja. Bajo cualquiera de esas condiciones, usar el Excedente para estimar las Variaciones sólo implica un error minúsculo.

El uso de los resultados de Shephard permitió mejorar el trabajo empírico. Christensen, Jorgenson y Lau ( 1971) introdujeron las funciones translog (aproximaciones cuadráticas logarítmicas de una función arbitraria); se hizo entonces posible especificar una forma funcional flexible, usar la dualidad de Shephard y su lema, y estimar sus parámetros.

El uso de las medidas de bienestar fue generalizado al caso de recursos ambientales y naturales8. O sea, se las redefinió para tener en cuenta no sólo modificaciones de precios, sino también cambios en cantidades disponibles y en las probabilidades de disponer de ciertos bienes o recursos (como los ambientales o naturales). Una muy buena síntesis de la literatura se encuentra en Myrick Freeman (1993). Krutilla (1967) y Mishan (1976) destacaron el aspecto ético que tiene la medición del cambio de bienestar que implican la Variación Compensadora o la Equivalente; la voluntad de pagar por un cambio o la voluntad de ser compensados por un cambio, tienen implícita una atribución de derechos de propiedad sobre ese cambio.

11. Organización de la producción en empresas: costos de transacción, captura y poder.

¿Por qué existen las empresas? Actualmente se ve a la firma como un instrumento más, con los mercados y los contratos, de organizar la actividad económica. La cuestión ha sido abordada recientemente con puntos de vista novedosos9: la economía de los costos de transacción y la de los derechos de propiedad (véase Milgrom y Roberts (1988)).

A partir del trabajo de Coase (1937) se ha discutido por qué buena parte de la actividad económica, y de las transacciones correspondientes, se llevan adelante dentro de las empresas y no fuera, dado que los mercados son mecanismos eficientes de asignación de recursos por antonomasia. Para Coase, los costos de transacción explican el surgimiento de las firmas.

Habría dos formas de enfrentar los costos de transacción: i) Realizar una producción en equipo (Alchian y Demsetz (1972)); ésta tendría lugar cuando se utiliza de manera conjunta el uso de determinados insumos para lograr un producto dado, ya que el rendimiento de este último es mayor que la suma de los productos obtenidos con los insumos por separado. Sin embargo, la producción en equipos está lejos de estar exenta de problemas de oportunismo (Holmström (1982)). ii) Integrar las actividades del mercado dentro de la empresa –luego punto de partida del trabajo de Williamson (1973).

Un aspecto esencial es el de eventual captura (hold-up) ex post de quien hace una inversión en un activo para entrar en una transacción, activo que tiene valor escaso fuera de ella. Una vez hecha la inversión, el comprador del servicio tiene todo el poder para bajar el precio hasta el límite mínimo. Eso desalienta la inversión; la inclusión de la inversión dentro de la misma empresa (vista así como agrupación de derechos de propiedad) resuelve el problema.

La especificidad de activos, la frecuencia de las transacciones y la incertidumbre son los tres pilares de la “transformación fundamental” de intercambio en los mercados por intercambio dentro de una estructura jerárquica – véase Williamson (1985). Cuanto más específicos los activos, cuanto mayor la frecuencia de las transacciones y cuanto mayor la incertidumbre, mayor es la probabilidad de que las transacciones pasen al interior de una empresa. En el caso de Coase se presupone que la formación de precios dentro de la empresa es menos costosa que dejar al mercado externo su formación. Para Williamson la posibilidad de renegociar cuando los resultados no son los esperados desalienta la inversión específica y, por lo tanto, la integración genera un resultado superior al mercado. Si el mercado es competitivo y eficiente en información, es probable que contratar fuera de la firma sea una forma eficiente de llevar adelante la producción. En cambio, organizar la producción en una firma será más eficiente si los beneficios potenciales exceden los costos iniciales más los de transacción. Por lo tanto, si la incertidumbre y la información imperfecta persiste en el tiempo, la firma es un mecanismo institucional eficiente de minimizar los costos de transacción y de organizar la actividad productiva.

La economía de los derechos de propiedad10 ve a la empresa no como una relación entre empleado y empleado, sino como un mecanismo que permite resolver el problema de los contratos incompletos y definir quién toma la decisión en última instancia. Dado que los contratos no pueden prever todo, ni establecer qué hacer en cada estado de la naturaleza, el derecho de propiedad determina quién tiene el derecho final de decidir (el “residual claimer”) y saldar las controversias. La empresa se ve en realidad como un conjunto de activos bajo una misma propiedad, y el derecho de propiedad da los elementos para influir en la negociación y en la determinación de los incentivos.
12. Tecnología y entrada de firmas.

Hacia 1953 ya Shephard había incorporado las funciones homotéticas (transformaciones monótonas de homogéneas). Esto permitió ampliar el conjunto de funciones de utilidad y de producción considerados en el análisis microeconómico con otras nuevas, cuyas tasas marginales de sustitución eran homogéneas (cuando eran diferenciables). Arrow, Chenery, Minhas y Solow (1961) propusieron las funciones de elasticidad de sustitución constante (las C.E.S.) y esto también amplió la capacidad de considerar las alternativas a las Cobb-Douglas como ejemplos típicos de funciones de producción.

Las funciones de producción homogéneas de grado uno hacen neutral para el equilibrio a la estructura industrial, da lo mismo una que muchas empresas de escala menor. Esa propiedad es más atractiva para el análisis macroeconómico que para el microeconómico, en el que la no neutralidad da lugar a modelos interesantes (tal vez más realistas) de organización de la producción y de las industrias.

Uno de los resultados más interesantes en el campo del análisis de la tecnología fue la inclusión del concepto de Subaditividad de Costos, del cual las Economías de Escala terminan siendo un caso particular. Bajo subaditividad de costos (para un único producto) es más barato producir el bien en una sola planta que en varias, pues de esa manera no se replican costos fijos. Esto significa que puede haber razones para sostener un mercado como de Monopolio Natural (o de Oligopolio Natural) aún con costos medios crecientes; la microeconomía se enriqueció entonces con una versión más fuerte de Monopolio Natural.

Sin embargo, se sabe hoy que las economías de escala y de alcance no son suficientes para la subaditividad en el caso multiproducto; se requiere introducir alguna hipótesis adicional: 1) el costo del promedio ponderado de producciones sobre dos rayos (senderos) es menor que el promedio ponderado de los costos (convexidad trans-rayo), ó 2) producir un bien baja el costo marginal del otro (complementariedad de costos). La clave está siempre en las economías de producción conjunta.

El trabajo de Baumol, Panzar y Willig (1982) fue determinante para esta línea de trabajo. Sharkey (1982) presenta una versión sintética con aplicaciones de la teoría de juegos cooperativos11. Esta misma teoría tiene relevancia para la determinación de subsidios cruzados y las demostraciones de existencia de equilibrio general con rendimientos crecientes. Estos resultados enriquecieron las aplicaciones de la microeconomía a la organización industrial y a la economía de la regulación. Permitieron ver el rol de los mercados “desafiables” (contestables) como disciplinantes vía la entrada de rivales (cuyos costos fijos son evitables por lo que son capaces de entrar muy rápidamente para apropiarse de rentas efímeras).

Los costos fijos nacen de las indivisibilidades del proceso de producción. Los costos hundidos nacen de la especialización del capital en la empresa. Cuando un monopolio es natural y produce muchos bienes nace la inquietud de saber si una actividad no subsidia a otra en el pago de los costos fijos. La idea básica para determinar si una actividad es subsidiada es la de comparar costos incrementales con costos "stand-alone". ¿Cómo diseñar un test que indique si un consumidor o un subgrupo están siendo tratados de manera justa? Según el criterio de “stand-alone”, no deberían pagar más de lo que les tocaría quedándose solos. Según el criterio de costos incrementales, deben pagar por lo menos el incremento de costos que producen a la comunidad. Los desarrollos más importantes en este campo fueron los de Faulhaber (1975).

Vale la pena destacar también las siguientes contribuciones: 1) Sutton (1991) agregó el concepto de costos fijos endógenos (por ejemplo, la publicidad) que resultan de la forma de la competencia entre rivales oligopolistas, más que de la tecnología. 2) Zellner y Revankar (1969), demostraron que existen funciones de producción que generan curvas de costos variables en forma de U, lo que justifica la posibilidad de tener rendimientos variables a escala dentro de una misma tecnología -las funciones de producción “generalizadas” son transformaciones monótonas estrictamente crecientes de funciones de producción homogéneas (Fernández-Pol (1975)). 3) Ellickson et al (1997) mostraron la existencia de equilibrio general con clubes endógenos: una planta podría ser suficiente para abastecer a muchos consumidores al mismo tiempo12.


13. Las formas de organización industrial no neutrales. La microeconomía bajo competencia imperfecta.

Según cita también Martin (1993), para Stigler, la organización industrial es parte de la teoría de los precios. Sin embargo, es tal la cantidad de material relativa a organización industrial que se creó en los últimos cincuenta años, en especial entre 1970 y 1990, que esta sección merecería que se le dedicara un ensayo completo –de hecho la AAEP le destinó un libro (véase Coloma (2006)).



¿Cuál es el campo de la organización industrial? Según Martin (1993), es el de la competencia imperfecta. ¿Es por lo tanto necesaria y suficiente la presencia de poder de mercado para que un modelo sea de organización industrial? ¿Deberíamos llamarla microeconomía bajo competencia imperfecta? Schmalensee (1988) la ve más amplia, porque incluye en su ámbito a los determinantes del comportamiento y organización de las empresas de negocios, como así también a las políticas públicas hacia los negocios (entre ellas la defensa de la competencia, la regulación, y el análisis de las empresas públicas). Como Schmalensee considera indispensable a la teoría de los juegos para el tratamiento de la microeconomía bajo competencia imperfecta porque obliga a planteos consistentes en una estructura lógica común, es inevitable recordar aquí algunos resultados y referencias muy destacados de los últimos cincuenta años:

  • Las amenazas deben ser creíbles para ser efectivas. De modo que tiene sentido que –las empresas instaladas, por ejemplo- destinen recursos a establecer compromisos (éste es el tema de los subjuegos-perfectos, refinamiento introducido por Selten en 1965) que sirvan como barreras a la entrada.

  • Puede valer la pena incurrir en costos para alterar las creencias de los otros agentes (Milgrom y Roberts (1987)). Esto ocurre porque las soluciones se exploran en juegos bayesianos, en los que los agentes revisan sus creencias sobre las acciones de los demás.

  • La tarifación no lineal puede ser útil para apropiarse del excedente de los consumidores, y puede también dominar a la tarifación lineal en el sentido de Pareto (Oi (1971)).

  • Al monopolista multiproducto puede convenirle armar “paquetes” de productos (Spence (1980)). Ejemplos de esta tipo de discriminación son las ventas en bloque y las ventas atadas.Veasé Coloma (2005).

  • Vale la pena diferenciar productos y discriminar precios y calidad. Es posible obtener ganancias al hacer de productos similares, productos diferentes, inclusive dañarlos a propósito (véase Chambouleyron (2006)).

  • Hay muchos modelos posibles de oligopolio, y la teoría puede proveer simplemente un catálogo del cual elegir para cada caso empírico.

  • Las hipótesis de Cournot y Bertrand pueden integrarse mejor en juegos de dos períodos (Fudenberg y Tirole (1984) entre otros).

  • La colusión es sostenible sólo en modelos de horizonte infinito (y tasas de descuento bajas) (Teorema-Folk).

La nueva economía de redes no encaja en la definición de la organización industrial como microeconomía de los mercados imperfectos necesariamente. Se trata de industrias en las que: 1) los bienes requieren un costo inicial sustancial para ser producidos (economías de escala), 2) la demanda es por un sistema, más que por un bien o servicio (compatibilidad de software y hardware por ejemplo requieren estandardización), 3) hay importantes externalidades entre usuarios y productores, y 4) los costos de cambiar de proveedor son muy relevantes. Son fenómenos nuevos, que requieren soluciones creativas de raíz microeconómica, como la definición de cargos de acceso (precios después de todo) que favorezcan la autorregulación del mercado vía la competencia –véase Shy (2001) para un resumen conceptual.
14. ¿Hacia dónde vamos? De la unificación a la fragmentación.

Hace cincuenta años, la economía de la información era terra incognita y hoy tenemos una buena cartografía. Es por eso que ha llevado el mayor peso en estas páginas. En términos relativos, la microeconomía contemporánea pone mucho énfasis en el diseño de mecanismos e instituciones, la experimentación y el análisis estratégico. El análisis de la cantidad y de la distribución de la información entre los agentes ha desplazado al estudio del equilibrio y de sus cuatro problemas (existencia, optimalidad, cardinalidad y estabilidad). Está bien que eso sea así por ahora, y estamos encontrando que es acertado contener aquellos cuatro problemas en los nuevos odres. Pero queda mucho por saber en el núcleo tradicional de la teoría, inclusive persisten preguntas clásicas con respuestas incompletas: 1) ¿cuál es el “verdadero” modelo de comportamiento frente al riesgo?, 2) ¿cómo se modifican los precios para corregir los desequilibrios?

Probablemente ocurra con la joven microeconomía, lo que en otras disciplinas maduras como la física o la biología: la profundización de la incipiente fragmentación actual, y la consagración de los métodos experimentales. Ya no veremos microeconomistas, sino especialistas en tal o cual subdisciplina microeconómica. Sin embargo, el entusiasmo por los nuevos fenómenos y las subdisciplinas no debería olvidar las contribuciones metodológicas y los logros pasados. El programa del equilibrio general, desarrollado en los primeros sesenta años del siglo veinte, puso énfasis en asegurarse que el equilibrio es conceptualmente posible antes de explayarse sobre sus propiedades. ¿Nos quedará como lección? El progreso en los métodos de cómputo y en la econometría, la capacidad de hacer más experimentos controlados, la disponibilidad de mejores datos, inclusive de mirar en las neuronas el chisporroteo de las decisiones, auguran una época interesante. ¿Será un giro hacia la ingeniería social?

En fin, la preservación del análisis de los precios es necesaria para que la microeconomía no pierda su identidad. Se trata después de todo de la determinación de los precios relativos subjetivos (la tasa marginal de sustitución) y de los de mercado. Y no quedará más remedio que hacer análisis de precios relativos, porque seguramente tendremos también nuevas preguntas por responder, como resultado de la escasez de los recursos naturales y ambientales. Es cierto que se contrapone a esa escasez el fantástico progreso tecnológico moderno que nos ofrece nuevos bienes o nos baja el costo de producir los actuales y que, inclusive, da trabajo a los microeconomistas para explicar la existencia de bienes de precio cero (como los sistemas de software abiertos (ver el resumen de Rossi (2004)). Sería muy bueno estar a las puertas de la tierra de Jauja (aunque el postulado de no saciedad lo hace dudoso). Allí los microeconomistas no tendríamos ocupación remunerada. Pero, ¿para qué habríamos de tenerla?



  1   2


La base de datos está protegida por derechos de autor ©espanito.com 2016
enviar mensaje