La teoría no rentable del estancamiento global de Robert Brenner

La teoría de Robert Brenner sobre la economía global posterior a 1973 –que describe una larga era de “estancamiento” causada por un exceso de capacidad industrial crónica– es lógicamente dudosa y no se ajusta a los hechos. Pero el mayor problema de la teoría es su política.

Durante los últimos veinticinco años, el historiador económico de la UCLA, Robert Brenner, colaborador desde hace mucho tiempo de New Left Review , ha desarrollado una teoría cada vez más influyente de lo que él llama “la larga recesión”: la desaceleración económica global que comenzó en 1973 con el paso de la crisis. del boom de posguerra.

Según Brenner, durante medio siglo la economía mundial se ha estancado bajo el peso de una larga crisis de rentabilidad causada por un exceso crónico de capacidad en la industria manufacturera mundial, un problema que se hizo sentir por primera vez con el reingreso de posguerra de las empresas alemanas y japonesas a mercados ya saturados. mercados de exportación, pero que no ha hecho más que empeorar con el tiempo.

Para Brenner, el exceso de capacidad crónico es el síntoma de una falla en el mecanismo económico del capitalismo, que surge de la anarquía no planificada de la producción de mercado: las empresas en industrias superpobladas, cargadas con costos hundidos en forma de capital fijo, carecen de incentivos para retirarse de actividades no rentables. líneas de negocios, lo que resulta en acumulaciones intratables de exceso de capacidad que generan una competencia despiadada, hundimiento de las tasas de ganancia y, en última instancia, estancamiento.

La política de la tesis de Brenner puede no ser obvia a simple vista, pero pudimos vislumbrarla a principios de este año a través de un comentario del sociólogo de Berkeley Dylan Riley, en algún momento coautor de la de Brenner, criticando a ciertos socialistas por lo que Riley pensaba que eran sus evaluaciones demasiado indulgentes de las políticas industriales de la administración Biden.

Cualesquiera que sean los méritos de su caso, lo notable del artículo de Riley fue el uso que pudo hacer del marco económico de Brenner al servicio de un argumento político: la bidenómica, cree, resultará en “una exacerbación masiva de los problemas de exceso de capacidad en a escala mundial”, y este hecho, a su juicio, expone a los socialistas “neokautskistas” a la falta de una “respuesta creíble a la lógica estructural del capital”.

Crisis en teoría

Es posible que algunos lectores todavía estén desconcertados acerca de cuál es exactamente la conexión. ¿Por qué la perspectiva de, digamos, un exceso de capacidad en la industria mundial de paneles solares debería ejercer alguna influencia de una manera u otra sobre cómo los socialistas juzgan algo como la Ley de Reducción de la Inflación? Como señaló Eric Levitz de New York Magazine , un “exceso global de tecnología baja en carbono” es difícil de ver como un escenario de pesadilla, por decirlo suavemente.

Pero lo que podría parecer un non sequitur se vuelve menos misterioso una vez que se ha captado el subtexto político que subyace a la teoría de la larga crisis de Brenner.

Unos años antes de presentar su tesis en un número de 1998 de New Left Review , Brenner pronunció una charla ante miembros del grupo socialista Solidaridad sobre el problema de cómo los revolucionarios deberían relacionarse con los socialdemócratas. (La charla se publicó con el título “El problema del reformismo”).

La cuestión era apremiante porque el reformismo, como él lo explicó, era “nuestro principal competidor político” y “el hecho ineludible es que, si queremos atraer a la gente a una bandera socialista revolucionaria y alejarla del reformismo, en general no será posible superando a los reformistas en términos de programa. Será a través de nuestra teoría, nuestra comprensión del mundo”.

Lo que distingue al reformismo del socialismo revolucionario no es su apoyo a las reformas; Los revolucionarios también buscan reformas. De hecho, “como socialistas, consideramos que la lucha por las reformas es nuestra principal ocupación”. La verdadera base de la división reside más bien en los intereses materiales personales de los reformistas, así como en su teoría del capitalismo.

La base social del reformismo, explicó Brenner, yacía en las filas de las burocracias sindicales y los aparatos de los partidos socialdemócratas. Dado que sus intereses organizativos se veían inevitablemente amenazados por estallidos de lucha de clases descarada, los reformistas siempre se opusieron a los movimientos militantes desde abajo. Instaron a los trabajadores a limitar sus acciones a votar por los socialdemócratas el día de las elecciones y respaldar las acciones sindicales oficiales en el trabajo. En otras palabras, los reformistas quieren que los trabajadores pongan su destino en manos de los reformistas.

Por eso siempre afirmaban que “la intervención estatal puede permitir al capitalismo lograr estabilidad y crecimiento a largo plazo”; que la clase trabajadora puede “utilizar” el Estado para perseguir esos objetivos “en su propio interés”. Los reformistas tienen que mantener estas posiciones porque sin promesas como estas, dada su oposición a la lucha de clases, el reformismo y sus organizaciones no tendrían nada que ofrecer a la clase trabajadora.

Del mismo modo, la praxis de los revolucionarios debe permanecer estrechamente relacionada con su teoría de la crisis económica. Los socialistas revolucionarios siempre deben enfatizar que “las crisis surgen de la naturaleza inherentemente anárquica del capitalismo” y que debido al carácter “no planificado” del sistema, “los gobiernos no pueden prevenir las crisis”. Sólo entonces podrían convencer a los trabajadores de que el reformismo no puede funcionar ni funcionará, independientemente de las supuestas buenas intenciones de los reformadores.

Esta es, según Brenner, la razón por la que “para los revolucionarios, tanto depende de su afirmación de que los períodos prolongados de crisis son inherentes al capitalismo”.

Brenner no fue el primero en elevar la teoría de las crisis a un papel tan central en la práctica política socialista. Esta conexión ha sido un elemento básico del marxismo desde el estallido de la gran controversia revisionista en la década de 1890. Cuando Eduard Bernstein, el protegido convertido en apóstata de Marx y Engels, llamó a la socialdemocracia a adoptar una ruta reformista hacia el socialismo, puso la cuestión de las crisis capitalistas en el centro de su caso: las crisis se estaban volviendo menos frecuentes y, sobre todo, , menos apocalíptico a medida que el capitalismo maduró, argumentó Bernstein. Cuando el escenario de un colapso total parecía cada vez más remoto, la opción revolucionaria quedó despojada tanto de su plausibilidad como de su justificación.

La salva de Bernstein obligó a los defensores de la ortodoxia marxista, en sus diversos matices, a agudizar sus propios argumentos teóricos, y en la década de 1920 había dos polos de análisis identificables en la teoría marxista de las crisis: la visión “subconsumista” de Rosa Luxemburgo, que enfatizaba la insuficiencia del poder adquisitivo de la clase trabajadora como principal fuente de las tendencias de crisis del sistema; y la teoría de la “desproporcionalidad” del socialdemócrata alemán Rudolf Hilferding, que rastreaba la raíz de las crisis en la recurrencia de desajustes accidentales entre la producción de las diferentes ramas de la industria, un peligro que surge de la naturaleza “ciega” y no planificada de la inversión capitalista . .

Al mirar retrospectivamente estos debates, lo que surge a la vista es el reflejo perenne, entre los marxistas de cierta mentalidad, de juzgar las teorías de la crisis según un criterio de no reformabilidad: la fuente de la crisis debe ser algo que pueda ser descrito de manera plausible como inerradicable sin alguna sustitución revolucionaria no especificada del modo de producción existente.

Ahora bien, hay razones sensatas para esperar que las fuerzas que dan origen a las crisis económicas bajo el capitalismo reflejen con frecuencia los intereses creados de los propios capitalistas de una forma u otra, en cuyo caso, atacar las raíces de la crisis requiere atacar los intereses capitalistas. Pero la irreformabilidad real resulta ser un objetivo exasperantemente móvil.

Tomemos, como ejemplo, la teoría de la crisis de Hilferding, que atribuía la turbulencia económica a “desproporciones” en el patrón de inversión capitalista, que surgían del desarrollo “anárquico” y “no planificado” del sistema.

Al igual que Brenner hoy, Hilferding –el principal experto económico del Partido Socialdemócrata Alemán de entreguerras– sostenía que sólo la planificación podía resolver el problema de las desproporciones. Señaló el crecimiento de los cárteles de la industria privada desde finales del siglo XIX: esto era una prueba de que los propios capitalistas se habían visto obligados a aceptar la lógica de la planificación para estabilizar mercados cada vez más caóticos.

Sin embargo, en última instancia, los cárteles eran ineficaces: mientras siguieran siendo iniciativas puramente privadas y voluntarias, no podían poner orden en sus industrias porque no podían disciplinar eficazmente a sus miembros. Para estabilizar la economía de manera duradera, el Estado tendría que emprender una planificación integral.

Desde el punto de vista actual, el mecanismo de crisis de Hilferding podría parecer totalmente a prueba de reformas: después de todo, hoy en día se supone que la planificación de precios y producción es una medicina demasiado fuerte para que la trague el capitalismo.

Pero en la década de 1930, Hilferding fue duramente atacado por los socialistas de su izquierda por lo que consideraban implicaciones reformistas de su teoría. Porque en los años 30, muchos en la izquierda veían la “planificación” como el camino preferido de la clase dominante hacia la estabilización económica, el camino hacia la recuperación que planteaba la menor amenaza al status quo.

Recordemos la historia de los años de Roosevelt: el “Primer New Deal” de 1933-1935, centrado en la Ley de Recuperación Industrial Nacional –con su cartelización obligatoria de la economía privada y la imposición de precios mínimos obligatorios y cuotas de producción– fue el “conservador” fase. El “Segundo New Deal” que comenzó en 1935 –con sus medidas de estado de bienestar, programas de empleo y leyes laborales favorables a los sindicatos– fue la fase “radical”.

El mismo patrón se mantuvo en toda Europa, donde el ala derecha de los movimientos socialista y obrero abrazó el “ planismo ” estilo New Deal defendido por el Partido Laborista belga y su teórico Hendrik De Man. Los socialistas y comunistas de izquierda denunciaron los matices supuestamente fascistas del planismo y abrazaron las doctrinas neoluxemburguesas del subconsumo. Para ellos, dominar la anarquía de la producción parecía potencialmente alcanzable bajo el capitalismo. Lo que parecía impensable era una drástica redistribución de la riqueza.

Pero apenas unos años más tarde, la rueda volvería a girar, cuando una combinación de guerra y presiones desde abajo obligaron al mundo capitalista a aceptar un redistribucionismo en una escala que antes parecía inconcebible. Las consecuencias fueron, por así decirlo, revolucionarias. En Gran Bretaña, la proporción del ingreso nacional que va al 50 por ciento inferior, que había sido menos de la mitad de la proporción del 1 por ciento superior en 1910, se disparó a más del doble de su nivel en 1950.

Así que era sólo cuestión de tiempo antes de que el subconsumismo, alguna vez considerado como la doctrina radical de la Rosa Roja, pasara a ser visto como el paliativo de la clase dominante de John Maynard Keynes, enviando a los teóricos de la crisis una vez más a buscar pastos más oscuros.

El aumento de la caída de la tasa de beneficio

En la década de 1970, un tipo de crisis muy diferente se abatió sobre el mundo capitalista. Esta vez no se trataba de atribuir el problema a una escasez de poder adquisitivo masivo: a finales de los años sesenta y principios de los setenta se había presenciado una “explosión salarial” en todos los países industrializados en medio de pleno empleo, mercados laborales ajustados y una ola de aumento de la demanda laboral. -militancia de clase.

En consecuencia, la denominada explicación de la crisis basada en la reducción de beneficios (cuyo locus classicus fue el enormemente influyente Capitalismo británico , trabajadores y reducción de beneficios de Andrew Glyn y Bob Sutcliffe ) inmediatamente ganó adeptos entre los académicos marxistas y adyacentes a Marx en el mundo de habla inglesa. . (La teoría de la restricción de las ganancias a veces se denomina teoría de la “restricción de los salarios”; la idea, en cualquier caso, es que las ganancias estaban siendo reducidas por los salarios.)

La teoría de la restricción de beneficios pintó la agitación de los años 1970 como una especie de reflejo de la Depresión de los años 1930: así como la calamidad anterior había sido exacerbada por salarios demasiado bajos, minando la demanda agregada, ahora la militancia de la clase trabajadora había hecho subir los salarios. demasiado alto, erosionando la tasa de beneficio y paralizando la inversión.

Inicialmente, esta explicación atrajo a todo el espectro marxista. Todas las partes estaban de acuerdo en que, de hecho, las tasas de ganancia habían disminuido a medida que los salarios habían aumentado. Y para un buen número de radicales, la teoría podría verse como una reivindicación del tipo de estrategia militante “transicional” propugnada durante mucho tiempo por los trotskistas: exigir “reformas” que el capitalismo considera imposibles de realizar. Se pensaba que los revolucionarios en los sindicatos habían ayudado a impulsar a la clase trabajadora a mayores niveles de militancia, y las demandas salariales resultantes habían producido ahora una crisis total del capitalismo a la que los keynesianos de la clase dominante no tenían respuesta.

Sin embargo, una vez que quedó claro que la crisis de los años 1970 no estaba conduciendo a la revolución, la explicación de la restricción de ganancias pasó a ser vista desde el punto de vista opuesto: como una sanción ideológica a los esquemas de moderación salarial –“políticas de ingresos”– defendidos durante mucho tiempo en contra de la política monetaria. motivos de inflación por parte de expertos keynesianos de los partidos socialdemócratas.

Desde el punto de vista de los radicales, a los svengalis de la política de ingresos y a sus amos políticos en las oficinas del gabinete les resultó muy fácil reunir reclutas dispuestos a la moderación salarial en las burocracias sindicales -cuyos líderes, a su vez, estaban demasiado ansiosos por ofrecer su apoyo. servicios a políticos socialdemócratas ansiosos que esperan “gestionar” la crisis en interés de un electoralismo burdo.

En 1969, Paul Mattick, un comunista de consejo alemán y adepto autodidacta de la economía política marxista, publicó un libro titulado Marx y Keynes: Los límites de la economía mixta, quien se había establecido en los Estados Unidos en la década de 1920 para convertirse en un incansable… y, durante décadas, generalmente ignorado: evangelizador de las ideas del teórico polaco en gran parte olvidado Henryk Grossmann, cuya obra de 1929 La ley de acumulación y desintegración del sistema capitalista se destacó por ser una de las pocas obras sustanciales de los escritos marxistas anteriores a la década de 1970. fundamentar firmemente su teoría de la crisis en la famosa “Ley de la tendencia a la caída de la tasa de ganancia” de Marx.

“Sostengo”, escribió Mattick con aparentemente notable presciencia en la introducción de su libro, “que la solución keynesiana a los problemas económicos que acosan al mundo capitalista sólo puede tener una utilidad temporal, y que las condiciones bajo las cuales puede ser efectiva son en proceso de disolución. Por esta razón, la crítica marxista de la economía política, lejos de haber perdido su pertinencia, gana nueva relevancia a través de su capacidad para comprender y trascender tanto la ‘vieja’ como la ‘nueva’ economía”.

Cuando estos pronósticos parecieron hacerse realidad unos años más tarde, una cohorte entusiasmada de jóvenes marxistas de la Nueva Izquierda, en busca de una nueva teoría de la crisis a prueba de reformas, adoptaron a Mattick como su estrella polar y desempolvaron la conjetura de la tasa decreciente de ganancia (FROP) de Marx. Uno de ellos, David Yaffe, quien defendió prominentemente al FROP durante la década de 1970, expuso el caso directamente en una reseña crítica del libro de Glyn/Sutcliffe que apareció en New Left Review en 1973.

“La crisis de rentabilidad”, escribió Yaffe, “lejos de ser causada por grandes aumentos salariales, es el resultado de las contradicciones de la producción capitalista misma, que tiene su expresión en la tendencia a caer de la tasa de ganancia”. Reprendiendo a los teóricos de la restricción salarial por su apostasía, explicó su error en términos casi idénticos a los de Brenner al discutir el problema del reformismo dos décadas después:

Si el modo de producción capitalista puede garantizar, con o sin intervención gubernamental, un crecimiento continuo y pleno empleo, entonces el argumento más objetivo en apoyo de la posición socialista revolucionaria se derrumba. La perspectiva reformista se vuelve entonces razonable.

Así, en el transcurso de la década de 1970, mediante un proceso de autoselección ideológica, el FROP llegó a estar, como lo expresó el fallecido Simon Clarke en su estudio de la teoría marxista de la crisis, “asociado políticamente con un milenarismo sectario” que se estaba volviendo cada vez más popular. cada vez más notorio en ciertos sectores ultramontanos de la menguante izquierda marxista posterior a los años 60.

En un exasperado contraataque publicado en 1973, Paul Sweezy denunció “una interpretación de la teoría de la acumulación de capital de Marx que parece ser compartida, con variaciones, por un número creciente” de economistas marxistas, un grupo para el cual Sweezy personalmente se había convertido en “un objetivo favorito”. .” Esta escuela de pensamiento (de la cual “Paul Mattick tal vez merezca ser llamado el decano”) se caracterizó por una “fetichización de la tendencia decreciente de la tasa de ganancia” y un enfoque general del marxismo que había “degenerado en una ortodoxia estéril”. “

Con los Mattickistas acusando a sus oponentes marxistas de herejía y sus oponentes tachando a los Mattickistas de fundamentalistas, es fácil ver cómo el FROP podría llegar a ser percibido, tanto por marxistas como por no marxistas, como, para bien o para mal, el estándar más puro de la ortodoxia marxista. De hecho, hasta el día de hoy se supone ampliamente que el FROP siempre ha sido la teoría marxista ortodoxa de la crisis.

Pero la verdad es casi lo contrario: en las ocho décadas transcurridas entre la muerte de Friedrich Engels y las crisis petroleras de la OPEP, el FROP casi no jugó ningún papel en las diversas teorías de crisis de la mayoría de las principales autoridades marxistas. Rosa Luxemburgo se mostró notoriamente desdeñosa ante la idea. Karl Kautsky lo mencionó como un factor que tendía a promover la centralización del capital, pero no como una causa importante de crisis. El capítulo pertinente del enormemente influyente libro de texto de economía marxista de 1942 de Sweezy, La teoría del desarrollo capitalista , señaló que la ley “ha sido objeto de numerosas críticas tanto de seguidores como de oponentes” de Marx, y dedicó una sección completa a “Una crítica de la economía marxista”. la Ley.” Ernest Mandel en su Introducción a la teoría económica marxista de 1967Incluyó una diligente sección de cinco páginas sobre la ley y luego la ignoró cuidadosamente durante el resto del libro.

Incluso hay buenas razones para dudar del propio compromiso de Marx con la idea. Claramente, el FROP era una teoría que Marx quería creer que era cierta. Así como se sabe que físicos y matemáticos esperan que una teoría o teorema especialmente elegante termine siendo confirmado por una prueba o experimento futuro, Marx quería encontrar una manera de hacer que el FROP funcionara porque, dentro del contexto de su teoría, condujo, como dijo Duncan Foley en su libro de texto de economía marxista de 1986 , a “un hermoso desenlace dialéctico”.

Pero Marx era un erudito escrupuloso, y cada vez que intentaba desentrañar los detalles del concepto en sus notas y borradores de las décadas de 1850 y 1860, se encontraba –como ha demostrado el marxólogo alemán Michael Heinrich– perdido en un laberinto de álgebra. eso sólo podía demostrar que una caída de la tasa de ganancia era una posibilidad, no un resultado necesario del desarrollo capitalista.

La ley de la tendencia a la caída de la tasa de beneficio entró en el corpus del pensamiento marxista gracias a la incorporación por parte de Engels de algunos de estos materiales en el tercer volumen de El Capital, publicado póstumamente. Pero, como señaló Sweezy en 1942, el análisis de Marx en esa sección no fue “ni sistemático ni exhaustivo” y “como tantas otras cosas en el Volumen III quedó en un estado inacabado”.

¿Cuán central era, entonces, el FROP para la visión de Marx del capitalismo? En la Teoría de la crisis de Marx , Clarke presentó un argumento convincente: “Quizás la mejor indicación de la importancia que Marx concedía a la ley de la tendencia de la tasa de ganancia a caer es que no la mencionó en ninguna de las obras publicadas en vida, ni le dio ninguna consideración adicional en los veinte años de su vida que siguieron a la redacción del manuscrito en el que se basa el volumen tercero de El Capital”.

En otras palabras, exactamente un siglo antes de que los jóvenes discípulos de Mattick redescubrieran con entusiasmo el FROP, Marx había perdido definitivamente el interés en él.

En las décadas posteriores a 1973, el marxismo como fuerza política sufrió duras derrotas. Pero a nivel académico, disfrutó de un notable renacimiento. La economía marxista en particular experimentó un tremendo aumento en su nivel de sofisticación teórica y competencia técnica gracias a una generación de radicales que se habían unido a la academia durante la era de la guerra de Vietnam.

Una de las figuras destacadas de esa cohorte fue Anwar Shaikh de la Nueva Escuela de Investigación Social, quien surgió en el transcurso de las décadas de 1970 y 1980 como el destacado defensor académico del FROP y del enfoque más amplio del marxismo con el que está asociado: “ marxismo clásico”, en la terminología de Shaikh; “marxismo fundamentalista” (o, más cortésmente, “marxismo ortodoxo”) en boca de sus detractores.

Pero por muy ortodoxo que sea, Shaikh es un erudito de erudito, no un doctrinario miope. Su summum opus de 2016 , Capitalismo: competencia, conflicto, crisis , un tratado de 1.026 páginas que presenta los frutos de su programa de investigación de cuatro décadas de duración, es un trabajo de notable erudición, notable por su consistente claridad conceptual y cuidadosa atención a la evidencia empírica. y negarse a conformarse con gestos de mano o apelaciones a la autoridad. El libro de Shaikh hace por la economía política marxista lo que los Fundamentos del análisis económico de Paul Samuelson de 1947hizo por la economía neoclásica: asentarla sobre una base teórica firme informada por los métodos modernos más rigurosos. Y entre los muchos temas que aborda está la versión de Shaikh (Shaikh diría que la versión de Marx) de la teoría de la caída de la tasa de ganancia.

Así, cuando Robert Brenner presentó su teoría alternativa de la caída de la tasa de beneficio, la teoría de la caída de la tasa de beneficio (el clásico FROP del tercer volumen de El Capital ) había adquirido un estatus extraño dentro del marxismo. Nunca había sido especialmente popular entre las principales autoridades marxistas, y ahora tenía especialmente mal olor gracias en parte al dogmatismo estridente de algunos de sus defensores más ruidosos. Y, sin embargo, se había beneficiado silenciosamente de dos décadas de reconstrucción cuidadosa e inteligente a manos de Shaikh y algunos otros académicos serios, incluidos Duncan Foley y los investigadores franceses Gérard Duménil y Dominique Lévy.

Debido al estatus canónico percibido del FROP clásico, y debido a que, tanto como la versión de Brenner, siempre ha tenido la intención de servir como una teoría de la crisis “a prueba de reformas”, las dos teorías merecen ser evaluadas una al lado de la otra.

Shaikh contra Okishio

La tasa de ganancia es la tasa de rendimiento que los capitalistas obtienen de sus inversiones en capital físico: máquinas, edificios, materias primas, etc. La aritmética es la misma que con cualquier otro tipo de inversión: así como una cuenta de ahorros que ofrece un interés del 5 por ciento paga un interés anual. Con un interés de 5 dólares por cada 100 dólares depositados, una tasa de beneficio del 5 por ciento significa que el capitalista promedio gana 5 dólares de beneficio por cada 100 dólares invertidos en capital físico. (Obsérvese que esto significa que, para cualquier nivel de beneficio, un mayor stock de capital implica una tasa de beneficio más baja .)

El punto de partida de la teoría marxista clásica de la caída de la tasa de ganancia es la centralidad de la mecanización que ahorra trabajo para el crecimiento económico. El crecimiento a largo plazo requiere una mayor productividad laboral (más y más producción por trabajador) y para lograr una mayor productividad laboral la fuerza laboral normalmente debe estar equipada con cada vez más capital por trabajador.

La cuestión clave es el equilibrio entre estas dos tendencias. Si la tasa de crecimiento del capital por trabajador, en términos porcentuales, no va acompañada de una tasa de crecimiento al menos igual de grande de la productividad laboral (también en términos porcentuales), entonces será necesaria una mayor cantidad de capital para producir un volumen determinado de producción. . Y si eso sucede, a menos que la proporción de la producción que se destina a ganancias aumente para compensar, la tasa de ganancia (beneficio por unidad de capital) caerá.

El concepto de Marx de la “tendencia a caer de la tasa de ganancia” depende de la idea de que alguna fuerza está actuando dentro del proceso competitivo, lo que hace al menos muy probable que, en el largo plazo, la productividad laboral no pueda mantenerse a la par de la intensidad de capital. y la participación en los beneficios de la producción no aumentará lo suficiente como para compensar. ¿Pero cuál podría ser esa fuerza?

Desde que se ha debatido el FROP de Marx (durante más de un siglo), una crítica en particular ha sido perenne. Recordemos que la tasa de ganancia es, por definición, el producto de dos términos: la proporción de la producción que se destina a ganancias (a diferencia de los salarios); y el volumen de producción producido por unidad de capital. La primera de estas variables está determinada por la lucha de clases entre trabajo y capital por la división del producto. El segundo término está determinado principalmente por los métodos técnicos de producción utilizados por los capitalistas.

El desafío que los críticos siempre han planteado a la teoría de Marx es el siguiente: ¿Por qué un capitalista estaría dispuesto a introducir un método de producción que produzca una tasa de ganancia inferior a la predominante? La tasa de ganancia podría disminuir por diversas razones. Pero seguramente la causa menos plausible es la única variable sobre la cual los capitalistas tienen control directo y consciente: la elección de los métodos de producción.

Esta línea de pensamiento llevó a una larga serie de escritores, empezando por el académico ruso Mikhail Tugan-Baranovsky en una influyente monografía de 1901, a razonar que la “elección de técnica” del capitalista debe, en todo caso, tener el efecto de impulsar la tasa de ganancia. constantemente más alto , no más bajo, como había afirmado Marx.

En 1961, el economista japonés Nobuo Okishio publicó un artículo histórico que demostraba que la crítica de Tugan al FROP era, al menos, lógicamente correcta: a un conjunto dado de precios dominantes en el mercado, y suponiendo que no hubiera cambios en el salario real, cualquier método de producción que La estrategia que el capitalista maximizador de ganancias introduciría debe tener el efecto -una vez que se haya generalizado en toda la economía- de aumentar, en lugar de reducir, la tasa de ganancia general.

La aparición del teorema de Okishio, matemáticamente prohibitivo, fue una razón clave (junto con los inútiles argumentos de los creyentes más dogmáticos del FROP) para que la teoría de la caída de la tasa de beneficio cayera en descrédito. Debido a esto, muchos académicos ampliamente alineados con el marxismo se convencieron de que la teoría había sido definitivamente desacreditada científicamente.

Fue en respuesta a la crítica de Okishio que Shaikh, a finales de los años 1970, centró su investigación en los detalles del comportamiento competitivo a nivel de empresa e industria. Basándose en Marx, pero enriquecido por el trabajo de ciertos microeconomistas disidentes –especialmente el excéntrico (y muy conservador) teórico de precios inglés de posguerra PWS Andrews– Shaikh desarrolló una teoría de la competencia intraindustrial a la que denominó (en contraposición a las categorías dominantes de “perfecto”). ” y competencia “imperfecta”) ” competencia real “.

La “teoría de la competencia real” da a Shaikh el motivo principal de su proyecto intelectual. Él siembra el texto de Capitalismo con caracterizaciones ácidas del proceso competitivo, formando un vívido cuadro de miedo y depredación: es “antagonista por naturaleza y turbulento en su funcionamiento. Es el mecanismo regulador central del capitalismo y es tan diferente de la llamada competencia perfecta como la guerra lo es del ballet”. La metáfora marcial está siempre presente: la competencia es “una guerra entre empresas”. Es “guerra por otros medios”. Sigue la “racionalidad impuesta de la guerra”. “ Bellum omnium contra omnes ”.

En manos de Shaikh esto no es mera retórica; es capaz de demostrar formalmente que, dados ciertos supuestos plausibles sobre la evolución de la tecnología (es decir, que el conjunto de innovaciones factibles suele estar sesgado en la dirección de tecnologías que aumentan la productividad laboral, pero a costa de una mayor intensidad de capital), el tipo El comportamiento competitivo ofensivo descrito por su teoría conducirá de hecho a una tendencia a largo plazo a la caída de la tasa de ganancia agregada.

La característica clave del comportamiento competitivo en la teoría de Shaikh es su incesante tendencia hacia una reducción agresiva de precios y costos. En la metáfora de la competencia como guerra, el precio es el arma preferida.

El modelo de Okishio hace que los capitalistas innovadores adopten métodos de producción más eficientes con el fin de obtener mayores ganancias actuales cobrando el mismo precio que los competidores mientras producen a un costo menor. Pero para Shaikh, eso ignora la naturaleza inherentemente estratégica y antagónica de la competencia capitalista. En lugar de sentarse y disfrutar de un mayor flujo de ganancias al precio anterior, el capitalista innovador de Shaikh utiliza su nueva superioridad de costos como un garrote, aprovechando su ventaja contra sus rivales reduciendo sin piedad el precio por debajo de lo que sus competidores pueden permitirse cobrar. Según Shaikh, no tiene más opción que actuar de esta manera porque en el campo de la competencia capitalista, “haz a los demás antes que ellos a ti” es la máxima del juego.

Hay que decir que la crítica de Shaikh a Oshikio es ingeniosa. Los capitalistas individuales podrían preferir utilizar sólo aquellos métodos de producción que aumentarían la tasa de ganancia. Pero no pueden, porque están atrapados en un juego competitivo destructivo que los obliga a adoptar métodos cada vez más intensivos en capital mientras recurren a una reducción de precios que destruye las ganancias en aras de la supervivencia competitiva.

De ahí el “hermoso desenlace dialéctico” señalado por Duncan Foley: la fuerza misma que genera la vitalidad del capitalismo –la innovación técnica impulsada por las ganancias– es también la fuente de su declive.

Escapar de la competencia

Sin embargo, todo esto sólo es válido si ese comportamiento es realmente “la norma en el mundo empresarial”, como afirma Shaikh. Aquí es donde Shaikh se equivoca, tanto desde el punto de vista de la lógica como de la evidencia.

Para Shaikh, la competencia entre empresas es como una guerra entre estados. Pero esta analogía debe ser inexacta, porque la mayor parte del tiempo la mayoría de los Estados no están en guerra. Según la lógica de la analogía, Shaikh parecería estar diciendo que la mayor parte del tiempo la mayoría de las empresas no compiten entre sí. Pero definitivamente no está diciendo eso: a lo largo de su libro argumenta ruidosamente contra las teorías de competencia imperfecta y monopolio que buscan restar importancia a la intensidad de la competencia intraindustrial.

La razón por la que la mayoría de los estados no suelen estar en guerra es que la guerra es costosa. Incluso los líderes que no tienen ningún escrúpulo en iniciar o intensificar una guerra de la que creen que pueden beneficiarse (pensemos en Richard Nixon) a menudo se encuentran pasando gran parte de su tiempo en el poder tratando de evitar guerras que creen que los dejarían en peor situación.

En la teoría de Shaikh, las empresas que adoptan innovaciones para reducir costos lo hacen con la intención bélica de dañar a sus competidores menos eficientes mediante la reducción de precios. Pero tiene problemas para explicar de manera creíble exactamente cómo se benefician en última instancia al hacer esto, incluso a largo plazo. En varios puntos del texto, cuando llega a este punto del argumento, su prosa se desvanece en una nube de vaguedad inusual: la “ventaja de la empresa de bajo costo queda clara” por sus agresivos recortes de precios; demuestran a los competidores de mayores costos que “el futuro ha llegado”, “que están condenados”.

Pero ¿qué pasa si los competidores no están de acuerdo en que están condenados? ¿Qué pasa si ellos también están dispuestos a aceptar una tasa de ganancia más baja para seguir en el negocio? Entonces, el tipo de comportamiento bucanero que Shaikh presenta como una receta tradicional para el éxito competitivo sería en realidad ruinosamente riesgoso y, por lo tanto, algo que los capitalistas inteligentes tratarían de evitar.

Esto no es sólo una especulación a priori . Un libro sobre precios escrito por “tres destacados expertos de McKinsey & Company” ( The Price Advantage ) advierte a los gerentes que “las guerras de precios rara vez tienen ganadores reales, y pocos supervivientes sanos”. Por esa razón, “las empresas mejor administradas hacen todo lo posible para evitar guerras de precios”. La mayoría de las guerras de precios que ocurren estallan por accidente, como resultado de percepciones y cálculos erróneos: “La guerra de precios que se inicia como una táctica competitiva deliberada es algo rara, y aún más rara es la que logra un resultado positivo para la industria o para la industria. en general o un proveedor específico dentro de la industria en conflicto”.

Consejos casi idénticos se dan en un libro de gestión ( Confesiones del hombre de los precios ) del consultor de precios alemán Hermann Simon, fundador de la empresa de asesoramiento global Simon-Kucher. En la encuesta anual a gerentes de su empresa, el 82 por ciento de los encuestados que informaron que su empresa estaba actualmente involucrada en una guerra de precios creía que había sido instigada por un competidor; sólo el 12 por ciento dijo que su empresa lo había iniciado como una táctica deliberada. “A menos que tenga una ventaja de costos inmejorable que impida a sus competidores responder de la misma manera, es casi imposible establecer una ventaja competitiva sostenible mediante la reducción de precios”, escribe Kucher.

Los expertos de McKinsey se hacen eco de esa afirmación, pero también la cuantifican: “Si alguna vez imaginó que reducir los precios para ganar participación y aumentar las ganancias podría ser una buena estrategia para su negocio, piénselo de nuevo. A menos que se tenga una ventaja de costos dominante (con esto nos referimos a costos que están al menos un 30 por ciento por debajo de la competencia ), reducir los precios con demasiada frecuencia desencadena una guerra de precios suicida”. (En un momento dado, Shaikh caracteriza la ventaja de costos de la empresa innovadora en uno de sus ejemplos numéricos como “robusta, del orden del 10%”).

Por lo tanto, para que la teoría de la competencia real de Shaikh sea válida, la innovación técnica del mundo real tendría que estar impulsada por una estrategia competitiva que, según estos expertos, rara vez se ve y casi nunca funciona.

Pero no necesitamos confiar en testimonios cualitativos. Durante los últimos veinte años, la creciente disponibilidad de conjuntos de datos masivos que miden las variables de producción a nivel de planta, así como las ventas minoristas de productos a nivel de transacción, han hecho posible observar directamente los tipos de procesos competitivos a nivel micro que, en el pasado, entraron en los modelos de los economistas sólo en forma de supuestos supuestamente “plausibles” (es decir, conjeturas acordadas profesionalmente).

Estos datos rechazan consistentemente la imagen de competencia implacable de precios descrita en la teoría de Shaikh (y en la de Brenner), en la que las empresas compiten principalmente tratando de vender el mismo producto que sus competidores pero más barato.

Más que el precio, la dimensión principal de la lucha competitiva es lo que un importante artículo de esta literatura llamó “demanda idiosincrásica” y lo que otros llaman “atractivo del producto”: el número de unidades de un producto que una empresa puede vender a un precio determinado .

Un estudio de 2014 ampliamente citado analizó datos de ventas a nivel de transacciones de casi medio millón de productos producidos por más de cincuenta mil empresas. “Nuestros resultados”, concluyeron los autores, “apuntan a las diferencias en la demanda (que podrían surgir de la variación de la calidad o el sabor) como la razón principal por la que algunas empresas tienen éxito en el mercado y otras no”.

El atractivo del producto representa entre el 50 y el 70 por ciento de la variación en el tamaño de la empresa en un momento dado; menos del 25 por ciento se debe a diferencias de precio o costo. Cuando los autores observaron los cambios a lo largo del tiempo, “los resultados se vuelven aún más claros”, escriben. “Prácticamente todo el crecimiento de las empresas puede atribuirse a su atractivo”.

La historia es la misma incluso en industrias que producen productos aparentemente estandarizados, como cajas de cartón corrugado y concreto premezclado. Un artículo fundamental de 2011 elaborado por economistas de la Oficina del Censo y la Universidad de Chicago estudió datos censales detallados a nivel de planta sobre la producción y los precios en miles de fábricas individuales precisamente en esas industrias. Ellos también encontraron una variación notablemente amplia y persistente entre diferentes plantas en los niveles de demanda idiosincrásica. Y estas diferencias resultaron ser predictores mucho más fuertes de la supervivencia y el crecimiento de las empresas que la superioridad en costos o precios.

“Un aumento de una desviación estándar en los shocks de demanda representa una disminución en la probabilidad de salida que es de 3 a 4 veces mayor que la disminución en la probabilidad de salida de una desviación estándar en la productividad física”, escriben los autores. “Es difícil evitar la interpretación de que los efectos de la demanda son un determinante predominante de la supervivencia”.

Shaikh resumió una vez elegantemente la imagen de Marx de la competencia capitalista como una lucha en dos frentes: una lucha contra los trabajadores para reducir los costos, en la que el arma predominante es la mecanización; y una lucha contra empresas competidoras por participación de mercado, en la que el arma dominante es la reducción de precios.

Cada uno de estos procesos tiende a reducir la tasa de ganancia: el primero al elevar el nivel de intensidad de capital; este último reduciendo la participación en las ganancias.

Sin embargo, la nueva investigación basada en microdatos confirma la centralidad de lo que podríamos llamar un tercer frente: la lucha contra la competencia misma, en la que el arma preferida es la diferenciación de productos. La diferenciación de productos desacopla el éxito competitivo del costo y el precio, permitiendo al capital trazar un camino alternativo que preserve las ganancias a través del laberinto de la competencia.

La teoría de Schrödinger

Cualesquiera que sean sus defectos, la teoría de la caída de la tasa de beneficio de Shaikh surge de un rico marco conceptual que abre numerosas vías para la reflexión teórica. En comparación, la teoría de Brenner nos da mucho menos en qué pensar.

Superficialmente, la ya conocida explicación de Brenner parece sencilla: gracias a una avalancha de posguerra de productores de menores costos que ingresaron a las industrias manufactureras globales, surgió un problema de exceso crónico de capacidad que hizo bajar los precios de las manufacturas y, por lo tanto, las tasas de ganancia generales. La consiguiente deficiencia de rentabilidad provocó una baja inversión y un crecimiento estancado.

Pero como ha señalado una larga lista de críticos –incluido Shaikh en su reseña de The Economics of Global Turbulence de Brenner , publicada en una edición de 2000 de Historical Materialism– una caída de los precios en un sector de la economía (el manufacturero en este caso) no debería No tiene ningún efecto particular sobre la tasa de ganancia general, porque los precios de producción de un sector son los precios de los insumos de todos los demás sectores.

Brenner era perfectamente consciente de esto cuando escribió La economía de la turbulencia global . Así que incluyó un argumento alternativo: ¿Quizás, como subproducto de la caída de los precios resultante del exceso de competencia, los salarios reales aumentaron, y esto fue lo que causó la caída de la tasa de ganancia?

Esta línea de argumentación parecería convertir la teoría de Brenner en una teoría de la compresión salarial. Brenner, sin embargo, es un crítico vehemente de las teorías de la compresión salarial, insistiendo (correctamente) en que la participación salarial no aumentó lo suficiente en las décadas de 1960 y 1970 para explicar la magnitud de la caída observada en la tasa de ganancia.

Así, más adelante en La economía de la turbulencia global , vuelve a su teoría original de que la caída de los precios en un sector provocó una caída general de la tasa de ganancia, aunque, en otras partes del texto, reconoce que eso no es posible.

Por lo tanto, cuando se trata de las causas últimas del “estancamiento”, el argumento de Brenner es una especie de gato de Schrödinger de las teorías de la crisis: es una teoría del exceso de competencia cuando se mira y una teoría de la contracción salarial cuando no se mira. . Al igual que el gato, ninguno de los dos sobrevive al escrutinio.

(Shaikh no fue el único que juzgó que la monografía de Brenner era “difícil de leer” porque “los argumentos involucrados aparecen en diferentes secciones, a veces son más implícitos que explícitos y pueden ser contradictorios”).

Hay otros problemas a nivel teórico. La teoría de Brenner carece de un mecanismo lógicamente creíble que vincule la baja rentabilidad con el estancamiento. Por un lado, sugiere que la causa del estancamiento es la inversión insuficiente debido a las bajas tasas de beneficio. Pero al mismo tiempo, afirma que las bajas tasas de beneficio se deben a la sobreinversión. Se podría pensar que años de subinversión acabarían eliminando el exceso de capacidad o, alternativamente, que una sobreinversión interminable sería incompatible con el estancamiento. Pero en la teoría de Brenner siempre hay de alguna manera una sequía de inversión en toda la economía junto con un continuo exceso de capacidad.

Puede ser tentador suponer que hay algún argumento sutil aquí: tal vez una sequía de inversión en algunos sectores junto con un exceso de capacidad en otros; o tal vez ciclos secuenciales de escasez y exceso. Pero ninguna de estas cosas podría explicar un estancamiento que es a la vez crónico y continuo y que afecta a toda la economía.

Creo que la explicación más probable es la más simple: el argumento de Brenner simplemente contiene un error de razonamiento. O, si se prefiere, contiene una tensión no resuelta entre tener el pastel y comerlo también.

Estancamiento creciente

Sin embargo, los problemas más serios de la tesis son empíricos, no teóricos. Parte de la dificultad de abordar la teoría de Brenner es que es difícil precisar de qué se trata . Brenner lo presenta como una explicación de los orígenes del “estancamiento” global, pero sin, hasta donde yo sé, definir jamás lo que se considera estancamiento. Sin embargo, según el significado simple de la palabra, es difícil ver cómo la economía global posterior a 1973 puede calificarse de estancada.

Sin duda, desde 1973 las tasas de crecimiento excepcionalmente altas de la posguerra, lo que Brenner llama “el largo auge”, no se han repetido. Y durante los quince años transcurridos desde el estallido de la Gran Recesión, los países más ricos han experimentado, en promedio, tasas de crecimiento inusualmente lentas.

Pero calificar el período posterior a 1973 como un período de “estancamiento cada vez mayor” para la economía global en su conjunto, en el que “algunos países… . . sólo pueden lograr una recuperación a expensas de otros países” (como lo expresó Aaron Benanav en su reciente defensa de la tesis de Brenner en New Left Review ) es simplemente incorrecto.

El siguiente gráfico muestra la tasa de crecimiento del PIB per cápita desde 1870 para los setenta países que tienen datos que se remontan a esa fecha en la base de datos del Proyecto Maddison, la fuente estándar para este tipo de estadísticas. Dado que estos países representan actualmente alrededor del 83 por ciento del PIB mundial y tienen una población combinada de 5.600 millones de personas, el gráfico puede tomarse como una aproximación cercana a la tasa de crecimiento “mundial”.

Las cifras muestran que en el transcurso de la llamada larga recesión (de 1973 a 2018, el último año del conjunto de datos), la tasa de crecimiento mundial per cápita anual promedio ha sido del 2,53 por ciento, muy por encima tanto del promedio histórico (2 por ciento ) y tasas de crecimiento medianas (2,16 por ciento) para los aproximadamente cien períodos (superpuestos) de cuarenta y cinco años en este período de tiempo. Y esto a pesar de que el período en cuestión abarcó la peor crisis financiera desde la Gran Depresión y sus secuelas.

Mientras tanto, el llamado auge largo (1948 a 1973) registró la tasa de crecimiento más alta de cualquier período de veinticinco años en la historia del capitalismo posterior a 1870 (3,51 por ciento), lo que lo convierte en un punto de referencia particularmente inadecuado para la comparación.

La caída de la tasa de beneficio: ¿un espejismo estadístico?

El segundo problema empírico básico de la teoría de la tasa de ganancia decreciente de Brenner tiene que ver con la propia tasa de ganancia decreciente, cuya existencia resulta igualmente cuestionable.

La tasa de ganancia es inherentemente difícil de medir. El problema no es tanto medir las ganancias, aunque esto presenta una serie de desafíos en materia de datos. Más bien, es el denominador, el capital social, lo que plantea un problema grave. (Shaikh dedica una fracción considerable de las casi 150 páginas de apéndices técnicos de Capitalismo: competencia, conflicto y crisis a los problemas de la medición del stock de capital.)

Se supone que el capital social representa la suma, en términos monetarios, de todas las inversiones físicas pasadas (edificios, equipos, software, etc.) menos la suma de toda la depreciación pasada de esas inversiones debido al desgaste o la obsolescencia. (Existen más complicaciones relacionadas con los precios actuales versus los precios históricos, pero las dejaré de lado).

El flujo anual de gasto en inversión es relativamente sencillo de medir, pero no se puede decir lo mismo de la depreciación. En Estados Unidos, la desagradable verdad es que todas las medidas oficiales del stock de capital se han basado, durante años, en un único conjunto de estimaciones de las tasas de depreciación de los activos producidas por dos académicos, Frank C. Wykoff y Charles R. Hulten, con más de cuarenta años de experiencia. hace años que.

Este es un problema grave, porque incluso pequeños cambios en la vida útil de los activos pueden tener un enorme impacto en el stock de capital medido: cuanto más larga es la vida útil del activo de capital promedio, más años de inversión acumulada están incorporados en el stock de capital en en un momento dado y, por tanto, menor será la tasa de ganancia medida.

Da la casualidad de que una nueva investigación publicada por separado por la Oficina de Estadísticas Laborales (BLS) y la Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha confirmado sospechas de larga data sobre incluso la exactitud aproximada de las estimaciones oficiales del stock de capital.

Un documento de la OCDE sobre medición de la depreciación publicado en enero pasado señala que “las agencias estadísticas de diferentes países tienden a utilizar supuestos muy diferentes con respecto a la depreciación y el retiro de activos”, y que las estimaciones de “los patrones de depreciación y retiro tienden a basarse en evidencia empírica escasa”. o investigaciones antiguas”.

Luego compara sistemáticamente los métodos utilizados para estimar los stocks de capital en Estados Unidos, Canadá, el Reino Unido, Francia, Alemania e Italia, y concluye que en los cinco países no estadounidenses, las estimaciones de depreciación son “más altas, o mucho más altas, que las los que se utilizan en los Estados Unidos”. La adopción de métodos estadísticos de otros países “reduciría la tasa de inversión neta y el stock de capital neto del sector privado estadounidense hasta en un tercio”, lo que, por supuesto, tendría un gran efecto al alza en las tasas de ganancia medidas.

Cuán grande fue demostrado por un equipo de economistas investigadores del BLS y la Oficina de Análisis Económico (las dos agencias que producen conjuntamente las estadísticas oficiales sobre el stock de capital de Estados Unidos) en un artículo publicado el año pasado en la Monthly Labor Review del BLS .

Los autores buscaron en Canadá información sobre cómo medir la depreciación. Las medidas del stock de capital canadiense se consideran particularmente confiables gracias a una encuesta obligatoria de empresas realizada anualmente desde mediados de la década de 1980 por Statistics Canada, que recopila información sobre tasas de desgaste, obsolescencia, patrones de retiro de activos, valores de reventa, etc. . Evidentemente, se trata de un método superior al uso de un puñado de estudios de hace cuarenta años.

Los investigadores querían ver qué pasaría con el stock de capital estadounidense medido si las cifras canadienses de vida de los activos se aplicaran a los datos estadounidenses, por lo que construyeron dos estimaciones de series temporales alternativas de las tasas de depreciación estadounidenses sobre la base de las cifras canadienses.

La diferencia que esto supone en la tasa de beneficio sólo puede describirse como enorme. Mientras que la tasa de ganancia neta para el sector empresarial implícita en las estimaciones publicadas del stock de capital estadounidense se estanca en el rango de 18 a 20 por ciento durante todo el período desde 1985, las estimaciones alternativas que utilizan patrones de depreciación canadienses muestran que las tasas de ganancia estadounidenses se duplican, o casi: suben del 16 al 20 por ciento . por ciento a finales de la década de 1980 al 28 por ciento o 32 por ciento en los años previos a la pandemia.

La falta de confiabilidad de las tasas de depreciación medidas plantea un problema importante para las teorías del desempeño económico basadas en la premisa de la caída de las tasas de ganancia porque, como resulta, la disminución de las tasas de ganancia medidas desde la década de 1960 es enteramente atribuible a cambios en la depreciación medida .

Una forma sencilla de demostrar esto es observar los datos presentados en el World Profitability Dashboard, una herramienta interactiva en línea mantenida por un equipo de economistas marxistas liderados por Deepankar Basu de la Universidad de Massachusetts, basándose en su conjunto de datos sobre tasas de ganancia en docenas de países. países. El gráfico de marquesina que aparece en la página de inicio del panel muestra la tasa de ganancia “mundial” aparentemente en caída: la tasa de ganancia promedio de los veinticinco países para los cuales el conjunto de datos contiene datos continuos desde 1960.

Así es como se ve el gráfico del sitio web:

Para mostrar el impacto de las tendencias de depreciación (medidas) en esta aparente trayectoria descendente, he separado la tasa de ganancia en dos componentes: lo que podríamos llamar la tasa de ganancia “no depreciada”, que es simplemente la relación entre la ganancia bruta anual y la ganancia bruta anual. inversión; y un “factor de depreciación”, la relación entre la inversión bruta anual y el stock de capital medido. La tasa de ganancia es, por definición, el producto de estos dos números.

Entre 1960-73 y 1973-2019, la “tasa de ganancia mundial” mostrada por el World Profitability Dashboard cayó una cuarta parte (de un promedio de 9,9 por ciento a un promedio de 7,2 por ciento), pero esto se produjo a pesar de una caída de casi un quinto aumento en la tasa de beneficio “no depreciada” (es decir, la relación beneficio-inversión, que aumentó de 0,99 a 1,16). La razón de la caída fue una disminución de casi el 40 por ciento en el factor de depreciación.

Este no es un tecnicismo arcano. Se supone que la caída de las tasas de ganancia indica que la inversión se está volviendo cada vez menos remunerativa: que cada dólar de inversión genera cada vez menos ganancias por valor de dólares. Pero los datos muestran muy claramente que eso simplemente no está sucediendo: la relación entre ganancias actuales e inversiones actuales ha estado aumentando, no disminuyendo.

(El conjunto de datos de Basu incluye los sectores gubernamental y residencial en sus datos de inversión, pero el siguiente gráfico, basado en datos de Eurostat, demuestra que el patrón básico se mantiene cuando se excluyen esos sectores, al menos para los cuatro principales países para los cuales existen dichos datos. hasta 1960.)

Fallos de coordinación

“Debería ser evidente”, dice Brenner, “por qué, para los revolucionarios, depende tanto de su afirmación de que los períodos prolongados de crisis son inherentes al capitalismo”. Su argumento se puede resumir en tres pasos: (1) las crisis son causadas por la naturaleza anárquica y no planificada del capitalismo; (2) por lo tanto, “los gobiernos no pueden prevenir las crisis”; (3) la incapacidad de los gobiernos para prevenir crisis da una razón fundamental a la política revolucionaria.

Pero las crisis capitalistas no pueden deberse a la mera ausencia de planificación. Las sociedades precapitalistas también carecían de planificación y, sin embargo (como observó Engels en Anti-Dühring ) , no tuvieron crisis. Una crisis es una falta de coordinación entre las innumerables unidades individuales de una economía: hogares, empresas, señoríos, etc. Las economías precapitalistas no sufrieron crisis porque tenían una división del trabajo demasiado limitada como para requerir mucha coordinación en primer lugar.

De esto se desprende que cualquier análisis adecuado de la crisis capitalista moderna debe partir, no de la ausencia de planificación, sino de la existencia de una división del trabajo muy extendida. Con una división del trabajo muy extendida, las actividades de millones o miles de millones de personas deben coordinarse minuciosamente y cualquier cosa que perturbe esta intrincada coordinación perjudica los engranajes de la producción.

Es la división ampliada del trabajo lo que explica la susceptibilidad de todas las economías modernas (tanto las capitalistas como las de planificación centralizada) a fallas de coordinación y, por ende, a crisis de diferentes tipos. Bajo el capitalismo, esos fracasos toman la forma de déficits de demanda efectiva, que causan desempleo. Bajo el socialismo de planificación centralizada, tomaron la forma de desproporciones al estilo Hilferding entre las diferentes ramas de la industria, lo que provocó una escasez endémica. (La escasez, a su vez, provocó un desempleo encubierto en forma de tiempo de inactividad en los talleres: “holgura improductiva” en la terminología de János Kornai.)

Brenner tiene razón al ver una conexión entre la recurrencia de “períodos prolongados de crisis” y la perspectiva de una transformación sistémica del modo de producción. Pero se equivoca al ver esto como parte del argumento a favor del socialismo. Históricamente, la conexión sólo se ha desarrollado en la dirección “equivocada”: períodos prolongados de crisis económica han llevado a transiciones del socialismo al capitalismo, pero nunca, hasta ahora, del capitalismo al socialismo.

En la década de 1890, el inicio “repentino y dramático” de un período de “opulencia basada en negocios en auge” (como Eric Hobsbawm caracterizó la Belle Époque anterior a la Primera Guerra Mundial en The Age of Empire) hizo “ evidente que aquellos que habían hecho Los sombríos pronósticos sobre el futuro del capitalismo, o incluso sobre su inminente colapso, habían sido equivocados”. La controversia revisionista –la primera gran crisis intelectual del marxismo– fue un resultado directo del inesperado retorno a la vitalidad del sistema.

Y, sin embargo, este mismo año, Benanav, en su defensa de la tesis de Brenner en New Left Review , profetizó que “cualesquiera que sean los altibajos que experimente a lo largo del camino, el capitalismo parece estar perdiendo fuerza”. De hecho, la esperanza es eterna: la tasa de crecimiento mundial en los años “de auge” de la Belle Époque promedió 1,4 por ciento. En la llamada crisis prolongada que comenzó en 1973, esa cifra fue del 2,5 por ciento.

Seth Ackerman es editor de Jacobin .

Visitas: 9

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

RSS
Follow by Email