Artículos y comentarios sobre la Economía Mexicana
Header

El INEGI dio a conocer el viernes, 14 de agosto, los resultados de la Encuesta Nacional de Ocupación y Empleo (ENOE) al segundo trimestre de 2015. La ENOE tiene entregas mensuales, donde se reportan las tasas de desempleo, participación laboral y algunas tasas laborales complementarias. También tiene entregas trimestrales, con mayor desglose e información. En la entrega trimestral, se traducen las tasas a número de personas mediante las proyecciones demográficas del CONAPO. Esto último permite calcular tasas adicionales que enriquecen el análisis del mercado laboral, como la brecha laboral. También incluye la publicación de datos estratégicos que permiten calcular el ingreso promedio de los trabajadores.

La Brecha Laboral

Recientemente, el Buro Nacional de Investigación Económica (NBER) de Estados Unidos publicó un artículo escrito por David Blanchflower y Andrew Levin sobre la atonía del mercado laboral y sus implicaciones para la política monetaria. En el artículo, los autores desarrollan un concepto más amplio que la tasa de desempleo abierto para caracterizar lo que llaman la “brecha laboral”. El concepto proviene de la Conferencia Internacional de Estadísticos del Trabajo (CIET) que se efectuó en Suiza en octubre de 2013. Básicamente consiste en sumar el desempleo abierto, el subempleo (los que trabajan menos horas por razones de mercado) y el desempleo disfrazado (los no ocupados disponibles para trabajar pero que no buscan activamente empleo). Concluyen que es un concepto más robusto para medir la insuficiencia de trabajo en el mercado laboral, ya que no solamente incluye el desempleo abierto, sino los que se consideran desempleados desde otra perspectiva: el subempleo, que son las personas que no encuentran un empleo de tiempo completo, y; el desempleo disfrazado, que son las personas que están clasificados como parte de la Población No Económicamente Activo (PNEA) porque no buscan activamente un empleo, pero que quieren trabajar. Estos últimos también se les conoce como desempleados frustrados, que pudieron haber buscado trabajo en forma activa en un momento dado, pero al no conseguirlo, su búsqueda se volvió pasivo. Para muchos analistas, estos últimos son tan desempleados como los que activamente buscan trabajo.

La ENOE reporta 2.288 millones de desempleados en el segundo trimestre de 2015, 4.179 millones de subempleados y 5.884 millones de desempleados disfrazados. La tasa de desempleo abierto del segundo trimestre de 2015 fue 4.35 por ciento, la tasa de subempleo fue 8.30 por ciento y la tasa de desempleo disfrazado (o desempleo pasivo) fue 16.54 por ciento. Si sumáramos los tres porcentajes obtendríamos 29.19 por ciento, sin embargo, no son tasas que se puedan sumar ya que cada una tiene un denominador diferente. La tasa de desempleo es el porcentaje de la Población Económicamente Activa (PEA) que no tiene ocupación; la tasa de subempleo es la parte de la Población Ocupada (PO) que trabaja menos horas a la semana; mientras que la tasa de desempleo disfrazado es la parte proporcional de la Población No Económicamente Activa (PNEA) que está disponible para trabajar.

Para sumar los tres componentes tenemos que partir de un denominador común, que sería la Fuerza Laboral Potencial (FLP), que incluye no sólo la PEA sino también la PNEA Disponible (PNEAD). Mientras que la PEA representa 59.67 por ciento de la población en edad de trabajar (15 años y mayores), la FLP abarca 66.34 por ciento, es decir, la FLP es mayor a la PEA normal, ya que le agregamos 6.67 por ciento más de la población en edad de trabajar que es económicamente pasiva pero disponible para laborar. Las tres tasas, ahora todas expresadas como porcentaje de la FLP son 3.91 por ciento (desempleo activo), 7.14 por ciento (subempleo) y 10.06 por ciento (desempleo pasivo), lo que ahora sí da una tasa de 21.11 por ciento, lo que podemos llamar la brecha laboral. En términos muy generales, vemos que alrededor de 18.5 por ciento de la brecha laboral lo constituye el desempleo tradicional, 33.8 por ciento el subempleo (cerca de una tercera parte) y 47.6 por ciento el desempleo disfrazado (casi la mitad).

Si tomamos mediados de 2009 como el momento en que arranca la recuperación posterior a la gran recesión de 2008-2009, encontramos que la brecha laboral muestra una tendencia a la baja de 0.09 por ciento por trimestre (a partir de 23.3 por ciento en el tercer trimestre de 2009). Los componentes de desempleo, tanto activo como pasivo, disminuyen 0.03 por ciento por periodo (arrancando de 4.95 por ciento y 10.84 por ciento, respectivamente), mientras que el subempleo cae 0.02 puntos porcentuales por trimestre (desde 7.47 por ciento). Si nos concentramos nada más en el último trimestre, observamos que mientras aumenta el desempleo abierto y el subempleo, disminuye el desempleo disfrazado, pero dado que aumenta la fuerza laboral potencial, la brecha laboral registra una tasa de 21.11 por ciento, prácticamente igual al del trimestre anterior de 21.10 por ciento.

El concepto de la fuerza laboral potencial es interesante, ya que excluye la condición de que una persona sin trabajo tiene que estar activamente en búsqueda de un empleo para considerarla como “desempleado”. Aunque no todos, pero una buena parte de la PNEA disponible para trabajar son personas que quizás en un momento buscaron trabajo pero al no encontrarlo dejaron su búsqueda (desmotivados o frustrados), o bien, personas con discapacidad (o capacidades diferentes como ahora se estila decir) que no buscan en forma activa una oportunidad porque piensan que simplemente no existen posibilidades de encontrar algún empleo que se adapte a sus necesidades.

La brecha laboral también es una noción útil, aunque habría que ajustar el componente del subempleo para solo integrar las horas a la semana que no trabajan (por razones de mercado). No se le puede dar el mismo peso a un desempleado abierto (cero horas de trabajo a la semana) a una persona que labora 30 horas, o bien a otro que se ocupa por 10. También habría que considerar una distinción para las personas que viven del autoconsumo o subsistencia agrícola, ya que realmente no participan en el mercado laboral (ni como empleado ni como desempleado).

El Ingreso Promedio

La ENOE también permite construir un indicador del ingreso promedio real mediante los indicadores estratégicos que se publican en la entrega trimestral. La Encuesta nos da el promedio de horas trabajadas a la semana y el ingreso promedio por hora trabajada. Multiplicamos ambos y lo deflactamos por el INPC para obtener una medida del ingreso promedio real. Posteriormente, podemos multiplicar este indicador por la población ocupada remunerada (PO) para obtener una medida de la masa salarial, que puede ayudar a entender el avance del consumo de los hogares.

El ingreso promedio real llegó a su máximo a mediados de 2007, justo cuando la economía empezó a desacelerarse en anticipación a la gran recesión de 2008-2009. Como era de esperarse, disminuyó significativamente en los años de la recesión para estabilizarse en 2010. Sin embargo, no creció en 2011 y 2012, sino más bien presentó una tendencia lateral en estos años. En 2013 y 2014, cuando la actividad económica se desaceleró, el ingreso promedio real volvió a presentar una tendencia a la baja. Finalmente, tocó fondo en el último trimestre de 2014, en un nivel que representó una disminución de -20.1 por ciento respecto al segundo trimestre de 2007. Afortunadamente, se ha registrado una tendencia hacia la recuperación en los dos primeros trimestres de 2015, con crecimientos de 2.69 y 0.65 por ciento en cada periodo respectivamente.

El empleo remunerado ha registrado una tendencia alcista continua desde 2010, aunque con una pendiente mucho menos pronunciado en 2013 y 2014. No obstante, a partir del primer trimestre de 2015 vuelve a crecer a un ritmo mayor, con tasas de 0.45 y 0.63 por ciento en el primer y segundo trimestre, respectivamente. Si multiplicamos el empleo por el ingreso, encontramos que la masa salarial presenta una mejoría importante en los dos primeros trimestres de 2015, que en buena medida explica la mejoría observada en la mayoría de los indicadores relacionados con el consumo familiar.

A raíz de la gran recesión de 2008-2009, la tasa de desempleo urbano en México llegó a registrar un máximo de 7.6 por ciento en julio de 2009. A mediados de ese año empezó la recuperación y la tasa disminuyó paulatinamente hasta llegar cerca de 6.0 por ciento a principios de 2011. No obstante, a partir de entonces habíamos observado una tendencia lateral, alrededor de 5.9 por ciento, que duró aproximadamente 44 meses (de enero 2011 a agosto 2014). El crecimiento económico de los últimos cuatro años simplemente no fue lo suficiente para disminuir el desempleo.

Sin embargo, los últimos datos de la Encuesta Nacional de Ocupación y Empleo (ENOE) muestran que el comportamiento ha cambiado. A partir de septiembre de 2014, vemos una clara tendencia a la baja; en marzo de 2015 la serie de tendencia-ciclo llegó a 5.1 por ciento, un punto porcentual completo por debajo del nivel registrado apenas hace nueve meses. En la serie normal (ajustada por estacionalidad), vimos una primera disminución significativa en noviembre cuando llegó a 5.3 por ciento (de 5.8 por ciento en octubre) y después una baja adicional en diciembre a 5.0 por ciento.

En un principio, la tasa de diciembre parecía ser un “outlier” (aberración estadística), típico de la alta varianza de los datos de la ENOE, por lo que esperábamos que subiera de nuevo en enero cerca de su tendencia. Aunque sí aumentó en enero y de nuevo en febrero, los incrementos no fueron realmente tan significativos (5.1 y 5.3 por ciento, respectivamente). Más aun, en marzo se registró una nueva disminución a 5.0 por ciento, la tasa más baja que se ha observado desde octubre 2008 (de los últimos 77 meses). Ya podemos afirmar que estamos ante una mejoría indiscutible y lo que corresponde ahora es preguntarnos por qué y qué implicaciones tiene.

En paralelo a esta convalecencia laboral, hemos visto a partir de enero de este año un incremento importante en el consumo de los hogares. Los primeros indicadores en señalar la mejoría fueron las ventas a tiendas totales de la ANTAD y las ventas internas de automóviles de la AMIA (para enero, febrero y marzo). En seguida el INEGI reportó la mejoría comentada en el desempleo (en los primeros tres meses del año) y un repunte en las exportaciones no petroleras (a partir de marzo). Posteriormente, el INEGI señaló aumentos en las ventas al por menor (para enero y febrero) y en el consumo privado interno de la economía (para enero). Estos datos duros, aunado a una mejoría en los índices que produce la Encuesta Nacional de Confianza del Consumidor (ENCO), muestran claramente que el consumo familiar empieza a recuperarse después de dos años de estancamiento.

Hace un mes cuando veíamos las primeras indicaciones de esta mejoría, vertimos algunas hipótesis. La primera es que estamos sintiendo los efectos del gasto electoral en miras a las elecciones de mitad de sexenio de junio. No parece ser el caso, ya que los efectos positivos se empezaron a sentir mucho antes de lo que pudiera ser un mayor gasto público. Una segunda es que existe una demanda reprimida que se empieza a satisfacer. Sin embargo, sin la contrapuesta de una mejoría en el ingreso, no parece ser una explicación satisfactoria. Finalmente, tenemos que el incremento observado en la inversión privada empieza a tener efectos positivos en la generación de empleo, una mejoría en las perspectivas de ingreso y aumentos en el consumo. Ojalá que esta última sea la hipótesis con mayor peso, ya que tiene las mejores implicaciones para el crecimiento económico de aquí en adelante. Simplemente veamos el último dato de la importación de bienes de capital, que en marzo crecieron 13.2 por ciento respecto al año pasado.

Si bien es cierto que el dato del IGAE de febrero no fue tan bueno, la mayoría de los indicadores que giran alrededor de las actividades terciarias empiezan a dar señales de mejoría. Obviamente necesitamos más datos, pero por lo pronto parece que las perspectivas pudieran mejorar por primera vez en lo que va el sexenio.

Directo o Indirecto

Abril 24th, 2015 | Posted by Jonathan Heath in Arena Publica - (0 Comments)

El jueves 23 de abril, nos dijo el INEGI que las actividades terciarias crecieron en febrero apenas 0.04 por ciento respecto al mes anterior. En especial, el comercio tuvo un desempeño negativo de -0.43 por ciento. Fue una sorpresa, ya que las cifras de la AMIA y la ANTAD para el mismo mes habían sido muy buenas y existe cierta evidencia de una recuperación en el consumo de los hogares en el primer trimestre del año. El sentir se confirmó al día siguiente (viernes 24), cuando el INEGI reportó que los ingresos obtenidos por las empresas comerciales al por menor por el suministro de bienes y servicios (antes conocido como ventas al por menor) aumentó 0.5 por ciento (y a tasa anual 5.5 por ciento). También reportó que las ventas al por mayor crecieron 1.3 por ciento y los ingresos por la prestación de servicios privados no financieros aumentaron 0.6 por ciento.

A primera vista, resulta difícil reconciliar que el comercio al por menor crece 0.5 por ciento y al por mayor 1.3 por ciento, pero el total del comercio disminuye -0.43 por ciento. En teoría, el INEGI desglosa la actividad económica (PIB) en 20 sectores, lo que el Sistema de Clasificación Industrial de Norte América (SCIAN) llama la desagregación a dos dígitos. Sin embargo, en la práctica solo reporta 19 sectores, ya que el Comercio al por mayor (43) y el comercio al por menor (46) los reportan juntos como Comercio (43-46). La razón es que hay una parte relativamente importante del comercio que el INEGI no puede distinguir si pertenece al sector 43 o al 46. ¿Cuál es? Básicamente, es el comercio informal que imputa el Instituto mediante técnicas que realmente ignoramos.

La Encuesta Nacional de Empresas Comerciales (ENEC) tiene una cobertura del 87.9 por ciento de las empresas que comercian al por mayor en 18 ramas, mientras que la cobertura es del 99.4 por ciento de las que comercian al por menor en 22 ramas. Sin embargo, la encuesta abarca las empresas formalmente constituidas, lo que significa que no incluye el comercio informal, que intuitivamente sabemos que deber ser una porción significante del total. Cuando el INEGI realiza el cálculo del comercio, que forma parte de las actividades terciarias y del PIB, incorpora parte del comercio informal mediante el consumo aparente y otros métodos indirectos, por lo que el crecimiento que reporta la ENEC no necesariamente corresponde al que forma parte de las cuentas nacionales. En este cálculo, el INEGI no logra distinguir que parte le corresponde al sector 43 y que parte al 46, por lo que termina reportando el comercio como un todo (43-46). Esto nos lleva a una primera conciliación de cifras aparentemente contradictorias: mientras que el comercio formal tuvo un buen desempeño en febrero, la parte informal habrá disminuido.

Sin embargo, existe otro problema con las cifras del INEGI relacionado con las series estacionales. El INEGI ajusta todos sus indicadores directamente, es decir, realiza los cálculos correspondientes en la totalidad y en cada uno de sus componentes por separado. La alternativa sería hacer los ajustes en los componentes solamente y después mediante una suma ponderada, obtener el total. En principio, sonaría más lógico realizar el ajuste por el método indirecto, ya que así aseguraría siempre que la suma de las partes es igual al total. Pero el INEGI prefiere realizar el ajuste directo en el total, aun sabiendo que no va corresponder con la suma de las partes. Por ejemplo, para febrero el INEGI reportó que las actividades primarias disminuyeron -5.06 por ciento, las secundarias aumentaron 0.21 por ciento y las terciarias 0.04 por ciento. Dado que las actividades primarias tienen una ponderación muy pequeña en la economía en su conjunto, deberíamos esperar que el total tuviera una tasa positiva. No obstante, el INEGI reportó que el IGAE disminuyó -0.03 por ciento. Existe una muy obvia inconsistencia entre el crecimiento de las partes y el total.

Dado que no contamos con las ponderaciones exactas de cada uno de los sectores que reportó el INEGI para las actividades terciarias, no conocemos la discrepancia que pudiera existir entre el crecimiento de cada una de las ocho agrupaciones que tiene el IGAE terciario y la tasa total de 0.04 por ciento. Sin embargo, es un hecho de que la suma ponderada de las partes no corresponde al total. ¿Es malo esta inconsistencia? No solo es en esta ocasión; hay amplia evidencia y ejemplos con la mayoría de los indicadores reportados cada mes.

Existe un debate continuo entre los pros y contras de los dos métodos, no solo en México sino a nivel mundial. Uno de los defensores del método indirecto en nuestro país es Jesús Cervantes, actualmente investigador en el Centro de Estudios Monetarios de Latinoamericanos (CEMLA). Cervantes tiene mucha experiencia en la materia, ya que tuvo a su cargo por mucho tiempo la Dirección de Medición Económica en el Banco de México. Él argumenta que la posición del INEGI discrepa de la práctica en los países avanzados. Por ejemplo, si se revisan los datos desestacionalizados de PIB de Estados Unidos se observa que el total lo sacan por suma de componentes, es decir, por el método indirecto. Lo mismo pasa en los países europeos. Cervantes sustenta su argumento mediante un curso que impartió el Bundesbank en diciembre del año pasado en el CEMLA de una semana de tiempo completo sobre ajustes estacionales. El curso se llamó “X-13 ARIMA-SEATS-Seasonal Adjustment of Economic Data”, mismo que fue tomado por un buen número de los técnicos del INEGI del área que desestacionaliza. En el curso uno de los dos instructores del Departamento de Estadísticas del Bundesbank comentó que el Banco Central Alemán realiza ajustes estacionales cada mes para aproximadamente 25 mil series y que ninguno de los agregados se hacía por el método directo.

Sin escucha el otro lado del debate, cualquier usuario de los indicadores del INEGI tendría que estar convencido de que el Instituto hace mal en emplear el método directo. Simplemente, la incongruencia aditiva no solo es confusa, sino que impide un buen análisis de la coyuntura. Mi propia experiencia en esta materia es algo frustrante.

No obstante, el INEGI se defiende. Blanca Rosa Sainz, la titular de la Dirección de Estudios Econométricos y encargada de supervisar los ajustes estacionales del INEGI, y Gerardo Leyva, el Director General Adjunto de Investigación del INEGI, han sido muy persuasivos en su posición. Lo primero que subrayan es no existe una recomendación internacional emitida por el FMI o algún otro organismo similar que diga cuál de los dos métodos se debería aplicar. Al contrario, dado que no existen argumentos devastadoras de un lado del debate o el otro, la recomendación internacional es que cada país escoja el método que más convenga.

Aunque si bien es cierto que el método indirecto puede otorgar una consistencia entre el todo y los componentes de un indicador, el proceso depende del nivel de agregación de los componentes. Para tener una consistencia perfecta en cuanto a las sumas del PIB, el INEGI tendría que aplicar ajustes estacionales a las 1,049 clases (seis dígitos) de la actividad económica que reporta cada trimestre. Sin embargo, a nivel mensual solo se reportan las actividades secundarias a nivel subsector (tres dígitos), mientras que el IGAE se presenta a nivel sector (dos dígitos). Esto significa que aun en el caso de que se utilizara el método indirecto, habría inconsistencias entre los diferentes niveles de agregación.

Otro argumento del INEGI es que con el método indirecto se agregan efectos de calendario y outliers (datos aberrantes) que no son sumables, lo que implica un deterioro en los resultados. Desestacionalizar los componentes y luego agregarlos, afecta el comportamiento de la tendencia, que pudiera resulta inconsistente con la trayectoria visual. Si lo que interesa es el comportamiento del agregado, tiene más sentido desestacionalizar directamente, ya que de lo contrario se corre el riesgo de ocultar características propias de la estacionalidad del agregado que son distintas de las de los componentes individuales vistos aisladamente. En otras palabras, aun en el caso de que se pudiera ganar congruencia al sumar los componentes ajustados, se pierde información del agregado.

En este sentido, es importante recordar que el ámbito de la estadística es de por sí imprecisa. Garantizar que cuadre los comportamientos de los componentes y el agregado no viene sin costo. En especial, los comportamientos contradictorios indican que las variaciones en el margen no son tan confiables, cosa que se pierde de vista al obligar la congruencia aditiva. También es importante meterse a las entrañas de los algoritmos que se utilizan para los ajustes, ya que existen problemas matemáticas que también impiden las simples sumas. Si en el proceso del ajuste se hacen transformaciones logarítmicas, sumar no tiene sentido teórico, dado que el logaritmo de suma es distinto a la suma de logaritmos. En una transformación logarítmica, el ajuste estacional implica transformaciones no lineales, que tampoco son sumables. En otras palabras, las series así transformadas no tiene la propiedad aditivita, por lo que finalmente la congruencia aditiva es engañosa.

Al final de cuentas, el INEGI dice que los que privilegian la apariencia de la consistencia aditiva ignoran los argumentos técnicos en detrimento del rigor estadístico. Vamos a darle el beneficio de la duda al INEGI, ya que convencen sus argumentos. No obstante, queda el problema original. ¿Cómo conciliar las cifras si el total dice que disminuye pero todos los componentes aumentan (o viceversa)? Parece ser que nos tenemos de resignar y aceptar (recordar) que la medición estadística no es una ciencia exacta. Cada tasa de crecimiento de cualquier indicador tiene un intervalo de confianza que casi siempre ignoramos. En cambio, preferimos analizar las tasas con por lo menos dos décimas, ya que nos da la ilusión de exactitud.

Confianza del Consumidor

Abril 16th, 2015 | Posted by Jonathan Heath in Arena Publica - (0 Comments)

Eduardo Sojo, Presidente del INEGI, nos dijo hace un par de meses que el Indicador de Confianza del Consumidor está por cambiar su forma de presentación. En breve (aunque no sabemos exactamente cuándo), se empezará a divulgar en su forma original, es decir en una escala de 0 a 100, similar a cómo se presentan los indicadores de confianza empresarial. Esto significa que le quitarán la conversión de enero de 2003 igual a 100, para dejar el nivel del indicador en ese mes en 40.885. Significa que el valor reportado de marzo de 2015 (el último dato con que contamos) de 93.1, será realmente 38.5. Encontraremos que el nivel máximo de agosto 2001 será 47.69 y el mínimo registrado en octubre 2009 será 32.61 puntos. En otras palabras, veremos que el Indicador ha variado entre 32.61 y 47.69 en toda su historia (abril 2001 a la fecha), sin haberse situado nunca por arriba de los 50 puntos. De hecho, el Indicador solo ha rebasado un nivel de 45 puntos en siete ocasiones, cuatro meses en 2001 y tres meses en 2006.
La razón principal de haber impuesto base 100 desde su origen fue que al percatarse la Institución de que nunca había superado el umbral de los 50 puntos (referencia que separa un relativo optimismo del pesimismo), no convenía tener la posibilidad de “cuantificar” el pesimismo permanente de los consumidores mexicanos. Para esto, es importante entender que el umbral de 50 realmente no es una referencia para ver si la confianza es consistente con mayor o menor consumo. Más bien, es cuestión empírica encontrar un nivel en el Indicador que señale cuál pudiera ser ese verdadero umbral. Parece ser que el INEGI ha estimado econométricamente ese punto y en breve lo anunciaran. Nuestra especulación es que ande alrededor de los 38 puntos. Esto significa que si el Indicador registre más de 38 puntos, el consumo de los hogares estará más propenso a crecer, mientras que si se ubica por debajo el consumo podría estancarse o incluso, retroceder.
A diferencia del Indicador de Confianza del Consumidor, el Indicador de Confianza Empresarial se presenta en escala de 0 a 100, sin la imposición de una base 100. En la nota metodológica del boletín de prensa mensual, el INEGI señala que:
“Los indicadores están diseñados para que sus valores fluctúen entre 0 y 100. De esa manera, a medida que el optimismo se generaliza entre los informantes, el valor del indicador se hace mayor. Por otra parte, a medida que el porcentaje de informantes con opiniones pesimistas se incrementa, el valor del indicador disminuirá. Es frecuente que en este tipo de indicadores se utilice el valor de 50 como el umbral para separar el optimismo y el pesimismo; sin embargo, es importante reconocer que la interpretación resulta complicada cuando el porcentaje de respuestas entre el optimismo y pesimismo tiende al equilibrio. En ese caso, considerar el valor de 50 como el umbral ya no resulta lo más correcto, por lo que es frecuente que en los casos en que se tienen series suficientemente largas, la identificación de este umbral se haga de manera econométrica a partir de series desestacionalizadas, mediante la asociación del indicador con cifras duras de la economía.”
Los dos indicadores, tanto del consumidor como el empresarial, realizan las mismas preguntas, tienen las mismas posibles respuestas y se construyen mediante la misma metodología de índices de difusión. Entonces, ¿por qué el INEGI se ha empeñado en poner base 100 a uno y no al otro? Es una inconsistencia difícil de entender, pero parece ser que mientras que el INEGI se preocupó con el bajo nivel del Indicador del Consumidor, no lo estaba con el Empresarial ya que su nivel promedio siempre ya sido mayor. Mientras que el Empresarial ha fluctuado dentro de un rango de 32.6 a 58.4 con un promedio de 52.0 puntos, el del Consumidor se ha movido entre 32.6 y 47.7 con un promedio de 39.8. Otra explicación más simple puede ser que el Empresarial pertenece a la Dirección General de Estadísticas en Establecimientos, mientras que el del Consumidor se construye en otra dirección general, la de Estadísticas en Hogares; diferentes direciiones generales, diferentes criterios a aplicar.
¿Qué ventajas presenta el Indicador con una base 100? Realmente una sola, la de no permitir al usuario utilizar el umbral de 50 puntos como referencia del relativo optimismo o pesimismo. Sin embargo, esta es una razón muy débil por varias razones. Primero, matemáticamente sí es el umbral entre el balance de respuestas optimistas versus pesimistas. Que no lo sea para indicar si el consumo de los hogares (u otro indicador) debería expandirse o retraerse es otra cuestión. Segundo, lo único que tiene que hacer el INEGI es advertir que el uso de los 50 puntos como referencia pudiera tener una “interpretación complicada”, tal como lo hace en el caso del Indicador Empresarial. Finalmente, si al INEGI no le gusta el umbral natural de los 50 puntos, entonces que nos diga cuál sería la referencia econométrica.
Pero, ¿cuáles son las desventajas de dejar al Indicador con su base 100? Aquí sí son muchas. La primera es que es matemáticamente inconsistente. El INEGI convierte a cada una de los cinco subíndices a base 100 y después saca el promedio para presentar el Indicador. Sin embargo, el crecimiento del Indicador con base 100 resulta diferente al Indicador en su versión original. Hace algunos años realicé un ejercicio de comparación y encontré 13 ocasiones en que el INEGI decía que bajaba la confianza cuando realmente había subido y viceversa. Los que no les gustan las matemáticas podrán obviar los siguiente. Pero para los más versados en algebra lineal, sabrán que se puede multiplicar o dividir un vector por un escalar sin modificar el cambio porcentual entre sus componentes; sin embargo, si se divide cinco vectores por escalares diferentes y después se calcula un nuevo vector como promedio de los cinco anteriores, no tendrá las mismas características que si calculamos el sexto vector como promedio de los cinco antes de dividir por sus respectivos escalares.
La segunda desventaja es que al convertir cada subíndice a base 100, ya no se pueden comparar entre sí. Por ejemplo, si comparamos lo que piensan los consumidores de la situación económica del país ahora con lo que perciben en el futuro (con base 100) en marzo, vemos que se percibe la situación actual (89.8) ligeramente mejor a la futura (89.7). Sin embargo, no es cierto ya que estos subíndices en su versión original señalan que la situación actual (33.8) se ubica en un nivel mucho más pesimista que la percepción del futuro (40.1).
La tercera desventaja es que no se puede comparar la confianza del consumidor con el empresarial, a pesar de que ambos indicadores se construyen mediante las mismas cinco preguntas. Por ejemplo, el empresarial indica que en marzo la situación económica actual del país se ubica en 44.11 puntos, mientras que el INEGI nos dice que en el mismo mes, el consumidor lo ubicaba en 89.81 puntos. ¿Quién ve mejor la situación económica actual del país? ¿El consumidor o el empresario? En principio, parece ser que el consumidor tiene lo doble de confianza que el empresario, pero no es cierto; es imposible saber con la imposición de la base 100. Sin embargo, el mismo subíndice del consumidor antes de convertirlo a base 100 señala un nivel de 33.75 puntos, por lo que el empresario tiene una visión más optimista que el consumidor.
La cuarta desventaja es que estos indicadores reflejan ciertos hechos estilizados (stylized facts), que no podemos saber ni apreciar con la base 100. Por ejemplo, el consumidor siempre ve mejor la situación de su hogar y la del país en el futuro que en la actualidad, el consumidor siempre ve mejor a la situación de su hogar que la del país; el consumidor siempre ve con más pesimismo la posibilidad de comprar bienes duraderos que cualquier otra pregunta. También existe un hecho estilizado al comparar la confianza del consumidor con el empresarial: el consumidor siempre es más pesimista que el empresario. Sin embargo, si el INEGI aplica base 100 al indicador, los usuarios no los pueden saber.
La quinta desventaja y posiblemente la más importante, es que en general el indicador con base 100 deja atrás mucha de su utilidad analítica y se presta a comparaciones inválidas que se derivan en conclusiones falsas. En los últimos años he visto un sinnúmero de gráficas de analistas comparando los subíndices entre sí o comparando el indicador del consumidor con el empresarial. Por ejemplo, la semana pasada escuché a un economista resaltar el “hecho” de que el consumidor ve ahora mejor sus posibilidades de comprar bienes duraderos, pero el empresario ve peor el momento actual para invertir. Sin embargo, el empresario sitúa el subíndice en 38.2 puntos, muy por arriba del consumidor que lo ve en 21.0 (ya sin la base 100). Aquí el problema no sólo es el hecho de que disminuye la utilidad analítica, sino que la gran mayoría de los analistas ni siquiera saben que no saben.
El debate sobre el uso de base 100 para este indicador lo llevo personalmente con el INEGI desde hace más de diez años, por lo que a mí me da un enorme gusto que finalmente se presentará al indicador en su versión original. Mi reconocimiento al Instituto por el valor de corregir la presentación de este valioso indicador, aunque sea a los catorce años de su existencia. Creo que es un cambio muy positivo, que solamente va mejorar el valor analítico del Indicador de Confianza del Consumidor. Enhorabuena. Ahora solo falta esperar el anuncio oficial.

Falta de Confianza

Abril 7th, 2015 | Posted by Jonathan Heath in Arena Publica - (0 Comments)

Este lunes (6 de abril), el INEGI dio a conocer los resultados de los Indicadores de Confianza Empresarial para marzo, que muestran caídas en prácticamente todos los rubros. De los 25 indicadores publicados, hubo disminuciones en 24, mientras que en 16 el nivel se ubica por debajo del umbral de los 50 puntos. Cayó la confianza empresarial manufacturera como resultado de caídas en cada uno de sus cinco componentes y disminuciones en cada uno de los siete subsectores de la industria. La confianza empresarial en el comercio tuvo tasas negativas en sus cinco subíndices, mientras que la de la construcción disminuyó en cuatro. El único subíndice que no presentó un panorama más pesimista fue en la construcción ante la pregunta de ¿cómo considera usted la situación económica de su empresa hoy en día comparada con la de hace 12 meses? Esta sí presentó una pequeña mejoría, pero sólo porque la mayoría de las empresas constructoras vienen recuperándose de una crisis sufrida apenas hace un año.

No solamente llaman la atención las caídas generalizadas en todos los indicadores, sino también el hecho de que están registrando nuevos mínimos. Los Indicadores de Confianza de la Construcción y del Comercio marcaron records de pesimismo, ya que ambos llegaron al nivel más bajo que se ha observado a lo largo de toda su historia, que inicia en junio de 2011. En el caso de la construcción, el subíndice sobre la situación económica futura del país se ubica 7.9 puntos por debajo del nivel de marzo del año pasado para registrar su nivel más bajo de 57.7 puntos. En el Comercio, se desplomó el subíndice sobre el momento adecuado para invertir 10.5 puntos para llegar a un nuevo mínimo de 24.9 puntos, mientras que la situación económica futura de la empresa disminuyó 3.3 puntos para marcar 63.7 puntos. Aunque este último se puede considerar todavía relativamente elevado, siempre es el subíndice que refleja mayor optimismo.

El Indicador de Confianza Empresarial Manufacturero tiene más historia, ya que se levanta mensualmente desde enero de 2004. En este caso, todos los mínimos históricos pertenecen al periodo de la gran recesión de 2008-2009. Sin embargo, el Indicador y sus componentes registran los niveles más pesimistas de los últimos cinco años, no visto desde principios de 2010 cuando la economía apenas empezaba a recuperarse. El subsector que más cayó en marzo fue el de equipo de transporte (-6.2) para ubicarse en 49.7 puntos, mientras que el subsector con el nivel más bajo (43.5 puntos) fue el de “textiles, prendas de vestir, cuero y piel, madera, papel y otras”.

La caída en la confianza empresarial empezó hace seis meses y coincide con la última tendencia de revisiones a la baja en el consenso para el crecimiento económico. Como hemos comentado, hace seis meses el consenso para el crecimiento económico de este año era alrededor de 3.7 por ciento y a partir de entonces hemos visto una revisión sistemática hasta llegar a la expectativa actual que gira alrededor de 3.0 por ciento. Sin embargo, la previsión más pesimista de las encuestas es de 2.3 por ciento (Vector), que todavía se ubica por encima del crecimiento de los últimos dos años (de 1.4 y 2.1 por ciento, respectivamente). En este sentido, el consenso de mayor crecimiento este año no parece coincidir con el pesimismo empresarial. En buena medida, esto hace pensar que todavía vamos estar viendo más revisiones a la baja en los siguientes meses.

¿Por qué ha crecido el pesimismo en los últimos meses hasta llegar a los niveles actuales? Primero está la caída en el precio y en la producción petrolera, que provocó un primer recorte en el gasto público para 2015 y un recorte posterior para 2016. Al elaborar los “pre criterios” de política económica, la misma SHCP incorporó una revisión a la baja en su estimación de crecimiento de 3.7 a 3.2 por ciento. Muchos empresarios piensan que los recortes presupuestales no solamente implica menor inversión pública, sino también que afectará a la propia inversión privada. Habrá que recordar que la parte más importante de la inversión es justamente la construcción. También es posible que ven menos oportunidades para la generación de empleos y una mayor merma en el poder adquisitivo de los ingresos, por lo que habrá menos consumo de bienes y servicios en los hogares.

También habrá que tomar en cuenta que la manufactura empezó el año con un tropiezo, ya que ligó varios meses al hilo con caídas consecutivas en la producción. Pero sorprende un poco más el pesimismo del comercio, ya que los primeros meses del año han sido bastante buenos. Tanto la ANTAD como la AMIA reportan muy buenas ventas para enero y febrero. Aquí el problema es que las series de los indicadores de confianza empresarial para el comercio (y la construcción) apenas empezaron a reportarse a mediados de 2011, por lo que no existe suficiente historia todavía para calcular los ajustes estacionales. Esto significa que no deberíamos analizar los cambios en los niveles de confianza de un mes a otro. Sin embargo, los únicos dos subíndices que mostraron una mejora en el margen (en febrero respecto a enero) fueron precisamente los relacionados a la situación económica presente del país en estos dos sectores.

Existe la posibilidad de que los empresarios también estén influenciados por el ambiente político, que viene en deterioro ante el aumento en la corrupción y la inhabilidad del gobierno por enfrentarla. Los millones de anuncios políticos que anteceden las elecciones son como para deprimir al mexicano más optimista. Los escándalos de los 43 desaparecidos, la compra de las casas en Malinalco y en Las Lomas, el uso indebido de helicópteros y tantas cosas más son pruebas del cinismo creciente de nuestra clase política.

Al final de cuentas, tenemos que tomar en cuenta que un mayor pesimismo empresarial no implica en automático que el crecimiento económico en general o la inversión privada en particular vayan a resultar menores. El siguiente paso será examinar la confianza del consumidor que publicará el INEGI el miércoles 8 de abril. ¿Se desplomará igual?

Algunos analistas han señalado que se podría activar un pánico en el mercado si el Banco de México no aumenta su tasa de política monetaria a la par con la Reserva Federal. En su opinión, podría darse una fuga de capitales de tal magnitud que las reservas internacionales y el crédito flexible del FMI podría desaparecer en cuestión de semanas. Sin embargo, un escenario tan extremo es muy poco probable. Para entender el por qué tenemos que entender algunos aspectos del mercado cambiario, de las tasas de interés y de los capitales que se podrían “fugar”.

De entrada, el peso mexicano se depreció significativamente entre fines de noviembre del año pasado y principios de marzo del presente a consecuencia de la especulación que se desató en esos meses sobre los posibles cambios en la política monetaria de Estados Unidos. Pero más que un debilitamiento del peso, básicamente lo que pasó fue que se fortaleció el dólar contra prácticamente todas las monedas del mundo. Incluso, la depreciación del peso contra el dólar fue menor a la sufrida por la mayoría de las monedas, a tal grado que el peso mexicano se apreció vis-a-vis muchas de las mismas.

Dado que coincidió con la caída en el precio internacional del petróleo, muchos atribuyeron la debilidad del peso a que entraban menos dólares al país. Sin embargo, los dólares que obtiene Pemex por la exportación de petróleo no entran al mercado cambiario, ya que la ley dicta que Pemex los tiene que vender directamente al Banco de México. También se le atribuyó a que seguramente muchos capitales extranjeros invertido en bonos gubernamentales vendieron sus posiciones para refugiarse en dólares. No obstante, no hay evidencia de salidas de capital de portafolio, sino al contrario, todavía se registra una entrada neta. Tampoco hubo cambios importantes en los flujos comerciales o flujos de divisas por otros conceptos. ¿Entonces qué motivó la depreciación?

Para contestar la pregunta, primero debemos entender ciertas características del peso mexicano. El volumen normal del mercado cambiario mexicano oscila entre 10 y 15 mil millones de dólares diario, lo que no solamente lo sitúa entre las diez monedas más intercambiadas en el mundo, sino también como la moneda más intercambiada de todos los mercados emergentes. Parte de la razón es que México tiene una buena calificación de riesgo-país y una apertura comercial que le da volumen natural al mercado, lo que brinda a su vez una excelente relación riesgo/rendimiento y liquidez.

Pero todavía más interesante resulta el hecho de que más del 60 por ciento de las transacciones del mercado se llevaban a cabo fuera del país. Por las características antes mencionadas, el peso es una moneda idónea para coberturas, opciones, derivados y operaciones de futuros. Esto significa que muchas de las demás monedas utilizan al peso para cubrirse sin tener un interés comercial o financiera directa con el país. Ante este entorno, lo más seguro es que la mayor parte de los cambios en la oferta y la demanda del peso que motivó su depreciación se llevó a cabo fuera del país, por ejemplo, en el mercado de futuros de Chicago.

Aun así, sabemos que ha existido un influjo de dólares de inversión extranjera de cartera, dirigido principalmente al mercado de bonos gubernamentales, a tal grado que la proporción de deuda pública interna en manos de extranjeros ha crecido a niveles muy elevados. El Banco de México dio a conocer la balanza de pagos de 2014 hace unas semanas, que señala que México ha recibido casi 100 mil millones de dólares en inversión de cartera en los últimos dos años. Este capital, señalado por algunos como “especulativo” o “golondrino”, tiene fama de que pudiera salir del país (la famosa fuga de capitales) ante cualquier cambio pequeño en las tasas de interés, con el peligro de provocar una devaluación mayor, un incremento significativo en la inflación y un brote de inestabilidad peligrosa, agotando por completo las reservas internacionales del país.

Sin embargo, la realidad es otra. La gran mayoría de estos capitales provienen de fondos de inversión que buscan buenos rendimientos y permanencia. En muchos casos son pensiones para jubilados, que no van a invertir en cualquier país. Incluso, la mayoría de los fondos tienen cláusulas que prohíben invertir en bonos que no tengan “grado de inversión”, es decir, no pueden comprar papel “especulativo”. Esto significa que no van a salir tan fácil del país y menos ante un cambio pequeño en la tasa de interés con una pérdida cambiaria.

Por último, es importante entender la lógica de las tasas de interés. La Reserva Federal, al igual que el Banco de México, fija la tasa de fondeo de los fondos federales, equivalente a la de fondeo interbancario en México. Pero el resto de la estructura temporal de tasas los fija el mercado. En Estados Unidos, la Reserva Federal mantiene la tasa de fondeo en un rango de 0 a 0.25 por ciento, mientras que el bono federal a 10 años está en 1.9 por ciento. Si la Reserva Federal decide aumentar su tasa objetivo de 0 a 0.25 o a 0.5 por ciento, no queda muy claro que el mercado moverá la tasa del bono a 10 años en la misma proporción ni al mismo tiempo.

En México, la tasa de fondeo está en 3 por ciento, mientras que el bono a 10 años está en 7.1 por ciento. Si la Reserva Federal aumenta su tasa sin respuesta por parte del Banco de México, es muy probable que el propio mercado ajustará la tasa del bono a 10 años respectivamente. En otras palabras, no es la política monetaria del Banco de México lo que provocará que el diferencial de tasas entre bonos a 10 años cambie, sino el mercado mismo. Esto significa que la acción del Banco de México es más de crear expectativas y de enviar mensajes, que tener una injerencia directa sobre la curva de rendimientos.

La especulación sobre los montos y tiempos del inminente cambio en la política monetaria de la Reserva Federal tiene efectos reales y visibles sobre los tipos de cambio en prácticamente todo el mundo, más que nada en respuesta a las coberturas cambiarias y no tanto por movimientos de inversión en cartera. El Banco de México deberá tomar acción, pero no necesariamente mediante un aumento en su tasa de política monetaria, sino con decisiones que involucren más a la Comisión de Cambios. Pero al final de cuentas, tenemos que recordar que la mayoría de las operaciones con el peso se toman fuera del país, por lo que es muy difícil contrarrestar lo que ocurre con medidas internas.

Arranque Lento

Marzo 30th, 2015 | Posted by Jonathan Heath in Arena Publica - (0 Comments)

Hace seis meses, el consenso para el crecimiento económico de este año era alrededor de 3.7 por ciento. Sin embargo, se ha revisado sistemáticamente a la baja hasta llegar a la expectativa actual que gira alrededor de 3.0 por ciento. Habrá varias razones para pensar que el crecimiento será menor a lo que originalmente se esperaba, pero la caída en el precio y en la producción petrolera, que provocó un primer recorte en el gasto público, definitivamente es una de las principales. No obstante, hasta ahora las revisiones no estaban fundamentadas en el desempeño actual de la economía, simplemente porque todavía no teníamos datos duros. Pero el INEGI ya reportó el crecimiento económico del primer mes y las cifras de la balanza comercial y el desempleo de febrero. Además, ya conocemos las ventas que reporta el ANTAD y la AMIA para el segundo mes del año. Esta primera lectura confirma un lento arranque para el año, que aparentemente desembocará en una baja tasa de crecimiento para el primer trimestre.
La primera desilusión proviene del exterior. La producción manufactura de Estados Unidos ha crecido muy poco en los últimos meses, lo que ha llevado a un menor demanda de nuestras exportaciones. Después de un muy buen enero, las exportaciones automotrices crecieron muy poco en febrero, debido en parte a condiciones climatológicas adversas, pero también a que la compra de automóviles nuevos en Estados Unidos empieza a mostrar signos de desaceleración. Por unos cuantos años, la demanda reprimida que prevaleció en la gran recesión de 2008-2009 provocó un aumento significativo en las ventas de automóviles. Sin embargo, aparentemente el mercado ya regresa a una cierta normalidad, que significa que la demanda regresa a un patrón de crecimiento más moderado. La baja en el precio de la gasolina no ha mostrado fuerza suficiente para provocar mayores ventas, por lo que podemos esperar una tasa de crecimiento en las exportaciones automotrices más moderado este año.
Aun así, existe la esperanza de que la actividad económica de Estados Unidos se recuperará a partir de segundo trimestre, ya que el mercado laboral muestra condiciones más robustas, que a su vez sugieren un mejor desempeño del consumo de los hogares más adelante. Si esta lectura es correcta, podríamos ver una mejoría en nuestras exportaciones no petroleras en los siguientes trimestres. Debemos recordar que las exportaciones son el principal motor de crecimiento, cuyo crecimiento es necesario para que la economía interna muestra mayor dinamismo.
El INEGI reportó hace unas semanas que la producción industrial disminuyó 0.4 por ciento en enero, después de haber caído 0.3 por ciento en diciembre. Vimos una disminución en las manufacturas, la construcción y (obviamente) la minería (ante la caída en la plataforma de producción del petróleo). Por lo mismo, ya anticipábamos una tasa cercana a cero o incluso negativa para el IGAE de enero. Sin embargo, la tasa del IGAE sorprendió un poco al alza como resultado de un salto importante en las actividades primarias (6.7 por ciento) y un buen avance en las terciarias de 0.4 por ciento. Estos datos, juntos con buenas noticias de parte del ANTAD y la AMIA, nos dicen que el comercio y los servicios muestran un buen arranque al inicio del año, a pesar del pobre desempeño de las actividades secundarias.
La ANTAD venía reportando tasas relativamente bajas durante todo 2014, que giran en promedio alrededor de 1.0 por ciento anual cada mes. Sin embargo, en enero y febrero sus ventas totales reales aumentaron 6.2 y 5.7 por ciento anual, respectivamente, algo no visto desde 2012. Evidencia anecdotaria de algunas cadenas autodepartamentales señalan ventas de hasta 20 por ciento real respecto al mismo periodo del año anterior. Las ventas internas de automóviles reportadas por la AMIA registraron tasas anuales superiores a 20 por ciento en los dos primeros meses del año, algo no visto desde 2004. A pesar de que no tenemos mucha evidencia de una mejoría en los ingresos de los hogares, aparentemente el consumo privado empieza a mostrar cierto dinamismo no visto en mucho tiempo.
¿Cómo explicar esta recuperación? ¿Es temporal o algo más permanente? Las hipótesis que empiezan a surgir señalan al gasto público electoral y una posible demanda reprimida como posibles factores, que a su vez indicarían solo un empuje temporal. Sabemos que el gasto público tiene un impacto en el consumo en los meses anteriores a las elecciones, pero ante los recortes en el presupuesto, podrían disminuir significativamente después de junio. Si el consumo empieza a responder a una demanda reprimida que se fue acumulando en los dos años anteriores, también podríamos ver una mejoría temporal, pero con una duración más difícil de anticipar.
Sin embargo, surge una tercera hipótesis que pudiera ser más promisorio. La inversión privada empieza a mostrar signos de mayor crecimiento, posiblemente derivado de las expectativas que emanan de las reformas estructurales. De ser cierto, deberíamos empezar a ver más empleo, que a su vez podría estimular el ingreso de los hogares y el consumo. La tasa de desempleo urbano disminuyó notoriamente en diciembre, mientras que su repunte en enero y febrero fue estacionalmente muy baja. No obstante, esas hipótesis necesitan más datos duros para que sean explicaciones creíbles. Pudiera ser que estos dos meses fueran simplemente observaciones aberrantes, sin mayor explicación.
Por lo pronto, tenemos un mal arranque en las actividades secundarias, que de no reponerse podrán desincentivar a la economía interna, pero un buen arranque de las terciarias, que pudiera ser un fenómeno temporal, o bien, el empiezo de una recuperación más de fondo. Habrá que estar atentos.

Todos sabemos que el desplome del precio del petróleo implica una merma importante en los ingresos del Sector Público. Para 2015 el problema no es tan grave, ya que existe una cobertura que compensará parte de la pérdida, más la toma de utilidades del Banco de México (que dicen que puede era alrededor de 80 mil millones de pesos) y una recaudación extraordinaria en el IEPS a la gasolina. Aun así y quizás más por razones precautorias, el gobierno federal anunció un recorte al gasto en el año. Sin embargo, al no ser que se recupere el precio el año entrante (algo no esperado), las finanzas públicas necesitarán un ajuste mayor para 2016. No habrá cobertura, mientras que ingresos extraordinarios de 2015 no serán recurrentes.

Esto significa que el gobierno tendrá que utilizar tijeras muy grandes para recortar el presupuesto de gastos de 2016. De proceder en forma “inercial”, como típicamente se elabora el presupuesto, el gobierno tendrá que anunciar un recortar generalizado y cada dependencia tendrá que ajustarse lo mejor que pueda. Al final, se podrá acomodar más gasto en algunos rubros a expensas de menos en otros, pero el ajuste podría ser traumático para muchos proyectos y dependencias. Ante esta problemática, el gobierno ha anunciado que elaborará un presupuesto de “base cero”, es decir, de estudiar a fondo cada rubro y cuestionar la importancia que cada peso gastado. Ya no se tratará de agregar o quitar aquí y allá, sino empezar de cero para construir un presupuesto más eficiente.

No es la primera vez que un gobierno ha anunciado la intención de elaborar el presupuesto desde cero. Sin embargo, no queda muy claro que tan exitoso ha sido en el pasado. La idea es excelente, sin embargo, la logística es sumamente complicado. Ante la dificultad, el gobierno ha solicitado la asesoría de la OCDE, pero tampoco queda claro que tenga la experiencia y conocimiento suficiente. El problema principal es que el presupuesto se tiene que elaborar en aproximadamente seis meses, que se antoja muy poco tiempo para cuestionar absolutamente todos los aspectos del gasto público.

Todos sabemos que el gasto público es sumamente ineficiente y que ante menos cantidad, la solución es mayor calidad. Podemos apreciar el tamaño del problema al contrastar las cifras de gasto que reporta la SHCP con las cuentas nacionales que elabora el INEGI. Mientras que la SHCP simplemente contabiliza su flujo de efectivo, el INEGI tiene que medir el “valor agregado” del gasto para ver que tanto va contribuir al PIB. Por ejemplo, la SHCP reporta como gasto los recursos destinados a programas como Prospera, mientras que el INEGI lo considera una trasferencia de un lugar a otro sin valor agregado. Si el gobierno le quita recursos a un hogar para dárselos a otro, no hay una generación de valor.

La ineficiencia del gasto público quedó claro en las cifras reportadas para 2014. La SHCP reportó que ejercicio 8.4 por ciento más en su gasto programable el año pasado respecto al anterior. Sin embargo, si sumamos el consumo de gobierno más la inversión pública de las cuentas nacionales, resulta que es -0.3 por ciento menor. En principio, sabemos que el consumo de gobierno (gasto corriente) no aporta mucho al crecimiento económico, mientras que la inversión pública debe ser mucho más productivo. Aquí la SHCP estuvo reportando todo el año que su gasto de capital físico (inversión) estaba aumentando todos los meses a tasas anuales superiores 20 por ciento y en ocasiones hasta de más de 30 por ciento. Sin embargo, al examinar las cuentas nacionales de 2014, encontramos que la inversión pública fue el único componente del PIB por el lado del gasto que terminó el año con una contribución negativa; sufrió una caída real de -7.5 por ciento. Pero no es solamente este año; la inversión pública ha disminuido cinco años consecutivos.

¿Qué nos dicen estas cifras? El gasto público es mucho más ineficiente de lo que creíamos y no necesitábamos un desplome en los precios del petróleo para justificar la elaboración de un presupuesto de base cero. Este ejercicio era necesario desde antes. Peor aún, si consideramos que el único propósito de la Reforma Hacendaria era recaudar más, quitando recursos escasos a los hogares y a las empresas, para ejercer un gasto de nulo impacto en el PIB.

El INEGI reportó que la inflación de febrero fue 0.19 por ciento respecto al mes anterior y 3.00 por ciento respecto al mismo mes del año pasado. A primera vista, la noticia es muy buena ya que la tasa objetivo puntual del Banco de México es 3.0 por ciento, mientras que la tasa de 0.19 por ciento anualizada es de 2.3 por ciento. Esto significa que la inflación está en este momento exactamente donde quieren las autoridades monetarias y si persiste el ritmo actual, estará bajando aún más. Es más, la tasa anual de febrero es la tercera tasa más baja desde que existe el INPC (a partir de enero de 1970), es decir, en 45 años: en noviembre 2005 la tasa llegó a 2.91 por ciento y en mayo 2006 registró 2.996 por ciento.
Los números reflejan una mejoría significante de un año para acá, ya que en febrero de 2013 la tasa anual se ubicaba en 4.23 por ciento. La tasa subyacente estaba en 2.98 por ciento y ahora se ubica en 2.40 por ciento, mientras que la no subyacente está ahora en 4.88 por ciento, cuando hace un año se ubicaba en 8.28 por ciento. Sin una reforma fiscal que aumente impuestos y sin aumentos mensuales programados en los precios de la gasolina, todo apunta a que la tasa fin de año se podría ubicar por debajo de 3.0 por ciento, tal y como lo anticipó el Banco de México en su último Informe Trimestral sobre la Inflación.
Sin embargo, un examen un poco más detenido no concluye con tan buenas noticias. La razón principal que explica la disminución en febrero es la tasa de -0.27 por ciento en el componente no subyacente, impulsada fundamentalmente por una disminución de -3.61 en los precios de frutas y verduras (el precio del jitomate bajó 30.1 por ciento). Mientras que es bueno que hayan disminuido estos precios, sabemos que es un subíndice con una varianza enorme: igual sube que baja significativamente. El primer problema es que el ciclo a la baja en estos precios está por concluir. No sabemos cuándo ni cuánto, pero lo más probable es que en el corto plazo vamos a ver incrementos importantes en estos precios. En otras palabras, lo que ayudó a que bajara la tasa de inflación en estos meses, será el mismo factor que explicará aumentos en los meses entrantes.
También encontramos una tasa negativa (-0.03 por ciento) en los energéticos. Sin embargo, no es causa de la reforma de telecomunicaciones o algún cambio estructural que ayuda a que sea más barato la electricidad. Más bien, es un factor estacional, ya que el programa de tarifas eléctricas de temporada cálida (subsidios) inició su periodo de vigencia durante febrero en Tapachula, Chiapas; la inflación en esta ciudad en febrero fue -0.62 por ciento, la más baja de todas las localidades del país que integren el INPC. Esto significa que es una reducción temporal, que volverá a subir cuando termine el programa en la segunda mitad del año.
Aunque el rebote en la tasa de la inflación no subyacente seguramente presionará la tasa general, no es lo que más preocupa. La tasa de inflación subyacente aumentó 0.34 por ciento en febrero, que anualizada implica una tasa de 4.2 por ciento. Es decir, si la subyacente aumente todos los meses a este ritmo, terminaría el año por encima de 4.0 por ciento. Al analizar la desagregación de la subyacente, encontramos que la tasa de mercancías no alimenticias aumentó 0.59 por ciento, algo sumamente inusual. La última vez que observamos una tasa parecida en este subíndice fue en enero de 2010, hace cinco años. La persistencia de tasas elevadas en este rubro es consistente con un traspaso importante de la depreciación del tipo de cambio a precios.
Pero antes de hablar de un traspaso cambiario, tenemos que estar seguros que son aumentos generalizados en las mercancías y no el resultado de aumentos en uno o dos productos con incidencias elevadas. Si examinamos la lista de los diez precios que más impactaron al alza al índice, encontramos que solo un precio, cigarrillos, es una mercancía no alimenticio, mientras que su incidencia no es tan alta (0.015). Esto significa que la tasa elevada de 0.59 por ciento sí parece ser resultado de incrementos generalizados y no de uno o dos precios. Para ver si representa un peligro en cuanto a presiones inflacionarias, lo que queda por ver es si son incrementos sostenidos y no simplemente de una vez por todas. Para esto habrá que examinar este subíndice en los próximos meses, junto con el desempeño del tipo de cambio. Si el peso sigue depreciándose, es muy probable que generará presiones inflacionarias que harán que sube la tasa general.
Finalmente, llama la atención la tasa de 0.35 por ciento en los servicios. Típicamente, los precios de los servicios reflejan las presiones inflacionarias que pueden surgir de la demanda agregada, es decir, de una brecha de producto positivo. En los últimos años, su subíndice ha sido de los más bajos, en buena medida porque se estima que actualmente la brecha de producto es negativo; la tasa anual a febrero es apenas 2.20 por ciento. El aumento se explica por un pequeño repunte en el precio de la vivienda, incrementos estacionales en la educación y un aumento de 0.51 por ciento en “otros servicios”. Sin embargo, cuando acudimos a ver las incidencias, resulta que el incremento en el servicio de telefonía móvil en febrero explica 43 por ciento del incremento total del subíndice. En general, “otros servicios” muestra más varianza en su subíndice que la mayoría de los demás componentes de la subyacente, por lo que no es preocupante y mucho menos indicio de que se está cerrando la brecha de producto. Simplemente llama la atención que el servicio de telefonía móvil sea el precio que más aumentó en todo el INPC en febrero, cuando se supone que debería estar cayendo.
Por lo pronto, podemos decir que la inflación de febrero fue más bien malas noticias, ya que existe evidencia de un traspaso del tipo de cambio a precios y que es muy probable que aumenten los precios de frutas y verduras en los próximos meses. En enero veíamos con muy buenos ojos la expectativa de Banxico de que la inflación anual pudiera terminar el año por debajo de 3.0 por ciento, a tal grado que la mayoría de las instituciones ajustaron sus expectativas a la baja. Sin embargo, ya con la información de febrero el panorama inflacionario ya no se ve tan benigno. Es muy probable que veamos ahora revisiones al alza en las expectativas de inflación para fin de 2015. Pero bueno, faltan diez meses y muchas cosas pueden pasar.

De las diez u once reformas estructurales que se han aprobado, la más criticada ha sido la Reforma Hacendaria. Quitó ingresos a los hogares en vez de reducir impuestos, justo cuando la economía se encontraba en una situación precaria. Eliminó incentivos para las empresas en el momento en que habría que fomentar más la inversión. En vez de aplicar una política fiscal contra cíclica, se instrumentó una pro cíclica, que frenó la actividad económica y perjudicó a la mayoría de los mexicanos. Peor aún, la SHCP presumió un aumento significante en el gasto público y en especial en la inversión pública, que terminó siendo sumamente ineficiente, a tal grado que no tuvo repercusión alguna en el PIB. Para muchos, la reforma es la causa principal del crecimiento económico mediocre que tuvimos el año pasado.

Aun así, mucha de la evidencia en contra de la reforma había sido anecdotario, o bien, formulado mediante la opinión reiterativa de muchos analistas y empresarios. Sin embargo, ahora aparece un estudio de fondo realizado por Kantar Worldpanel México, que es una agencia de investigación de mercados, que aporta evidencia dura de los efectos sobre los hogares. Esta empresa monitorea cuidadosamente los patrones de consumo de 8,500 hogares mexicanos, escogidos de tal forma que representan al 97 por ciento de la población urbana del país. Registra cada semana las compras de los hogares de más de 70 categorías de productos, por lo que se puede considerar, sin duda, como una autoridad calificada para emitir juicios sobre los efectos de los impuestos a alimentos y bebidas a raíz de la reforma hacendaria.

De entrada, Kantar encontró que el comportamiento del consumo en las familias en 2014 fue similar a cuando el país se ha encontrado en crisis, es decir, similar a lo ocurrido en la gran recesión de 2008-2009. Dado que el 30 por ciento del presupuesto de los hogares se gasta en productos gravados con los nuevos impuestos a alimentos y bebidas saborizantes, se dio una redistribución del presupuesto con el resultado de que se redujo el gasto en bienes de cuidado personal y del hogar. En otras palabras, se pagó en promedio 13 por ciento más por los bienes gravadas con la idea de no consumir menos, mientras que se sacrificó el consumo de otro tipo de bienes para que les alcanzara. En vez de consumir menos de los alimentos de alto contenido calorífico, los hogares redistribuyeron su gasto de tal manera que pudieron consumir lo mismo de este tipo de productos y menos de otros bienes no gravados. Los bienes sacrificados fueron fundamentalmente en las categorías de cuidado del hogar y cuidado personal.

Al final de cuentas, el resultado fue que los hogares gastaron más en productos gravados por los nuevos impuestos, pero se llevaron menos volumen, mientras que gastaron menos en otras categorías. El efecto final fue que todos perdieron: unas categorías perdieron gasto mientras que otras perdieron volumen. Los consumidores cambiaron a marcas más económicas y compraron tamaños más pequeños, mientras que repartieron su gasto entre un mayor número de establecimientos, tanto formales como informales. Este resultado es compatible con los datos que fue reportando la ANTAD a través del año.

En el proceso, Kantar encontró que los niveles socioeconómicos más bajos fueron los más afectados. También encontró que las tienditas de la esquina fueron severamente afectadas, ya que 52 por ciento de sus ventas son de productos que pagan los nuevos impuestos. En general, se encontró que estas tienditas vendieron menos volumen en 2014 comparado con el año anterior. Dado que más de 600 mil familias dependen de estos negocios para subsistir y la mayoría provienen de niveles socioeconómicos medios y bajos, hubo una afectación negativa para un segmento importante de la población. Kantar concluyó que no hay evidencia de que la medida ayudó en parte a resolver el problema de obesidad en el país, pero definitivamente afectó de manera importante la economía de los hogares mexicanos.

El estudio de Kantar Worldpanel México, las cifras de ventas de ANTAD y los cálculos del ingreso personal disponible de los hogares mediante datos de la Encuesta Nacional de Ocupación y Empleo (ENOE), apuntan hacia una afectación severa del consumo de los hogares el año pasado, con un impacto todavía mayor en los niveles socioeconómicos más bajos. El gobierno prometió hace un par de años que si se aprobaran todas las reformas estructurales, a estas alturas del sexenio ya estaríamos creciendo al 5 por ciento anual. En cambio, el crecimiento observado en estos últimos dos años se ubica por debajo del escenario inercial (sin reformas) y a menos de la mitad del promedio observado en los últimos tres años del sexenio anterior.

El gobierno justificó el diseño recaudatorio de la reforma como un instrumento para incrementar el gasto social en apoyo a las familias más necesitadas y reducir la dependencia de los ingresos petroleros, mientras que impuso mayores impuestos a los alimentos más consumidos para combatir la obesidad. Sin embargo, encontramos que los efectos nocivos se concentraron en los hogares socioeconómicos más bajos, no ayudó en reducir la obesidad y todavía existe gran dependencia en los ingresos petroleros como podemos atestiguar con los recortes anunciados en el presupuesto. Así, ¿cómo puede defender el gobierno esta reforma?