Big data vs. IPC: ¿por qué
estimar la inflación si podemos medirla?
FORBES- 13 de Abril de 2016
¿Hay que seguir midiendo los
mismos indicadores económicos que hace 50 años? No. Ya es momento de utilizar
aplicaciones de big data.
En las últimas semanas hemos
hablado mucho de inflación en diferentes países de América Latina. De hecho,
hemos hablado mucho de inflación en los últimos años. Discutimos, mostramos
visiones diferentes, coincidimos, pero nuestras conclusiones siempre se basan
en la estimación del Índice de Precios al Consumidor (IPC), que funciona como
proxy de la inflación. Metodológicamente sin cuestionamientos, ya que es una
técnica que ha sido generalmente aceptada desde hace muchísimos años. Quizá lo
más importante para concederle el “sin cuestionamientos” es que hace décadas que
se usa la misma forma de estimar este proxy de la inflación.
¿Realmente estamos midiendo
inflación cuando estimamos el IPC? ¿Concluir en términos absolutos sobre
inflación a través de estimar un proxy de ese dato es correcto en el siglo XXI?
De hecho, en un artículo
publicado el 16 de marzo de 2016 en el Financial Times, denominado “Economic
statistics have not kept pace with our needs or new sources of data”, John Kay
menciona básicamente que no podemos seguir midiendo los mismos indicadores que
hace 50 años, para poder tomar decisiones sobre la economía actual,
considerando la velocidad, el volumen y variedad que tiene la data hoy
(determinantes del concepto de big data).
Un video de Bloomberg Business
denominado How big data can change the way we measure inflation explica
sucintamente cómo los centros de estadísticas de cada país puede utilizar el
big data para medir la inflación. Y cómo deberían cambiar sus capacidades
enfocados en aprovechar el analytics del big data.
¿Cómo se lograr medir la variación
real de precios de toda la economía?, ¿es extrapolable a otras variables
macroeconómicas?
Básicamente, las aplicaciones de
big data al campo de la economía son cada vez más abundantes, aunque el
despliegue de esta metodología en la economía sea reciente. Cada vez es más
común encontrar metodologías que hacen estimaciones en tiempo real de la
evolución de los precios o el gasto de los consumidores. El Billion Prices
Project del MIT utiliza millones de precios de tiendas en internet en decenas
de países para obtener un índice de precios online que se actualiza en tiempo
real.
A fin de determinar los cambios
en precios de los productos en el tiempo, esta tecnología utiliza la
estabilidad o cambio de los componentes entre “tags” del lenguaje HTML usado para
construir las páginas web.
Con el uso de estos principios,
un programa puede identificar la información relevante sobre un producto y su
precio. El URL de la página donde están indexados estos productos puede servir
para clasificar los productos por categorías. Por ejemplo, Cavallo (2012)
utiliza cientos de miles de precios de productos en internet para comparar la
evolución de la inflación oficial y la obtenida a partir de capturas de
información sobre precios de tiendas online.
Cavallo (2012) muestra que
mientras en Brasil, Chile, Colombia o Venezuela la evolución de la inflación
oficial y la obtenida a partir de los precios online sigue patrones similares,
en Argentina las diferencias son muy significativas. En media la inflación en
Argentina entre 2007 y 2011 definida por el índice de precios online fue de
20.14% frente a la inflación oficial, que era de tan sólo 8.38%. Esto implica
una diferencia acumulada de 65% en marzo de 2011.
Choi y Varian (2012) utilizan
Google Trends para mejorar la capacidad predictiva de modelos sobre indicadores
económicos obtenidos con muy alta frecuencia. La idea consiste en complementar
la información del pasado de una serie con las búsquedas presentes en algunas
categorías. Por ejemplo, el Departamento de Trabajo de Estados Unidos anuncia
cada jueves el número de personas que han solicitado subsidios por desempleo.
Añadiendo a un modelo AR(1) de datos históricos la información sobre búsquedas
de palabras en categorías como “jobs”, “welfare” y “unemployment” se mejora un
6% la capacidad predictiva en general, y de los cambios de ciclo en particular.
Utilizando el mismo sistema para el índice de confianza del consumidor se
consigue una mejora de 9.3% en la capacidad predictiva.
La utilización de la información
agregada sobre tarjetas de crédito y TPV es otra fuente importante de
investigación económica en la actualidad. En una serie de artículos que han
resultado muy influyentes, Mian y Sufi han utilizado la información sobre
tarjetas de crédito para realizar análisis económico sobre las causas de la
burbuja inmobiliaria y la crisis financiera. Mian, Rao y Sufi (2013) analizan
la elasticidad del consumo respecto a la riqueza inmobiliaria. El cálculo del
consumo a nivel de condados se realiza utilizando las compras realizadas con
tarjeta de crédito o débito intermediadas por MasterCard.
Una ventaja importante de estos
datos para su estudio es que el gasto en consumo está clasificado con los
códigos NAICS que proporciona cada comercio donde se realiza el gasto. Mian y
Sufi (2009) utilizan todas las hipotecas individualizadas producidas entre 1990
y 2007 (disponibles para cualquier ciudadano gracias a la Home Mortgage
Disclosure Act) y los datos sobre crédito e impagos entre 1991 y 2007 por tipo
de crédito que proporciona Analytical Services, un proveedor de datos del grupo
Equifax. Agregando por condados la información sobre deuda, impagos y créditos
hipotecarios (concesión o denegación, entre otras variables), Mian y Sufi
(2009) muestran que en los condados donde había mayor restricción de crédito
antes de comenzar la burbuja inmobiliaria es donde más creció el crédito con el
inicio de la expansión inmobiliaria y donde más crecieron los precios de la
vivienda. También muestran cómo tras el comienzo de la crisis en esos mismos condados
es donde cayeron más los precios y aumentaron más los impagos.
En un ejemplo muy reciente,
Jiménez et al. (2014) utilizan información sobre 24 millones de créditos
individuales, con emparejamientos entre bancos y empresas, para analizar el
impacto de la política monetaria en la asunción de riesgo por parte de las
entidades financieras.
Resumiendo: ¿En nuestros países
seguiremos tomando decisiones sobre la inflación y otros indicadores
macroeconómicos, a través de estimaciones de proxys? ¿Nos animaremos a utilizar
big data para diseñar política económica en América Latina?
Diego Vallarino-Director de
Bexton Research. Colaborador en Innovación Estratégica y Competitividad en
empresas y gobiernos de América Latina. Autor del libro “Innovando desde el
Sur” y profesor invitado en MBA.
No hay comentarios:
Publicar un comentario