“Yo era el rey de este lugar, hasta que un día llegaron ellos” dice la canción de Sui Generis. En la economía, el “rey” es la econometría y “ellos” son la ciencia de datos, machine learning y, por qué no, la mismísima inteligencia artificial.
La econometría es tan vieja como la necesidad de medir la economía. Pero con un poco más de precisión, esta disciplina nace en 1930, con la creación de la Sociedad Econométrica, de la mano de figuras como Ragnar Frisch e Irving Fisher, con el objetivo de “promover estudios que apunten a una unificación del enfoque empírico-cuantitativo para los problemas económicos”, según su carta fundacional.
Cualquiera que se pregunte qué es la econometría no debería gastar más tiempo que el que la etimología sugiere: es la parte de la economía que se encarga de medirla. Las preguntas que se caen de maduro son: ¿pero ese no es el trabajo de la estadística? ¿No es la econometría otra manifestación del imperialismo intelectual del que frecuentemente se acusa a los economistas?
En primer lugar: mal de muchos, consuelo de… todos. Así como existe la econometría, también están la biometría (en biología), la psicometría (en psicología), la cliometría (en historia), entre otras (sub)disciplinas que aplican estadística en sus campos. En el reparto de acusaciones, la picota cae sobre todas las ciencias.
Más allá de este argumento culposo, la econometría nace de la necesidad de adaptar las técnicas genéricas de la estadística a las particularidades de la economía, por las mismas razones por las que una empresa decide dejar de comprar tornillos y empezar a fabricarlos. La estadística básica requiere un contexto un tanto idílico, que en las disciplinas sociales es más la excepción que la regla. Así, el método de regresión lineal –“el automóvil de la estadística moderna”, según Stephen Stigler, el principal historiador de la disciplina– presupone, en cierto modo, que los datos provienen de un experimento prístino, como en agronomía o biología. Este contexto es casi el opuesto del de los datos sociales, que en general surgen de encuestas o registros administrativos, cargados de “ruido” y, muchas veces, atravesados por sesgos peligrosos.
La econometría fue la reacción de la economía a la necesidad de contar con técnicas adaptadas a sus particularidades: datos ruidosos, modelos difusos y fuertes dependencias entre los agentes económicos. Y mal no le ha ido. Técnicas como las variables instrumentales o el método generalizado de momentos exceden la economía y tuvieron su origen como respuesta a problemas económicos.
Pero no todo fue sencillo. En 1976 apareció la devastadora “critica de Lucas”. Robert Lucas refiere a un mal uso de métodos y modelos cuando se intenta predecir el efecto de un cambio en la política económica creyendo, inocentemente, que el cambio en sí mismo no alterará las relaciones económicas observadas.
Lejos de derrotar a la econometría, la crítica de Lucas terminó por reforzarla. La actual “macroeconomía de microfundamentos” (una visión macro con un nexo coherente con los comportamientos individuales) o la así llamada “revolución de la credibilidad”, liderada por Joshua Angrist (que privilegia nexos causales claros, como los que ocurren en un experimento), fueron reacciones que devolvieron a la econometría al centro de la disciplina. De hecho, la inmensa mayoría de los graduados recientes encuentra su primer empleo en tareas de econometría aplicada.
Hasta que un día llegaron ellos. A principios de 2000 se empezó a popularizar el campo de machine learning, vino la revolución de big data y, más recientemente, la inteligencia artificial. La econometría y la estadística reaccionaron a la defensiva. “Machine learning es estadística con masa madre” dijo un gracioso tuit, y Stigler reaccionó con “Funes es big data sin estadística”, sugiriendo que, sin la estadística, big data es como el Funes de Borges, que lo registra todo pero que no puede pensar.
Pero la lenta reacción de la economía a la ciencia de datos está lejos de ser una defensa ante la pérdida de un monopolio. Machine learning y sus variaciones han hecho aportes increíbles en el ámbito de las predicciones. El combo de big data con poderosos algoritmos explica por qué se ha vuelto simple predecir si alguien pagará un crédito, o cuántos autos pasarán por una autopista un viernes lluvioso a las 11 de la mañana. A la luz de los fracasos estrepitosos de los pronósticos económicos, parece que, más que quejarse, la economía debería subirse rápidamente al tren bala de la nueva ciencia de datos.
El problema es que, en economía, el monstruo de la Crítica de Lucas asoma su espantosa cabeza cada vez que alguien intenta predecir usando datos del pasado. Dicho de otra manera: hacer pronósticos en economía es complicado porque es como si, en meteorología, a las nubes les importara lo que discuten los meteorólogos. En economía, el pronóstico en sí mismo afecta a los mercados, y estos, a su vez, modifican el pronóstico. Esto explica por qué, algoritmos y big data mediante, aun cuando hoy es posible predecir con asombrosa precisión cuánto se tarda en ir de Buenos Aires a La Plata, nadie tiene la menor idea de cuánto va a estar el dólar dentro de un mes.
Por otro lado, el grueso de la energía de la econometría se volcó a medir impactos causales, como el de la Asignación Universal por Hijo sobre la educación. La econometría hizo aportes enormes para evaluar con precisión el impacto de las políticas; los trabajos de Esther Duflo y del ya nombrado Angrist, (ambos galardonados con el Nobel) son un reflejo de estos logros de la econometría.
Decir que machine learning es mejor que la econometría es como creer que un martillo es mejor que un destornillador. Las técnicas no son ni buenas ni malas, sino útiles o inútiles, y por eso deben juzgarse desde la perspectiva del desafío que las convoca. Para la predicción simple –aquella en la que el pronóstico no altera el resultado, como en los sistemas de recomendación de películas o la detección de imágenes–, machine learning arrasa. Para la medición de efectos causales, la econometría manda. Y cuando se trata de predecir fenómenos interactivos (como el valor del dólar), a ambos les va mal.
Como era de esperar, un tema de interés actual es la intersección entre ambos campos. No se trata de un enfoque versus el otro, sino de ambos a la vez. La discusión del potencial de ambas visiones y también de las serias limitaciones en la capacidad de pronosticar en disciplinas sociales, son el tema central de Viajar al Futuro (y volver para contarlo): la ciencia detrás de los pronósticos, reciente libro del autor de esta nota, publicado por Siglo XXI Editores.
“Mientras miro las nuevas olas, yo ya soy parte del mar” cantaba Charly García en 1980, tres años antes de disolver Seru Giran y de adoptar él mismo un “raro peinado nuevo”, para luego revolucionar el rock de los 80. Mas allá de la prudencia que demanda la crítica de Lucas, es confiable pronosticar que, como a García, a la economía le sentará bien la peluquería de la ciencia de datos moderna.