Rodolfo Torres-Rabello
Un pronóstico que subestime la demanda impactará en pérdida de ventas; del mismo modo, un pronóstico que sobreestime la demanda impactará en exceso de inventarios. En general, los errores de pronóstico inciden en los inventarios, en el nivel de servicio y, aguas abajo, en la totalidad de las variables logísticas(1).
Como la realidad se resiste a ser planificada, los errores siempre ocurrirán. Estos dependen de varios factores(2), por ejemplo:
A mayor agregación de datos, mayor error. Datos mensuales arrojan menores errores que datos diarios. Lo mismo ocurre cuando se consideran datos de cada almacén y datos agregados de toda la compañía.
A mayor horizonte de tiempo, mayor error. Pronosticar para el día siguiente tiene menos error que hacerlo para el próximo mes.
A menor calidad de los datos, mayor error. A menudo los datos disponibles son de ventas, no de demanda, lo que induce de partida una distorsión y, por ende, un error.
A menor colaboración en la cadena, mayor error. La colaboración entre las áreas comercial y de operaciones permite intercambiar información que pudiera afectar el patrón de demanda (por ejemplo, promociones y lanzamiento de productos nuevos). La desviación a menudo tiene sesgos (en inglés, “bias”) relacionados con la aversión al riesgo, las malas prácticas, la costumbre, las herramientas inapropiadas u otras causas.
A mayor variabilidad del patrón de demanda, mayor error. Detengámonos en esto. A través de un ejemplo ilustraremos la relación entre variabilidad y error de pronóstico. En lo sucesivo llamaremos “error” a la desviación entre el valor real y el proyectado. Y supondremos que las ventas representan fielmente la demanda.
Las métricas
Existe una gran cantidad de indicadores que miden errores de pronóstico. Para nuestro ejemplo tomaremos cuatro de las más utilizadas: MAE (Mean Absolute Error), RMSE (Root Mean Square Error), MAPE (Mean Absolute Percentage Error) y WAPE (Weighted Absolute Percentage Error). Vamos a calcular el error en cada caso y veremos cómo se comportan ante productos con baja, media y alta variabilidad. Las fórmulas se muestran en el recuadro.
Tres SKU de ejemplo
Tomaremos tres SKU, uno con baja variabilidad de las ventas, otro con variabilidad media y otro con alta variabilidad.
El Cuadro 1 muestra datos de ventas y de pronósticos para tres SKU en cuatro períodos (supongamos que se trata de semanas). Los datos representan cantidad de cajas. Las columnas At muestran los datos reales de ventas. Las columnas Ft muestran los pronósticos que se hicieron para esas semanas.
¿Qué diferencia observamos entre los tres SKU? El SKU1 tiene baja variabilidad de la demanda: las ventas en las cuatro semanas no tuvieron variación y fueron igual a 10 cajas, por lo que el coeficiente de variación (CV) de las ventas es igual a cero. El pronóstico para cada una de las semanas fue igual a 8 cajas. Nótese que el pronóstico tuvo un sesgo (“bias”), es decir, quienes pronosticaron tendieron a subvaluar 2 cajas por debajo de lo que ocurrió en la realidad.
El SKU2 tiene variabilidad media: su CV de las ventas es igual a 0.2. Los pronósticos no tuvieron sesgo, es decir, a veces estuvieron por arriba y otras por debajo de las ventas reales. Tanto este como el anterior son artículos estables, de elevada pronosticabilidad.
El SKU3 presenta una situación diferente: en una semana se vendieron 10 cajas y en las otras nada. Los pronósticos estuvieron alejados de la realidad, lo que se refleja en que su CV de las ventas sea igual a 2.0, es decir, 10 veces mayor al CV del SKU2. A mayor CV menor pronosticabilidad. En series de tiempo reales se pueden encontrar ítems con elevados valores del coeficiente de variación; en una serie de 52 semanas, por ejemplo, podemos encontrar casos con CV cercanos a 7(3): se trata de ítems no pronosticables o, al menos, de muy baja pronosticabilidad.
Cuadro 1: Ventas y pronósticos para tres SKU durante cuatro semanas
En el Cuadro 2 hemos calculado los errores de pronóstico con cuatro métodos distintos.
Para el SKU1 se puede apreciar que la desviación entre las ventas y los pronósticos es igual a 2 en las cuatro semanas. La suma de las desviaciones en valor absoluto es 8 y su promedio es 2. Este promedio es el MAE (mean absolute error). Se puede apreciar que los tres SKU tienen el mismo error de pronóstico: MAE = 2 cajas.
En el mismo Cuadro 2 se calcula el RMSE para los tres SKU. Para ello, se procede como sigue: en cada período se calcula la desviación entre la venta real y el pronóstico, elevándola al cuadrado. Luego, se obtiene la suma de estas desviaciones al cuadrado y se divide por la cantidad de períodos. Se puede apreciar que el RMSE es igual a 2.0 cajas para el SKU1, también 2.0 cajas para el SKU2 y 2.4 cajas para el SKU3. Esta métrica es dimensional, esto es, sus resultados deben interpretarse en la unidad de medida correspondiente, en este caso cajas. El RMSE advirtió la variabilidad en el tercer SKU y la reflejó de alguna manera.
En el Cuadro 2 se calcula también el MAPE para los tres SKU. El cálculo del MAPE es sencillo: en cada semana se obtiene la diferencia en valor absoluto de la venta menos el valor pronosticado y se divide por la venta. La suma de este cuociente para todos los períodos es el MAPE, una métrica adimensional que se expresa usualmente en porcentajes. Se puede apreciar que el SKU1 tiene un MAPE de 20.0%, el SKU2 tiene un MAPE de 21.9% y…¡no se puede calcular para el SKU3, porque hay valores de venta igual a cero!
Finalmente, se calcula el WAPE para los tres SKU. Para ello, se obtiene la suma de las desviaciones de las ventas menos el pronóstico en valor absoluto. Luego se divide por la suma de las ventas. El WAPE para los tres SKU es, respectivamente, 20.0%, 21.1% y 80.0%.
Cuadro 2: Cálculo de errores de pronóstico para tres SKU.
¿Qué aprendimos de este sencillo ejercicio? La métrica que mejor capturó la variabilidad de la demanda fue el WAPE. El MAE arrojó el mismo resultado para los tres casos y el RMSE advirtió una diferencia solo en el tercer caso, el más variable. El MAPE, aun siendo ampliamente utilizado, no pudo con los valores iguales a cero. Dice Chase(4) que “el WAPE es preferible al MAPE porque toma en cuenta la contribución de cada producto al error total”. Y agrega que aunque WAPE es una buena alternativa para el MAPE, es sólo una pequeña innovación en las métricas de desempeño. Chockalingam(5) afirma que el WAPE es útil para establecer estrategias de stock de seguridad.
No es fácil pronosticar. El sencillo ejercicio que acabamos de revisar sugiere prudencia. Quizás lo mejor sea no limitarse a una sola, sino combinar distintas métricas y registrar los resultados, para entender su comportamiento a lo largo del tiempo. Vale la pena el esfuerzo: un buen pronóstico de la demanda será determinante en disponer del inventario correcto y en cumplir los objetivos de nivel de servicio.
1 AMR Benchmark Research 2004
2 Chaman L. Jain. (2007-2008). Benchmarking Forecast Errors, en Journal of Business Forecasting, Winter 2007-2008
3 Escapa a este artículo demostrar el teorema del valor máximo del coeficiente de variación
4 Chase, Charles W. (2014). Innovations in Business Forecasting, en Journal of Business Forecasting, Spring 2014
5 Chockalingam, Mark (2009). “Forecast Accuracy and Safety Stock Strategies”, White Paper, Demand Planning LLC
Rodolfo Torres-Rabello es Director de Estudios y Consultoría del Instituto de Logística y Transportes de Chile (ILT). Es profesor en programas de postgrado en las Universidades Adolfo Ibañez y Alberto Hurtado. Profesor de Gestión de Operaciones en Ingeniería Comercial de la Universidad Alberto Hurtado. Investigador en Academia.edu. Coautor del libro “Supply Chain Management: logrando ventajas competitivas a través de la gestión de la cadena de suministro”, Edit. RIL Chile.