Predicción del consumo eléctrico (III): una aproximación con time-series

En anteriores entradas he modelizado la demanda peninsular de REE (concretamente la previsión de dicha demanda) con diferentes aproximaciones y técnicas. Básicamente, he tratado de predecir el consumo diario con bastante éxito a través de random forest, correlacionando los datos de temperatura del aeropuerto de Madrid a nivel diario y creando variables nuevas que identificaban el tipo de días (festivo o laboral), el día de la semana, el mes o el quarter.

A continuación, me he atrevido a realizar el mismo modelo pero con una granularidad horaria, al poder adquirir de forma gratuita los datos de temperatura horarios de la estación meteorológica del aeropuerto en cuestión. El R2 del modelo, o varianza explicada por el mismo, cayó estrepitosamente, poniendo de manifiesto que este tipo de predicción tienen un plus de dificultad respecto a la predicción horaria.

Aproximación por series temporales

En esta entrada, trataré con series temporales (en adelante time-series), que son objetos cuya naturaleza implican que puede existir una autocorrelación entre los valores (de consumo en este caso) de una serie dada. Parece obvio que en el sector eléctrico, el efecto curva o apalancamiento o apuntamiento dé lugar a trabajar con time-series, dado que efectivamente existen unos patrones repetitivos de consumo a lo largo del tiempo.

Datos de partida

Recuperando el dataset de la previsión de datos de REE, tengo:

Para la modelización, utilizaré una aproximación univariada, es decir, únicamente con la variable de la propia previsión de demanda. Por tanto, no hará falta generar variables nuevas que indiquen días festivos, de la semana, del mes u otros.

Una obviedad que merece la pena resaltar es que los datos presentan múltiples estacinoalidades (como cualquier curva de consumo), concretamente:

  • Estacionalidad horaria: en frecuencias de 24 horas.
  • Estacionalidad semanal: en frecuencias de 7 días (o 168 horas).

La mayoría de los modelos de time-series no permiten múltiples estacionalidades, y en general, no trabajan con datos horarias, sino diarios o de frecuencias menores. Esto supone un grave problema, ya que no tendría demasiado sentido aplicar un modelo ARIMA como hice en el forecast del % cuota de mercado regulado vs mercado liberalizado, cuya frecuencia era mensual.

Sin embargo, se dispone de una opción que podría arrojar un resultado aceptable: el modelo TBATS.

Modelo TBATS

Este modelo, introducido por De Livera, Hyndman & Snyder (2011, JASA), permite modelizar múltiples estacionalidades, aunque por contra, no permite añadir regresores o variables independientes como la temperatura, por ejemplo. Como curiosidad, el acrónimo del modelo viene de:

  • T (Trigonometric regressors): regresores trigonométricos para múltiples estacionalidades.
  • B (Box-Cox transformations): transformación de Box-Cox, para corregir el defecto de normalidad en los datos.
  • A (ARMA errors): modelización de los errores del ARIMA.
  • T (trend): tendencia.
  • S (seasonality): estacionalidad.

Dado que el TBATS es computacionalmente lento de calcular, realizaré la modelización sobre los datos correspondientes al 1 de junio de 2018 en adelante, y este será el set de entrenamiento. Me reservaré los últimos 10 días para realizar la predicción (este será el set de testeo).

library(xts)
library(forecast)

# Transformo el dataset en una serie temporal
prevision_demanda_ts <- prevision_demanda_horaria %>% 
                        filter(datetime >= "2018-06-01") %>% 
                        select(prevision_demanda) %>% 
                        ts()

# Set de entrenamiento 4 meses aprox.
trainset <- subset(prevision_demanda_ts, end=length(prevision_demanda_ts)-241)

# Set de testeo de 10 días
testset <- subset(prevision_demanda_ts, start=length(prevision_demanda_ts)-240)

# Entrenamiento del modelo TBATS
fit_trainset_tbats <- tbats(trainset, seasonal.periods = c(24, 168))

# Grafico la descomposición de la serie
plot(fit_trainset_tbats)

# Datos del modelo
fit_trainset_tbats
## TBATS(1, {3,3}, -, {<24,11>, <168,6>})
## 
## Call: tbats(y = trainset, seasonal.periods = c(24, 168))
## 
## Parameters
##   Alpha: 0.1704534
##   Gamma-1 Values: -1.181729e-05 -0.0002741255
##   Gamma-2 Values: 0.0003333091 -0.0001486422
##   AR coefficients: 2.509226 -2.132415 0.597674
##   MA coefficients: -1.361167 -0.033485 0.455543
## 
## Seed States:
##              [,1]
##  [1,] 27071.61044
##  [2,] -2943.90605
##  [3,]   977.24283
##  [4,]   -95.02911
##  [5,]  -199.97748
##  [6,]  -183.19742
##  [7,]   -53.39966
##  [8,]    81.86592
##  [9,]    46.67573
## [10,]    26.79589
## [11,]    20.76779
## [12,]    18.47065
## [13,] -3463.15170
## [14,] -1267.21935
## [15,]  -189.19441
## [16,]   -32.36151
## [17,]   -69.16750
## [18,]   136.45112
## [19,]    16.91510
## [20,]    73.46525
## [21,]    21.42335
## [22,]   -15.09000
## [23,]   -10.34133
## [24,]   964.35825
## [25,]   990.00589
## [26,]  -578.75507
## [27,]   431.78187
## [28,]  -642.67797
## [29,]    67.31657
## [30,] -2250.21495
## [31,]  1167.79782
## [32,]   -70.87726
## [33,]    93.56245
## [34,]   298.52167
## [35,]  -735.64700
## [36,]     0.00000
## [37,]     0.00000
## [38,]     0.00000
## [39,]     0.00000
## [40,]     0.00000
## [41,]     0.00000
## 
## Sigma: 390.1987
## AIC: 57893.48
# Grafico residuos del modelo
checkresiduals(fit_trainset_tbats)

## 
##  Ljung-Box test
## 
## data:  Residuals from TBATS
## Q* = 2048.8, df = 3, p-value < 2.2e-16
## 
## Model df: 52.   Total lags used: 55

El gráfico de descomposición del time-series muestra las dos estacionalidades, horaria (muy comprimida y poco visible ciertamente) y la semanal, mucho más obvia visualmente.

El gráfico ACF o de autocorrelación muestra un pico significativo en el valor 24 (obvio, es una de las estacionalidades) y también son relevantes picos en las horas 3, 5 y 7, posiblemente dado por el efecto curva del consumo.

Por último, el histograma de residuos o errores muestra una distribución normal, y cuya media es 0, lo que parece indicar que el modelo se deja poca información para explicar la variabilidad.

Predicción de 10 días de demanda horaria

Realizaré ahora la predicción sobre unos datos ciegos al entrenamiento, de 10 días:

# Realizo predicción sobre los 10 días de testeo
demanda_forecast <- forecast(fit_trainset_tbats, h=240)

# Grafico resultado
autoplot(demanda_forecast) + autolayer(testset)

# Medidas del error sobre el set de testeo
accuracy(demanda_forecast, testset)
##                        ME      RMSE       MAE         MPE      MAPE
## Training set    0.9445855  390.1987  279.8655 -0.01426947 0.9825968
## Test set     -545.1009296 1315.6213 1086.5339 -1.93740090 3.9349904
##                   MASE       ACF1 Theil's U
## Training set 0.2960429 0.01053582        NA
## Test set     1.1493401 0.78113839 0.9806336

Los resultados arrojan un error medio absoluto (MAE) de 301 MWh (o 1.05%) en el set de entrenamiento y de 904 MWh (o 3.36%) en el set de testeo. No está mal para empezar con una aproximación simple, simplemente escogiendo el modelo que tiene sentido escoger dada la naturaleza de nuestros datos.

Podría iterar sobre el set de entramiento ideal, (más corto, más largo…) y lógicamente acotar el forecast a las siguientes 24 horas, que es para cuando el operador realizaría la compra de energía en el mercado mayorista. Aquí es donde realmente empezaría el trabajo del analista.

 
comments powered by Disqus