El análisis de series temporales, el estudio de datos observados secuencialmente a lo largo del tiempo, impregna una miríada de disciplinas. Desde la predicción de las tasas de desempleo mensuales y la producción diaria en plantas de manufactura [1, 2] hasta el pronóstico del tiempo, el rendimiento de las acciones en el mercado de valores, las tendencias del comercio electrónico y el diagnóstico de enfermedades en la atención médica [3], la capacidad de comprender y predecir patrones temporales es fundamental. Esta búsqueda no es meramente académica; responde a una necesidad intrínseca de anticipar el futuro basándose en las huellas del pasado. La evolución de este campo es una narrativa fascinante, impulsada no solo por la aparición de nuevos modelos, sino por las contribuciones visionarias de individuos clave —los “actores”— que identificaron problemas, propusieron teorías innovadoras y desarrollaron metodologías que han transformado nuestra capacidad para descifrar las complejidades del tiempo.
La ubicuidad de los datos de series temporales subraya la importancia de su análisis. En economía, se utiliza para modelar el PIB, la inflación y los ciclos económicos. En finanzas, es indispensable para la valoración de activos, la gestión de riesgos y la predicción de la volatilidad del mercado. Los meteorólogos lo utilizan para prever patrones climáticos, mientras que los ingenieros lo aplican al control de calidad y al mantenimiento predictivo de sistemas. En el ámbito de la medicina, el análisis de series temporales puede ayudar a monitorizar las constantes vitales de los pacientes o a predecir la propagación de enfermedades.[3] Esta amplia aplicabilidad pone de manifiesto por qué el desarrollo continuo de métodos más sofisticados y precisos, impulsado por los pioneros que se discutirán, ha sido tan crucial.
Formalmente, una serie temporal es una secuencia de observaciones sobre intervalos de tiempo separados de manera regular.[1, 2] Para analizar estas secuencias, es tradicional descomponerlas en varios componentes idealizados que, en conjunto, pueden explicar el comportamiento observado de la serie: * Tendencia (\(T_t\)): Representa la dirección general o el movimiento a largo plazo de la serie, ya sea creciente, decreciente o estable.[2] * Estacionalidad (\(S_t\)): Se refiere a las fluctuaciones periódicas que se repiten dentro de un período fijo (por ejemplo, anualmente, mensualmente o semanalmente). Estas fluctuaciones forman un patrón que tiende a repetirse de un período estacional al siguiente.[2] * Ciclo (\(C_t\)): Son desviaciones de la tendencia a largo plazo, generalmente de mayor duración que los patrones estacionales y no necesariamente de período fijo. Los ciclos suelen estar asociados con fluctuaciones económicas o empresariales más amplias.[2] * Movimiento Irregular o Ruido (\(I_t\) o \(\epsilon_t\)): Es el componente aleatorio o el error que queda después de que se han tenido en cuenta los movimientos de tendencia, estacionales y cíclicos. Representa la variabilidad impredecible en la serie.[2]
Estos componentes pueden combinarse de diferentes maneras. Los dos modelos más comunes son: * Modelo Aditivo: \(Y_t = T_t + S_t + C_t + I_t\).[4, 5] Se utiliza cuando la magnitud de las fluctuaciones estacionales o cíclicas es independiente del nivel de la serie. * Modelo Multiplicativo: \(Y_t = T_t \times S_t \times C_t \times I_t\).[4, 5] A menudo se transforma tomando logaritmos: \(\log(Y_t) = \log(T_t) + \log(S_t) + \log(C_t) + \log(I_t)\), convirtiéndolo en un modelo aditivo. Este modelo es apropiado cuando la variación estacional o cíclica aumenta o disminuye proporcionalmente con el nivel de la serie.
La evolución del análisis de series temporales es, en gran medida, una historia de individuos brillantes que respondieron a problemas específicos, a menudo prácticos, o a las limitaciones de los métodos existentes. George Udny Yule abordó el problema de las “correlaciones sin sentido”.[6] Eugen Slutsky exploró cómo la acumulación de causas aleatorias podría explicar los ciclos económicos.[7] George Box y Gwilym Jenkins buscaron proporcionar una metodología sistemática y práctica para que los analistas construyeran modelos ARIMA.[8] Robert Engle desarrolló el modelo ARCH para modelar la agrupación de volatilidad observada en los datos financieros.[9] Clive Granger, enfrentado al problema de las regresiones espurias, desarrolló el concepto de cointegración.[10, 11] En la era más reciente, Sepp Hochreiter y Jürgen Schmidhuber crearon las redes LSTM para superar el problema del desvanecimiento del gradiente,[12, 13] y Sean J. Taylor y Ben Letham diseñaron Prophet con el objetivo de simplificar la previsión empresarial.[3, 14]
| Período/Año Aprox. | Figura(s) Clave(s) | Contribución/Modelo/Concepto Principal |
|---|---|---|
| 1920s | George Udny Yule, Eugen Slutsky | Modelos Autorregresivos (AR), Conceptos de Media Móvil (MA) |
| 1938 | Herman Wold | Teorema de Descomposición de Wold |
| 1950s-1960s | Charles Holt, Peter Winters | Suavizamiento Exponencial con tendencia y estacionalidad |
| 1960s | Rudolf E. Kálmán | Filtro de Kálmán, Modelos de Espacio de Estados |
| 1970 | George Box, Gwilym Jenkins | Metodología Box-Jenkins para modelos ARIMA |
| 1980s | Robert F. Engle, Clive Granger, Tim Bollerslev | Modelos ARCH, Cointegración, Modelos GARCH |
| 1997 | Sepp Hochreiter, Jürgen Schmidhuber | Redes de Memoria a Corto y Largo Plazo (LSTM) |
| 2017 | Sean J. Taylor, Ben Letham | Facebook Prophet |
George Udny Yule (1871-1951) fue un estadístico británico, uno de los “padres fundadores” de la estadística moderna. Nacido en Escocia, estudió ingeniería antes de centrarse en la estadística bajo la influencia de Karl Pearson. Fue profesor en el University College de Londres y más tarde en Cambridge.[15]
La contribución más perdurable de Yule fue la introducción formal del modelo autorregresivo (AR). En su influyente artículo de 1927, “On a Method of Investigating Periodicities in Disturbed Series”, analizando la serie de manchas solares, propuso que el valor actual de la serie, \(Y_t\), podría depender linealmente de sus valores pasados. Un modelo AR de orden p, o AR(p), se formula de la siguiente manera:
\[ Y_t = c + \phi_1 Y_{t-1} + \phi_2 Y_{t-2} + \dots + \phi_p Y_{t-p} + \epsilon_t \]
donde \(c\) es una constante, \(\phi_1, \dots, \phi_p\) son los parámetros del modelo (los coeficientes autorregresivos), y \(\epsilon_t\) es un término de error de ruido blanco. Yule también fue uno de los primeros en advertir sobre el peligro de las “correlaciones sin sentido”, observando que dos series con tendencia podían mostrar correlaciones espurias.[6]
Eugen Slutsky (1880-1948) fue un economista y estadístico ruso-ucraniano, famoso tanto por la ecuación de Slutsky en la teoría del consumidor como por su trabajo en procesos estocásticos.[16]
Su trabajo sugirió que los fenómenos económicos complejos podían tener orígenes estocásticos. En su artículo de 1927, “The Summation of Random Causes as the Source of Cyclic Processes”, demostró que al aplicar una operación de media móvil (MA) a una serie de números aleatorios, se inducían patrones ondulatorios similares a los ciclos económicos reales.[7] Esto sentó las bases para los modelos de media móvil. Un modelo MA de orden q, o MA(q), se define como:
\[ Y_t = \mu + \epsilon_t + \theta_1 \epsilon_{t-1} + \theta_2 \epsilon_{t-2} + \dots + \theta_q \epsilon_{t-q} \]
donde \(\mu\) es la media de la serie, \(\theta_1, \dots, \theta_q\) son los parámetros del modelo, y \(\epsilon_t\) son los términos de error de ruido blanco.
Herman Wold (1908-1992), un estadístico y economista sueco, proporcionó una base teórica unificadora con su Teorema de Descomposición de Wold (1938).[17] Este establece que cualquier proceso estocástico estacionario en covarianza, \(Y_t\), puede representarse de forma única como la suma de dos componentes no correlacionados: un componente determinista y un componente estocástico. La formulación matemática es:[18]
\[ Y_t = \sum_{j=0}^{\infty} b_j \varepsilon_{t-j} + \eta_t \]
donde: * \(\varepsilon_t\) es un proceso de ruido blanco. * \(b_j\) son los coeficientes de la media móvil (con \(b_0 = 1\)). * \(\sum_{j=0}^{\infty} b_j \varepsilon_{t-j}\) es el componente estocástico puramente indeterminista. * \(\eta_t\) es el componente determinista.
Este teorema justificó teóricamente el uso de modelos ARMA como representaciones fundamentales de procesos estacionarios.
Rudolf E. Kálmán (1930-2016) fue un ingeniero y matemático húngaro-estadounidense que introdujo el filtro de Kálmán a principios de los 60, un algoritmo que revolucionó la estimación en sistemas dinámicos.[19] Este opera dentro del marco de los modelos de espacio de estados, que describen un sistema mediante dos ecuaciones:[20, 21]
donde \(w_k\) y \(v_k\) son ruidos de proceso y de medida, respectivamente. El filtro de Kálmán estima de forma óptima el estado \(x_k\) de forma recursiva, a través de un ciclo de predicción y actualización.
George E. P. Box (1919-2013) y Gwilym M. Jenkins (1932-1982) publicaron en 1970 su obra seminal, “Time Series Analysis: Forecasting and Control”.[8, 23] En ella, sistematizaron el conocimiento existente en una metodología coherente para los modelos Autorregresivos Integrados de Media Móvil (ARIMA). Usando el operador de rezago \(B\) (donde \(BY_t = Y_{t-1}\)), un modelo ARIMA(p,d,q) se puede escribir de forma compacta como:[24]
\[ \phi(B)(1-B)^d Y_t = \theta(B) \epsilon_t \]
donde: * \(\phi(B) = 1 - \phi_1 B - \dots - \phi_p B^p\) es el polinomio autorregresivo. * \(\theta(B) = 1 + \theta_1 B + \dots + \theta_q B^q\) es el polinomio de media móvil. * \((1-B)^d\) es el operador de diferenciación aplicado \(d\) veces.
La metodología Box-Jenkins (identificación, estimación y diagnóstico) transformó el modelado de series temporales en un proceso sistemático.[25]
Charles C. Holt y Peter Winters desarrollaron los métodos de suavizamiento exponencial para modelar directamente la tendencia y la estacionalidad.[28]
Robert F. Engle III (n. 1942), Premio Nobel 2003, abordó la “agrupación de la volatilidad” con su modelo ARCH (Heteroscedasticidad Condicional Autorregresiva).[9, 31] Un modelo ARCH(q) se especifica como:
\[ \epsilon_t = \nu_t \sigma_t \] \[ \sigma_t^2 = \omega + \sum_{i=1}^{q} \alpha_i \epsilon_{t-i}^2 \]
donde \(\sigma_t^2\) es la varianza condicional del error \(\epsilon_t\).
Sir Clive W. J. Granger (1934-2009), Premio Nobel 2003, desarrolló el concepto de cointegración para analizar relaciones entre series no estacionarias.[10, 32, 33] Dos series no estacionarias \(Y_t\) y \(X_t\) (ambas I(1)) están cointegradas si existe una combinación lineal de ellas que es estacionaria (I(0)). Es decir, si el término de error \(u_t\) de la siguiente regresión es estacionario:
\[ Y_t = \beta_0 + \beta_1 X_t + u_t \]
Esto implica una relación de equilibrio a largo plazo, cuya dinámica a corto plazo puede ser modelada por un Modelo de Corrección de Errores (ECM):
\[ \Delta Y_t = \alpha_0 + \alpha_1 \Delta X_t + \gamma(Y_{t-1} - \beta_0 - \beta_1 X_{t-1}) + \epsilon_t \]
donde \(\gamma\) es la velocidad de ajuste al equilibrio.
Tim Bollerslev (n. 1958), estudiante de Engle, extendió el modelo ARCH con el modelo GARCH (Heteroscedasticidad Condicional Autorregresiva Generalizada).[34, 35] Un modelo GARCH(p,q) se especifica como:
\[ \sigma_t^2 = \omega + \sum_{i=1}^{q} \alpha_i \epsilon_{t-i}^2 + \sum_{j=1}^{p} \beta_j \sigma_{t-j}^2 \]
El modelo GARCH permite que la varianza condicional actual dependa también de las varianzas condicionales pasadas, proporcionando un modelo más parsimonioso para capturar la persistencia de la volatilidad.
Sepp Hochreiter (n. 1967) y Jürgen Schmidhuber (n. 1963) introdujeron la arquitectura de Memoria a Corto y Largo Plazo (LSTM) para resolver el problema del desvanecimiento del gradiente en las RNN.[12, 37] Las ecuaciones clave de una célula LSTM son:[38]
Estas puertas regulan el flujo de información, permitiendo a la red aprender dependencias a muy largo plazo.
Sean J. Taylor y Ben Letham desarrollaron Prophet, una herramienta de pronóstico basada en un modelo aditivo descomponible:[3, 14, 39]
\[ y(t) = g(t) + s(t) + h(t) + \epsilon_t \]
donde: * \(g(t)\) es la función de tendencia (lineal por tramos o logística). * \(s(t)\) es el componente de estacionalidad, modelado con series de Fourier: \[ s(t) = \sum_{n=1}^{N} \left( a_n \cos\left(\frac{2\pi nt}{P}\right) + b_n \sin\left(\frac{2\pi nt}{P}\right) \right) \] * \(h(t)\) es el componente de festivos y eventos especiales. * \(\epsilon_t\) es el término de error.
La historia del análisis de series temporales es una de interconexión y progreso incremental. Las fronteras futuras incluyen modelos híbridos, IA Explicable (XAI), y el manejo de estructuras de datos más complejas e inferencia causal.