DECOHERENCIADO

  • Intuición herida: la inadmisibilidad de la media (Charles Stein)

    Tiempo estimado de lectura:

    3–5 minutos

    La media siempre ha sido el «hijo favorito» de la estadística, un estimador ideal, elegante y eficiente. Si nos apetece estudiar la altura de una población, el rendimiento de una máquina o incluso la posición de un astro, bastaba con sumar las observaciones y dividirlas por el total. Es prácticamente un punto de equilibrio perfecto, el estimador de máxima verosimilitud que nos entrega la verdad desnuda de los datos sin sesgos ni artificios.

    Charles Stein, en 1965 cometió el equivalente a una herejía estadística: destronó la media como mejor estimador para una situación extremadamente común, tachando el uso de este «hijo favorito» de inadmisible (literalmente).

    Cabe recalcar que la inadmisibilidad en el contexto matemático no significa que esté prohibido por ley usar ese método, sino que simplemente hay uno mejor, que usualmente da menos errores.

    Stein clavó una estaca en la intuición de las personas al demostrar que en el momento en el que intentamos medir 3 o más cosas al mismo tiempo, la media se vuelve inadmisible: el camino más corto hacia la precisión no es confiar ciegamente en cada dato individual, sino contaminar deliberadamente nuestras mediciones con la información de las demás.

    Un hallazgo contraintuitivo: la paradoja de Stein

    El enunciado matemático formal establece que, cuando se intentan estimar simultáneamente tres o más parámetros independientes (como las medias de distintos grupos) bajo una distribución normal, el estimador tradicional de la media muestral es inadmisible. Esto significa que, aunque la media parece el cálculo más lógico, existe un estimador alternativo (el de James-Stein) que garantiza un error cuadrático medio menor de manera universal.

    (En la práctica se suele usar la versión «parte postiva», para evitar que el factor encogimiento se vuelva negativo)

    Mediante la aplicación de un factor de encogimiento, este método corrige el ruido aleatorio de las observaciones individuales al atraerlas hacia un centro común, demostrando que en dimensiones altas (k > 3), la precisión global del sistema aumenta si se sacrifica la exactitud individual de cada dato.

    Contaminar los datos con otros funciona porque el azar es «ruidoso» y desordenado. Al obligar a los datos a compartir información, el ruido de uno se cancela con el ruido de otro, dejan al descubierto la señal real que subyace en el conjunto.

    La media falla a partir de la tercera dimensión: el fenómeno de la fuga de magnitud

    Para explicar bien este concepto hay que abandonar la aritmética simple y pensar dentro de la geometría espacial.
    Si estamos tratando de dar en el blanco de una diana, nuestro objetivo será el centro (llamémoslo θ), pero debido al azar (ruido), nuestros flechazos van a caer al rededor de este centro θ.

    Si solo estamos teniendo en cuenta una dimensión (una línea), nuestro margen de error está muy confinado, solo nos vamos a poder equivocar de derecha a izquierda.


    Con dos dimensiones (un plano x-y) nuestro error se extrapola a cualquier dirección dentro del círculo.

    Cuando pasamos a 3 dimensiones (tres distintos temas a estudiar), el espacio disponible para alejarse del centro crece de forma explosiva (se transforma en una una esfera).

    Explicación geométrica:

    El error total de nuestro estimador es la suma de los cuadrados de los errores individuales. Si tenemos k dimensiones, el error total (la distancia al cuadrado desde nuestra estimación al valor real) es:

    A medida que vamos añadiendo más dimensiones, se va sumando más fuentes de error positivo. En 1D o 2D, la probabilidad de que el vector de datos X sea una representación fiel de θ es alta. Pero a partir de k=3, el vector observado tiende a ser sistemáticamente más largo que el vector real de las medias.
    Debido a la geometría del espacio euclídeo, en 3D el «ruido» que mencionaba antes, tiende a empujar los datos hacia afuera del centro con más fuerza de la que los mantiene cerca. Los datos observados están, casi siempre, demasiado lejos de origen (nuestro blanco en la diana).

    Stein se dio cuenta de que en tres dimensiones, el estimador de máxima verosimilitud (la media) sufre de un exceso de confianza (da por hecho que los valores extremos son reales cuando en realidad muchas veces son producto del ruido expandido en el espacio tridimensional).
    Si se multiplica el vector por un factor menor que 1 (el encogimiento) lo que estamos haciendo es reconocer que la magnitud del vector observado es probablemente exagerada, y «encoger» el vector de vuelta hacia una zona con mayor probabilidad.

    El factor de encogimiento de James-Stein en 1 y 2 dimensiones no funciona, para k=1 el factor es negativo o directamente pierde sentido la reducción de riesgo y para k=2 el término se anula. Solo cuando k es mayor o igual 3, el beneficio de reducir la varianza (al encoger) es mayor que el daño de introducir un sesgo.

    Stein no «rompió la estadística», simplemente nos demostró que, a partir de la tercera dimensión, la intuición es el estimador más costoso de todos.

  • Satureja

    Tiempo estimado de lectura:

    2–3 minutos

    Créditos de la fotografía a Ángel Hidalgo.

    Hace un par de semanas, las redes sociales se llenaron de esta fotografía de un lince blanco, tomada por el fotógrafo Ángel Hidalgo en Jaén.
    El felino, bautizado como «Satureja» es una hembra de lince ibérico.

    En la mitología y las creencias antiguas, la rareza de los animales albinos o de pelaje blanco les confirió un estatus sagrado y poderoso. Se los consideraba criaturas tocadas por lo divino, funcionando como presagios de eventos cruciales o de un resurgimiento espiritual. Su aparición era interpretada como una señal de predestinación, indicando la manifestación de la pureza, la conexión con el mundo espiritual, o un mensaje directo de los dioses para aquellos que tenían la fortuna de encontrarlos.

    Sin ir más lejos, seguro que si has visto La Casa del Dragón (la precuela de Juego de Tronos), recuerdas la escena en la que el venado blanco, símbolo del presagio regio, se muestra en frente a la princesa Rhaenyra Targaryen (legítima heredera al trono de Hierro).

    Aunque haya habido un delirio colectivo de usuarios de twitter (X) pensándose que Satureja viene a guiar a España en la reconquista del «Imperio en el que nunca se ponía el sol» de Felipe II, en realidad el minino solo está estresado.

    Se ha abierto un debate sobre a qué se debe el color del pelaje de Satureja, y la ciencia tiene bastante más que decir que los usuarios de twitter o que Juego de Tronos.

    Primera hipótesis: albinismo

    Se descartó rápidamente ya que en el albinismo la ausencia total de melanina también afecta a los ojos, dejándolos rojizos, y Satureja mantiene los característicos ojos amarillos de los linces ibéricos.

    Segunda hipótesis: leucismo

    El leucismo es una condición genética rara que provoca la pérdida parcial de pigmentación en el pelo o la piel, mientras que los ojos mantienen su color habitual.

    Sin embargo, las últimas investigaciones y declaraciones de los expertos del Proyecto Life Lynx Connect, coordinadores del Plan de Recuperación del Lince Ibérico en Andalucía, han descartado esta teoría genética.
    El leucismo se descartó porque la condición de la lince Satureja no es una mutación genética permanente y de nacimiento. Esto es, básicamente, que nació con su pelaje normal y que la coloración blanca se produjo después (adquirida) y que es reversible, resulta además que Satureja estaba emparentada con linces que han presentado el mismo patrón y pelaje que ella y estos han terminado recuperando su color.

    Una despigmentación temporal causada por el estrés.

    Tristemente, una despigmentación temporal y reversible del color del pelaje de Satureja es, de forma más probable, una respuesta fisiológica causada por el estrés. En humanos podemos ver esta alteración en la síntesis de melanina en la pérdida temporal de pigmento en el cabello cuando pasamos por situaciones de alta tensión.

    Los linces son animales muy sensibles a su entorno y Satureja, más allá de un símbolo de presagio, nos recuerda a todos, a la comunidad científica y al público, la fragilidad del ecosistema y la necesidad de continuar los esfuerzos de conservación de esta especie.

    Estrategia para la conservación del lince ibérico

    Conservación del lince ibérico

    PROGRAMA DE CONSERVACIÓN EX-SITU DEL LINCE IBÉRICO

  • El reloj biológico de nuestro amigo «Abeconejo»

    Tiempo estimado de lectura:

    2–3 minutos

    He estado veraneando el pasado mes de agosto en casa de mis tías. Es una casa que tiene un jardín rodeado de matorrales, árboles y hiedras donde hay moderada vida silvestre. La protagonista de este verano ha sido una avispa, apodada Abeconejo que nos ha visitado en cada uno de nuestros desayunos, comidas y cenas.

    Era muy increíble porque el bichito aparecía exactamente a las mismas horas, no llegaba ni tarde ni pronto ningún día, tampoco se traía otras amigas (lo cual agradecíamos) ni visitaba la mesa en otro momento que no fuera en las tres comidas principales.

    Abeconejo, dejo claro desde ya, sigue con vida y paseándose por el jardín.

    Es muy curioso porque las avispas tienen un impresionante sistema de roles dentro de sus colonias. Tras investigar un poco he descubierto que Abeconejo es una avispa obrera solitaria exploradora. Las avispas obreras son hembras estériles, y en su rol de exploradora tiene como objetivo buscar fuentes de alimento para las larvas del nido y, más tarde en el verano, también azúcares para las obreras adultas.

    Abeconejo es especialmente fan del aguacate.

    ¿Cómo sabía la avispa exactamente dónde y a qué hora iba a haber comida?

    Cuando una avispa obrera localiza una fuente de comida abundante y fiable, lo que hace es memorizar con puntos de referencia visuales (árboles, edificios, sombrillas, muebles…) dónde está el festín. Además nuestra inteligente amiga memorizó los horarios para optimizar sus viajes a cuando sabía que la comida era accesible.

    ¿Por qué no llamaba a sus amigas?

    La hipótesis principal es que al ser una exploradora y la fuente de comida no era duradera (porque solo estábamos un ratito comiendo) entonces no le merecía la pena volver a la colmena a llamar a más avispas, probablemente la cantidad de comida que se llevaba de la mesa eran tres buenas raciones diarias para las larvas, puede ser también que el nido estuviera lo suficientemente lejos como para que la señal de reclutamiento no fuera inmediata o prioritaria para otras, o simplemente Abeconejo era tan eficiente que no necesitaba ayuda.

    Ya que nosotras no molestamos en ningún momento a nuestra amiga avispa, es más, algún día le pusimos su propio plato, Abeconejo dedujo que nuestra terraza era un lugar seguro y rentable para obtener comida y adaptó su horario de búsqueda de alimentos a nuestras horas de comer, haciéndonos compañía durante el tiempo que estuve allí.

    Hay que recordar que las avispas desempeñan un papel fundamental en la naturaleza: actúan como depredadoras de plagas de otros insectos (como pulgones y orugas), ayudando a equilibrar los ecosistemas, también son carroñeras y se comen restos de carnes o frutas podridas, y en menor medida, contribuyen a la polinización de algunas plantas. De esta manera, su presencia, aunque a veces invasiva y algo molesta para nosotros los humanos, es un indicador de un entorno natural saludable.
    Otra baza a favor de estos insectos sociales es que por lo general, las avispas raramente pican a menos que se sientan directamente amenazadas o se ponga en peligro su avispero.

    Para nosotras Abeconejo siempre fue un comensal más.

  • La órbita de Ceres y la batalla de los mínimos cuadrados

    Tiempo estimado de lectura:

    6–9 minutos

    1. A ti, 216 años después:

    Hoy en clase de Métodos de Predicción Lineal, nuestro profesor nos ha presentado un breve recorrido histórico sobre la evolución de las técnicas empleadas en este campo, deteniéndose especialmente en un famoso rifirrafe entre dos grandes figuras: Carl-Friedrich Gauss el príncipe de los matemáticos, y el francés Adrien-Marie Legendre, a propósito de uno de los procedimientos más influyentes en la estadística y la astronomía: el método de los mínimos cuadrados.

    2. El contexto histórico: finales del siglo XVIII

    Isaac Newton (1643-1727) abrió la puerta a una nueva forma de entender el universo: sus leyes pusieron en marcha a generaciones de investigadores dispuestos a comprobar, con telescopios y cálculos, los principios que podían sostener el mundo. Décadas después de su muerte, con la mecánica newtoniana en vías de consolidarse, la mirada científica se centraba en confirmar aquellas teorías físicas a través del movimiento de los astros. Afinar las órbitas a partir de datos imperfectos permitía comprobar si las leyes de Newton describían fielmente la realidad o si, por el contrario, existían desviaciones que podían apuntar a fenómenos aún desconocidos.

    3. ¿Cómo se medían las distancias a los astros en el siglo XVIII?

    Dado que hace 200 años no tenían telemetría láser como la que usamos hoy en día para medir distancias dentro del Sistema Solar, los astrónomos recurrían a métodos geométricos y trigonométricos, aprovechando principios ópticos y las leyes de Newton y Kepler. Las técnicas clave eran:

    1) Paralaje:

    Se observaba el mismo astro desde dos puntos distintos de la Tierra (o en diferentes momentos, usando el movimiento de la Tierra en su órbita) y, a partir del ángulo de desviación aparente, se calculaba la distancia por trigonometría. Fue fundamental para medir distancias a la Luna (como he ilustrado en las fotos) y, más tarde, a planetas cercanos. De hecho he mencionado en anteriores artículos a Friedrich Bessel, matemático, astrónomo y primer hombre en determinar el paralaje de una estrella.

    2) Tránsitos planetarios (Venus):

    En especial, los tránsitos de Venus (cuando pasa por delante del disco solar). Al observarlos desde distintos lugares del globo, se podía calcular el paralaje solar y con ello estimar la distancia media Tierra-Sol (la Unidad Astronómica). Esta fue una de las grandes campañas científicas del siglo XVIII: los tránsitos de 1761 y 1769 movilizaron expediciones internacionales (Cook, Chappe d’Auteroche, entre otros).
    Recomiendo encarecidamente este estudio del Centro Nacional de Información Geográfica:

    Tránsitos: La medida del sistema solar y de otros sistemas planetarios

    3) Aplicación de las leyes de Kepler y Newton:

    Midiendo posiciones relativas (ángulos, tiempos, periodos orbitales), se podían deducir proporciones de distancias y tamaños de órbitas.
    Newton mismo, en los Principia (1687), mostró cómo derivar relaciones de distancia a partir de periodos orbitales.
    He encontrado en la página de la UPV unos recursos online sobre dinámica celeste en la que se explica muy bien la descripción del movimiento relativo del cuerpo y trata justamente de cómo se derivan relaciones de distancia a partir de los periodos orbitales, es decir, la tercera ley de Kepler puesta en términos relativos:

    El valor absoluto (en km) llegó al combinar esta relación con mediciones de paralaje solar o de tránsitos de Venus, que dieron la escala real del Sistema Solar.

    4. El desafío matemático del cambio de siglo: la órbita de Ceres

    En 1801, el astrónomo italiano Giuseppe Piazzi descubrió un nuevo cuerpo celeste, al que denominó Ceres, entre Marte y Júpiter.
    Piazzi solo pudo observar a Ceres durante 41 días, antes de que el cuerpo celeste se ocultara tras del sol. Para que los astrónomos pudieran volver a encontrar a Ceres y continuar con su estudio, era necesario calcular su órbita y predecir su futura posición en el cielo.

    Ilustración en la portada del libro de Giuseppe Piazzi, Della scoperta del nuovo pianeta Cerere Ferdinandea (1802) en el que anuncia el descubrimiento.

    Durante mucho tiempo a Ceres se le consideró el primer asteroide conocido. Sin embargo, con el avance de la astronomía y el descubrimiento de otros cuerpos similares, en 2006 la Unión Astronómica Internacional lo reclasificó como planeta enano, el más pequeño del Sistema Solar.

    Leer más sobre Ceres y los planetas enanos (NASA)

    5. Adrien-Marie Legendre

    Adrien-Marie Legendre (1752-1833) fue un matemático francés de primer nivel, una figura clave en la transición entre el siglo XVIII y XIX.
    En 1805 publicó su obra Nouvelles méthodes pour la détermination des orbites des comètes, donde presentó por primera vez de manera formal el método de los mínimos cuadrados (en la imagen 2, a continuación), méthode des moindres carrés, sin ligarlo a la probabilidad.
    Legendre no participó en el famoso caso de la órbita de Ceres, su obra trataba de forma general de los cálculos de las órbitas de los cometas.

    Obra original: Nouvelles méthodes pour la détermination des orbites des comètes

    6. Carl Friedrich Gauss

    Carl Friedrich Gauss (1777–1855), el príncipe de los matemáticos.
    En 1795, con tan solo 18 años, Gauss afirmaba haber desarrollado de manera independiente el método de los mínimos cuadrados, aunque no lo publicó en ese momento. Lo aplicó por primera vez con éxito en el cálculo de la órbita del recién descubierto asteroide Ceres en 1801. Mientras otros métodos fracasaban en predecir su posición tras desaparecer detrás del Sol, las predicciones de Gauss, basadas en este procedimiento, resultaron extraordinariamente precisas y permitieron redescubrir el cuerpo celeste en diciembre del mismo año.
    En 1809, Gauss publicó su obra mayor en astronomía, Theoria motus corporum coelestium, donde incluyó no solo el método de los mínimos cuadrados, sino también una justificación matemática rigurosa a partir de la teoría de la probabilidad. Fue allí donde declaró haberlo usado desde 1795, reforzando su reivindicación de prioridad frente a Legendre.

    “Por lo demás, nuestro principio, que hemos utilizado desde el año 1795, ha sido publicado recientemente también por el ilustre Legendre en su obra Nouvelles méthodes pour la détermination des orbites des comètes, París, 1806…”

    Con esta afirmación, Gauss daba a entender que había llegado al método antes de la publicación de Legendre, aunque nunca lo hubiera difundido. Esa expresión, “nuestro principio”, fue interpretada por Legendre como un intento de apropiarse de la prioridad, y marcó el inicio abierto de la controversia.

    Obra original: Theoria motus corporum coelestium

    7. La disputa


    «Principium nostrum» o Gauss utilizando el plural mayestático…
    Esta afirmación molestó profundamente a Legendre, que defendía que la prioridad debía otorgarse siempre al primero en publicar, y no al que alegaba haber usado un método sin pruebas impresas, incluso si esa persona era el mismísimo Gauss.
    Primero lo expresó en una carta privada a Gauss en 1809, y más tarde, con mayor firmeza, en una nota añadida al suplemento de 1820 de su obra, donde lo acusaba abiertamente de atribuirse descubrimientos ajenos y recordaba que algo similar había sucedido con la ley de reciprocidad cuadrática (un teorema fundamental de la teoría de números que establece una relación entre la solubilidad de dos ecuaciones de congruencia cuadrática), enunciada por Euler en 1754, formulada por él en 1785 y demostrada rigurosamente por Gauss en 1801.
    Gauss, por su parte, nunca respondió públicamente al ataque de Legendre, pero en su correspondencia privada reafirmó que había usado el método desde la década de 1790 y que varios astrónomos como Olbers o Lindenau podían dar fe de ello.
    Heinrich Wilhelm Olbers (descubridor de Palas en 1802) y Bernhard von Lindenau estuvieron entre los astrónomos que intentaron calcular sin éxito la órbita de Ceres usando los métodos tradicionales de la época (aproximaciones geométricas y ajustes manuales).

    8. El desenlace

    Con el tiempo, la historiografía matemática zanjó el debate de forma más o menos equilibrada: Legendre fue el primero en publicar el método, mientras que Gauss fue quien lo dotó de una fundamentación matemática sólida y lo consolidó como herramienta indispensable en astronomía y estadística.

    ¿En qué consiste exactamente el método de los mínimos cuadrados?

    El método de los mínimos cuadrados ajusta un modelo lineal a datos eligiendo los parámetros que minimizan la suma de los errores al cuadrado entre lo observado y lo predicho (proyecta los datos sobre el espacio generado por los predictores). Con ello obtiene estimaciones estables y, bajo supuestos habituales, óptimas entre las lineales e insesgadas.

    Un repaso más exhaustivo sobre el MCO: bibliografía de la Universidad de Sevilla.

    9. Para ti, dentro de 216 años:

    Lo que entonces estuvo marcado por una disputa de prioridad con Legendre terminó convirtiéndose en la lengua franca de la predicción lineal: una idea sencilla —proyectar los datos sobre el espacio generado por los predictores— que sostiene desde la astrometría y la geodesia hasta la econometría, la calibración de sensores y el aprendizaje automático. No solo es una reliquia histórica, sino también una herramienta de uso diario. Llega a las manos de estudiantes como yo en las primeras asignaturas de la carrera y nos acompaña cada vez que ajustamos una recta, validamos un modelo o estimamos un efecto.
    He ahí el arco de esta historia: del choque de firmas a una idea que, 216 años más tarde (a octubre de 2025) continúa trazando líneas de sentido sobre el mundo.

  • De la magnetosfera al pronóstico: física y modelos detrás de las auroras boreales

    Tiempo estimado de lectura:

    5–8 minutos

    Umeå, Suecia, el pasado 29 de septiembre (foto tomada por mi)

    Dedicado a mi amor, Matthieu, y a mi cazadora de auroras favorita, Antonia.


    No me queda más remedio de tacharme de la persona más afortunada de la tierra, por mil razones, pero el pasado lunes entró en la lista el haber sido testigo de uno de los fenómenos electromagnéticos más alucinantes que se pueden ver en nuestro planeta: las auroras boreales.

    Las auroras boreales (y las auroras en general)

    Las auroras boreales (en el hemisferio norte) y las auroras australes (en el hemisferio sur) son fenómenos luminosos que dan lugar en la atmósfera superior (ionosfera) cuando las partículas cargadas (electrones e iones) originadas por el Sol (viento solar) interactúan con el campo magnético terrestre y con los gases del aire (principalmente oxígeno y nitrógeno).

    El proceso:

    El sol lanza partículas cargadas hacia el espacio, como en el viento solar, eyecciones de masa coronal o agujeros coronales. Algunas de esas partículas viajan hacia la Tierra y llegan a nuestro entorno magnetosférico (como se ve en la imagen).

    El campo magnético terrestre desvía muchísimas de esas partículas, sin embargo algunas quedan atrapadas y viajan por las líneas del campo magnético hacia las regiones polares, regiones magnéticamente conectadas.

    A la hora de penetrar la ionosfera, las partículas colisionan con moléculas y los átomos de oxígeno y nitrógeno. Las colisiones excitan los átomos, que liberan fotones cuando vuelven a niveles de energía más bajos, generando luz visible.

    La forma y el color depende de la energía de las partículas, altitud, tipo de gas, las densidades locales, etc.

    Del mismo modo que la Luna, a través de su gravedad, levanta las mareas y moldea el pulso del océano, el Sol agita un mar distinto: un océano de partículas y campos magnéticos que envuelve a nuestro planeta. Cuando ese oleaje solar alcanza la Tierra, no mueve el agua, sino la atmósfera superior, encendiendo el cielo en las auroras boreales.

    Las auroras son más frecuentes y visibles cerca de los polos porque allí las líneas de campo magnético convergen y permiten que partículas penetren más fácilmente en la atmósfera.

    Estas “rosquillas” de partículas cargadas atrapadas por el campo magnético rodean la Tierra y actúan como un escudo frente al viento solar. Cuando parte de esa energía logra canalizarse hacia los polos, se manifiesta en forma de auroras boreales y australes.

    Pensar que cuanto más frío haga, mayores son las las probabilidades de ver auroras es un error común. La temperatura del aire no influye en absoluto en su aparición: las auroras no dependen del clima terrestre, sino de la actividad solar y del comportamiento del campo magnético que rodea nuestro planeta como acabo de explicar exhaustivamente. Tampoco es cierto que solo se manifiesten en pleno invierno (en verano la luz solar las oculta, pero no desaparecen) o que sea un privilegio exclusivo del norte (o del sur-bien-al-sur) durante las tormentas solares más intensas, el óvalo auroral puede expandirse y dejar su rastro luminoso incluso en latitudes medias, el 18 de enero de 1770, una aurora fue observada en varios puntos de España, desde Gerri de la Sal (≈ 42.3° N) hasta San Cristóbal de la Laguna, en Canarias (≈ 28.5° N).

    Comprender cuándo y dónde aparecerán no tiene que ver con termómetros ni estaciones, sino con aprender a leer el lenguaje del viento solar y de la magnetosfera: justo lo que intentan los métodos científicos de predicción auroral.

    Limitaciones y avances en la predicción de visibilidad de las auroras boreales

    Predecir auroras es complejo porque involucra procesos solares, interplanetarios y magnetosféricos que evolucionan en múltiples escalas de tiempo. Sin embargo, los científicos usan una combinación de métodos que se pueden clasificar según el horizonte temporal (años, días, horas, minutos).

    Los modelos empíricos y estadísticos: el modelo OVATION

    Uno de los enfoques más utilizados en la predicción operativa es el de los modelos empíricos, construidos a partir de observaciones y correlaciones entre parámetros solares y la ocurrencia real de auroras.
    El modelo OVATION (Oval Variation, Assessment, Tracking, Intensity, and Online Nowcasting) desarrollado por el Space Weather Prediction Center es un modelo que utiliza variables medidas en tiempo real (como la velocidad del viento solar, la densidad de partículas y el campo magnético interplanetario para estimar la probabilidad y la localización del «óvalo auroral». La fortaleza de este modelo está en la inmediatez: pronósticos de entre 30 y 90 minutos con relativa precisión. Sin embargo, como todo modelo estadístico, depende de la calidad de los datos y tiende a fallar bajo condiciones extremas o imprevistas del clima espacial.

    Modelos físicos o de acoplamiento global

    Los modelos empíricos se basan en correlaciones, los modelos físicos intentan reproducir los procesos reales del sistema Sol-Tierra. Estos modelos integran complejísimas ecuaciones de magnetohidrodinámica (MHD) para describir cómo el plasma solar interactúa con el campo magnético terrestre y cómo esa energía se transmite hacia la ionosfera.
    En los llamados «modelos de acoplamiento global», la magnetosfera y la ionosfera se tratan como un sistema interdependiente (dependen mutuamente unos de otros y, al fallar uno, los demás también se ven afectados), donde las corrientes eléctricas, los campos y la dinámica del plasma evolucionan de forma conjunta.
    Como ventaja frente a otros modelos, este permite explorar las causas físicas de las auroras, no solo precedirlas.
    Sin embargo, como he mencionado antes sobre las ecuaciones de magnetohidrodinámica, se requiere de una gran capacidad de cálculo, y estos modelos presentan aún incertidumbres debidas a la complejidad del plasma espacial y a la falta de datos continuos en ciertas regiones de la magnetosfera.

    La asimilación de datos y mejora con observaciones satelitales.

    La prácticamente línea más prometedora de la predicción moderna es la asimilación de datos, una línea que combina modelos teóricos con observaciones reales para ajustar y mejorar los pronósticos en tiempo casi real. Al incorporar mediciones directas del viento solar, de la radiación o de la luminancia auroral —proporcionadas por satélites como DSCOVR, ACE o los sensores VIIRS del programa Suomi NPP—, los modelos pueden corregir sus estimaciones y ofrecer predicciones más precisas de la ubicación y la intensidad de las auroras visibles.
    Este enfoque híbrido, muy similar al que se usa en la meteorología terrestre, representa un paso decisivo hacia una predicción operacional más fiable. Aun así, sigue limitado por la latencia de los datos y por la dificultad de observar de forma continua todo el entorno espacial que rodea a la Tierra.

    El futuro de la predicción de auroras parece tan brillante como las propias luces que busca anticipar. Cada nuevo satélite, cada mejora en los modelos del clima espacial y cada avance en la inteligencia artificial nos acercan un poco más a comprender el lenguaje invisible entre el Sol y la Tierra. Pero, por ahora, aún hay algo de azar en cada aparición: una conversación entre ciencia y fortuna. Quizá por eso, haber visto una aurora durante mis tres breves noches en Umeå fue un regalo improbable, una coincidencia perfecta entre la física y la suerte, entre el cálculo y la magia. Y mientras la ciencia sigue afinando sus pronósticos, seguirá existiendo ese momento irrepetible en que el cielo decide encenderse justo cuando estamos mirando.