Llevo unos meses trabajando en un proyecto donde aplicamos modelos de aprendizaje automático a series temporales de ventas, y me ha surgido una duda práctica. Aunque logramos un ajuste decente, tengo la sensación persistente de que nos estamos perdiendo algo al no incorporar una perspectiva causal en el análisis. Me preocupa que las correlaciones que estamos usando para las predicciones puedan romperse fácilmente con un cambio en la estrategia comercial, y no sé cómo empezar a validar esa intuición o qué enfoques alternativos considerar sin tener que replantear todo el trabajo desde cero.
|
Qué enfoque causal añadir a un proyecto de ML con series temporales?
|
|
La causalidad podría darte una pista real y no solo una correlación bonita. Empieza por identificar intervenciones o políticas que puedas aislar como promociones cambios de precio o campañas en canales. Un DAG sencillo ayuda a visualizar posibles confusores y direcciones de causalidad y luego compara escenarios como quitar la promo o cambiar el precio. Haz pruebas de sensibilidad y backtests con escenarios de intervención para ver si el efecto se mantiene. No hace falta reformular todo; se trata de incorporar una perspectiva causal de forma incremental y con registro.
Si tus predicciones se sostienen solo por correlaciones, una chispa de escepticismo no va a estar de más. Prueba cambios de estrategia con pruebas A B o con análisis de intervención para medir efectos reales y ver si la señal es robusta ante variaciones. Mantén un enfoque pragmático y evita obsesionarte con un marco perfecto de causalidad sino con la resiliencia frente a escenarios.
Me gusta la intuición de la causalidad pero podría ser un salto grande para un proyecto ya en marcha. Prueba con dos o tres variables de intervención y observa si el modelo cambia de forma razonable ante ellas. La idea es introducir preguntas causales sin desorganizar el flujo, no es un libro de texto es una prueba que dice si la correlación resiste cambios de estrategia.
Una ruta práctica añade a tu modelo actual una capa de efectos causales simples con variables de intervención y compara con un enfoque de diferencias en diferencias si puedes separar grupos o periodos. Haz backtests de escenarios como si la empresa cambiara de canal o de promo y observa la variación en las predicciones y en los errores. Mantén las asunciones explícitas para la conversación del equipo.
Qué defines como éxito si la causalidad no se mantiene cuando cambia la estrategia?
Quizá el reto no es imponer causalidad sino robustez. Usa simulaciones de escenarios pruebas de hipótesis y validación fuera de la curva histórica. Puedes hacer simulaciones de intervención para estimar efectos contrafactuales sin reescribir todo el pipeline. Si algo falla la conversación del equipo puede tomar un giro más práctico.
|
|
« Tema anterior | Tema siguiente »
|

