Corre el archivo mil veces, anota cómo terminan los cuartos de ataque y defensa, y elige la alineación que más puntos genera. Así trabajan los cuerpos técnicos que han adoptado la generación masiva de escenarios para decidir si presionan arriba, si cambian de sistema o si meten al juvenil desconocido. El ordenador lanza el balón virtual, recoge dónde cae cada pase, y devuelve un porcentaje: 67 % de victoria si se juega con tres centrales, 58 % con línea de cuatro. La diferencia basta para mandar al banquillo al defensa que ayer era titular.
El truco está en no fiarse del primer resultado. Se repite la jugada diez mil veces, se alteran las condiciones climáticas, se simula que el árbitro es estricto o permisivo, se sube y baja la intensidad del rival. Solo se acepta la estrategia que sobrevive a la mayoría de las perturbaciones. El cuerpo médico lo usa también: calcula la probabilidad de lesión de cada futbolista tras 180 minutos en diez días y ajusta la rotación. El día que el modelo advirtió un riesgo del 34 % en el ligamento del extremo, el jugador se quedó en casa; al día siguiente su sustituto marcó dos goles y el club pasó de ronda.
Fundamentos del método Monte Carlo en análisis deportivo
Corrige la alineación defensiva cada 1000 sorteos virtuales: si la probabilidad de encajar gol supera el 42 %, desplaza el carril del lateral cinco metros hacia dentro y vuelve a lanzar la rutina hasta obtener un valor inferior.
El núcleo de la estrategia es convertir cada jugada en una distribución de posibles resultados. Se fijan las frecuencias observadas: pases completados, tiros bloqueados, desmarques fallidos. A partir de ahí se generan millones de trayectorias aleatorias que respetan esas frecuencias. El entrenador no recibe una predicción única, sino un abanico de escenarios con su peso específico; elegir la opción que acumule mayor área bajo la curva de victoria es cuestión de segundos.
El algoritmo exige tres pilares: un generador de números uniformemente distribuidos, una función que transforma esos valores en eventos futbolísticos y un contador de ocurrencias. Nada más. La bondad del generador se prueba con la prueba de Marsaglia; si falla, todo lo demás se desmorona. La transformación se construye tabulando las frecuencias históricas del equipo rival: si el extremo derecho acelera en 78 % de las transiciones, el sorteo dirá "sí" con esa misma proporción. El contador simplemente acumula victorias, empates o goles hasta alcanzar la precisión deseada, que suele fijarse en 0,01 de intervalo de confianza.
La potencia bruta de los procesadores actuales permite lanzar 50 000 partidos virtuales en menos de un minuto en una laptop de gama media. Eso genera un histograma de resultados que, cuando se superpone al historial real, muestra desviaciones menores al 3 % en goles esperados. La gracia está en recalcular tras cada sustitución: cambiar un mediocampista por un interior más defensivo desplaza la media del histograma 0,2 goles a favor, suficiente para justificar o desechar el cambio.
Los clubes que más aprovechan la técnica son los que integran datos de tracking de 25 Hz: cada posición sobre el césped se convierte en entrada para el sorteo. Con esa granularidad se detecta que un pase filtrado tiene 9 % más de éxito si el receptor parte 30 cm más adelantado; el cuerpo técnio ajusta entonces la rutina de lanzamientos de esquina para provocar ese desfase. El retorno se mide en goles evitados, una métrica que los analistas llaman "diferencial de xG negativo" y que se traduce en puntos extras al final de la liga.
Para empezar basta con un script de Python de cien líneas, una base de datos de partidos en formato CSV y un generador congruencial bien testado. No se necesita supercomputadora ni licencia millonaria; se necesita disciplina para actualizar los parámetros cada semana y valentía para confiar en un porcentaje cuando la grada pide cambios de forma impulsiva. El margen de campeón suele esconderse en esa fracción de confianza.
Concepto y origen de las simulaciones estocásticas

Arranca cuantificando la incertidumbre: convierte cada probabilidad en mil trayectorias aleatorias y observa cómo se distribuyen los resultados; si el 70 % de ellas repite un mismo desenlace, ya tienes una señal robusta para apostar por esa jugada sin mirar atrás.
El germen nació en Los Álamos cuando Stanislaw Ulam, mientras jugaba solitario, sospechó que en lugar de multiplicar matrices imposibles podría lanzar miles de manos ficticias y contar victorias; en 1946 convenció a von Neumann de programar ese experimento en la ENIAC, bautizando el procedimiento con el nombre del casino favorito de sus tíos: Monte Carlo. La idea saltó a la física nuclear, luego a la bolsa, y en los sesenta ya guiaba la planificación de sustituciones y esquemas defensivos en ligas profesionales.
Hoy un portátil repite ese truco miles de millones de veces por segundo: genera números pseudoaleatorios, alimenta distribuciones empíricas de pases, tiros o desmarques, y devuelve rangos de éxito para cada opción; con esos intervalos el cuerpo técnico prioriza rotaciones, ajusta presiones o decide cuándo arriesgar una contraataque sin necesidad de rodar balones sobre el césped.
Principios matemáticos detrás de la aleatoriedad controlada
Genera 100 000 trayectorias de balón a partir de una distribución Beta(α=2.3, β=3.1) ajustada a los pases previos; el percentil 90 de esa nube indica dónde colocar la línea defensiva sin exponer espacios traseros.
Una semilla fija, por ejemplo 42 817, garantiza que cada réplica que corra el cuerpo técnico mañana reproduzca hoy las mismas rutas de presión; así valida hipótesis sin temer variaciones escondidas.
La convergencia L2 aparece tras 12 400 iteraciones: la varianza del xG sintético cae por debajo de 0.0014 y la distancia entre la curva empírica y la teórica se reduce al 0.7 %, margen aceptable para fijar la alineación.
El algoritmo de aceptación-rechazo convierte la densidad observada de pases filtrados en una función envolvente: rechaza el 38 % de propuestas, pero devuelve muestras exactas en 0.12 s por núcleo, lo que permite probar cinco esquemas distintos en el entretiempo.
El estadístico χ² compara frecuencias de zonas de finalización: si p>0.05 se asume que la simulación reproduce las tendencias reales; de lo contrario se recalibran los parámetros de posesión hasta obtener un ajuste sin fricciones.
Los generadores lineales congruenciales de 64 bits rinden 2.1·10⁹ números por segundo en el portátil del analista; basta con saltar 2 048 posiciones para crear secuencias independientes por jugador y evitar solapamientos que falseen la lectura de espacios.
La entropía de Shannon midiendo la incertidumbre en la dirección del pase pasa de 3.4 a 2.1 bits cuando el equipo contrario presiona; esa caída cuantifica el grado de molestia introducida y permite ajustar la altura de línea en tiempo real.
La transformada inversa convierte números uniformes en tiempos de posesión con cola pesada; el resultado reproduce el 96 % de los percentiles observados y avisa cuándo conviene ralentitar el ritmo para proteger ventaja mínima.
Ventajas de aplicar Monte Carlo en contextos deportivos
Despliega 50 000 caminos aleatorios para ver cuántas veces tu delantero estrella falla si recibe el balón 2 m más atrás: si la proporción de goles cae más del 8 %, mueve la línea de presión hacia el medio.
Las planillas dejan ver solo promedios; la aleatoriedad despliega el histograma real. Un club de ascenso descubrió que su portero bloqueaba 3 de cada 5 penales, pero los sorteos virtuales mostraron que en la tanda decisiva la cifra se derrumba al 38 % si el primer disparo se para. Ajustaron el orden de lanzadores y pasaron de ronda sin gastar un euro en fichajes.
| Variable explorada | Valor clásico | Rango tras 100 000 rondas | Impacto |
|---|---|---|---|
| Posesión | 60 % | 47-73 % | 0.21 goles esperados de diferencia |
| Presión alta | 21 recuperaciones | 9-34 | +0.45 goles si supera 27 |
| Córners a favor | 5.2 por partido | 2-9 | Meta rival golpeada 1/3 veces |
El entrenador de baloncesto que probó 20 000 playoffs virtuales descubrió que reducir la rotación a 8 jugadores subía el coeficiente de fatiga 17 %, pero también aumentaba 4 % la efectividad en triples en el último cuarto. Ajustó minutos, no plantilla, y selló el billete a F4. El secreto está en convertir el ruido de una temporada en miles de temporadas ficticias: lo que parece suerte se vuelve patrón y el riesgo se comprueba antes de estrenar el modelo real sobre el césped o la cancha.
Aplicaciones específicas en fútbol
Sortea 10 000 trayectorias de balón desde el saque inicial para decidir si tu equipo debe presionar en bloque alto o replegarse; si más del 62 % de las secuencias acaba en pérdida cerca del área rival, mantén la línea adelantada.
Los cuerpos técnicos recurren a cadenas de Markov para cuantificar el valor de cada pase antes del partido. Elige un modelo de cinco estados (posesión, transición, ataque organizado, remate, balón parado) y corre 50 000 sorteos: observa cuántas veces la posesión muere en el carril izquierdo y ajusta la orientación del lateral.
- Evalúa al árbitro sorteando 5 000 veces sus decisiones pasadas; si el porcentaje de tarjetas bajo presión supera el 1,8 desvíos estándar, instruye a los centrocampistas para que eviten faltas tácticas cerca del minuto 70.
- Prueba distintas alturas de línea defensiva: corre 20 000 réplicas contra un rival que juega por detrás y anota la probabilidad de que un pase en profundidad termine en mano a mano; si supera el 0,24, baja cinco metros el bloque.
- Simula tiros desde el punto penal 30 000 veces incluyendo la distancia de la carrera y el ángulo de apertura del pie; si la zona alta izquierda presenta 0,12 goles esperados adicionales, envía al especialista que dispara a esa escuadra.
Los clubes de media tabla emplean estos algoritmos para negociar fichajes: fija un precio tope al centrocampista si, tras 100 000 sorteos de minutos jugados, su contribución al pase filtrante cae bajo el percentil 65.
Los entrenadores de cantera estudian la progresión del juvenil sorteando 40 000 partidos virtuales con él de titular; si el equipo mejora 0,18 goles de diferencia por encuentro, promuévelo al filial sin esperar al final de temporada.
Los analistas contrastan la resistencia muscular simulando 15 000 segundos de juego intenso en el último cuarto de hora; si la distancia recorrida cae más del 12 %, sustituye al interior antes del minuto 75.
- Desarrolla un script que sortee saques de esquina 25 000 veces; evalúa la opción de tiros directos a los primeros palos frente a balones colgados al segundo y quédate con la jugada que genera 0,07 goles esperados más.
- Estudia la rotación de balones de recambio: corre 8 000 partidos hipotéticos y observa cómo la pérdida de presión reduce la velocidad del pase; si la posesión cae un 3 %, exige nuevos esféricos antes de los duelos europeos.
Preguntas frecuentes:
¿Cómo puedo usar la simulación de Monte Carlo para decidir si mi equipo debe mantener su presión alta tras pérdida o replegarse rápido?
Primero recoge los datos de tus últimos 30 partidos: coordenadas de recuperación, segundos hasta el primer pase rival, y goles encajados tras pérdida. Con esos valores creas una distribución de probabilidad para cada escenario (presión alta y repliegue). Ejecutas 50 000 simulaciones por estrategia variando la posición de la línea de presión y la velocidad de los laterales. El modelo te devuelve que, contra rivales con pases verticales rápidos, la presión alta incrementa 0,12 gobles esperados por partido, mientras que el repliegue reduce ese valor a 0,05. Si tu delantero centro tiene velocidad ≥ 34 km/h y el rival saca por abajo, la simulación recomienda presionar; si no, repliegue. Ajusta el umbral cada semana con los nuevos datos.
¿Qué tamaño de muestra mínimo necesito para que los resultados de la simulación sean fiables en una liga regional de 18 equipos?
Con 18 equipos y 34 jornadas tienes 306 partidos por temporada. Para estimar proporciones (por ejemplo, % de veces que un carril se desborda) necesitas al menos 1 000 observaciones por variable. Como cada partido te da 2 registros (uno por banda), en una temporada acumulas 612. Para reducir el error estándar por debajo del 3 %, combina dos temporadas (1 224 registros) y aplica bootstrap con 10 000 réplicas. Si solo dispones de una temporada, incrementa las simulaciones a 100 000 y usa intervalos de credibilidad bayesiano; así la precisión se mantiene dentro del 5 % para decisiones tácticas semanales.
¿Cómo introduzco en el modelo la fatiga muscular medida por GPS para ajustar la probabilidad de éxito de la presión?
Exporta del GPS la distancia recorrida a > 19,8 km/h en los últimos 5 minutos y el número de aceleraciones > 3 m/s². Convierte esos valores en un índice de fatiga (0-1) dividiendo entre el máximo estacional del jugador. Multiplica la probabilidad base de recuperación por (1 - índice de fatigue) · 0,9. Por ejemplo, si un mediocentro tiene índice 0,3, su probabilidad de interceptar pasa del 42 % al 42 % · (1 - 0,3) · 0,9 = 26,5 %. Actualiza ese factor cada minuto dentro de la simulación; así verás que a partir del minuto 70 la estrategia de presión alta deja de ser rentable para jugadores con índice > 0,45.
¿Puedo aplicar Monte Carlo para decidir el orden de lanzadores de un penalti si tengo solo cinco disparos anteriores de cada futbolista?
Sí, pero el pequeño número de tiros obliga a usar un prior informativo. Toma como base su porcentaje de goles en entrenamientos (por ejemplo, 80 %) y combínalo con los cinco lanzamientos oficiales mediante una beta-binomial. Supongamos que un jugador marcó 4 de 5; la distribución posterior es Beta(0,8·10 + 4, 0,2·10 + 1) = Beta(12, 3). Simula 20 000 rondas de penaltis extrayendo para cada tirador su probabilidad de gol desde su posterior. Elige el orden que maximice la probabilidad de anotar al menos 3 de 5. Con datos tan escasos, la incertidumbre es alta: el mejor orden cambia en el 38 % de las simulaciones, así que decide por rendimiento físico y psicológico más que por el modelo.
¿Qué software me permite correr estas simulaciones sin programar y exportar los resultados a un vídeo para enseñar a los jugadores?
Usa la versión gratuita de «Soccer-Analytics MC» (interfaz en español). Carga tus datos CSV con ubicaciones de jugadores y eventos; elige «simulación Monte Carlo» y marca «presión tras pérdida». El asistente te pide número de réplicas y genera un panel con heatmaps y gráficos de barras. Pulsa «exportar animación» y selecciona 30 fps; el programa renderiza un vídeo MP4 donde se ve la evolución del xG a medida que cambia la línea de presión. El archivo de 45 s pesa unos 12 MB y puedes enviarlo por WhatsApp al grupo de plantilla sin pérdida de calidad.
¿Qué tan fiables son las simulaciones de Montecarlo para predecir el resultado de un partido si solo tengo datos de 5 enfrentamientos previos entre los mismos equipos?
Con cinco partidos el margen de error crece: la varianza de los parámetros estimados (goles esperados, posesión, etc.) es alta y la distribución a priori pesa mucho. La clave está en reforzar la muestra con estadísticas de jugadores individuales (tiros, pases clave, distancia recorrida) y con partidos de otros rivales de nivel parecido. Ajustando la función de probabilidad por bootstrapping y corrigiendo con una distribución bayesiana, la simulación sigue siendo útil, pero conviene presentar el resultado como rango (p. ej. 45-65 % de victoria local) y no como valor único. Siempre que sea posible, acumular al menos 15-20 partidos de contexto similar reduce el intervalo de confianza a la mitad.
¿Puedo usar el método para decidir si saco al delantero estrella en el minuto 70 cuando gano 1-0 o es mejor conservarlo y arriesgarme al contraataque?
Sí, y de hecho es uno de los usos más directos. Construyes dos escenarios: el A mantiene al goleador y acepta menor presión alta; el B lo sustituye por un centrocampista defensivo. Para cada minuto restante corres 50 000 simulaciones condicionadas al estado actual (1-0, min. 70) y a las probabilidades de gol futuras de cada plantilla. El output suele ser una curva de riesgo-beneficio: por ejemplo, 12 % de empate y 3 % de derrota con escenario A, contra 7 % y 1 % con escenario B, pero también cae la opción de marcar el 2-0 del 25 % al 15 %. Elige la opción cuyo valor esperado (pesado por la importancia del partido) sea mayor; en ligas cerradas muchos entrenadores aceptan el riesgo extra de empate para proteger la victoria.
Mi club es de media tabla y no tengo analistas de datos. ¿Qué programas o lenguajes me permiten montar la simulación sin gastar en licencias?
Python o R cubren todo el flujo sin coste. En Python basta instalar pandas para limpiar csv de partidos, scikit-learn para ajustar modelos de goles esperados y numpy para los millones de iteraciones. Si quieres interfaz gráfica, Streamlit te arma un panel interactivo en poco tiempo. En R lo mismo se consigue con dplyr, caret y shiny. Ambos lenguajes tienen librerías específicas como futbolr o socceraction que ya traen funciones para generar xG y simular secuencias. Un portátil convencional corre 100 000 partidos simulados en menos de dos minutos; si necesitas más velocidad, Google Colab o Kaggle ofrecen GPUs gratuitas. No hay que pagar nada salvo el tiempo de aprender.
¿Cómo convences al cuerpo técnico de que una decisión basada en números aleatorios es mejor que su intuición si lleva 20 años en el banquillo?
Presenta la simulación como apoyo, no como orden. Empezad juntos eligiendo una jugada polémica ya vivida: por ejemplo, la eliminatoria del año pasado. Reconstruid el momento con los datos que ya manejan (video, estadísticas) y ejecutad la simulación delante de ellos: verán que el modelo reproduce la tendencia real (60 % de avance si se presiona arriba, 40 % si se repliega). Cuando comprueben que la máquina acierta en varios casos históricos, el método gana crédito. Después úsalo para futuros rivales mostrando solo los gráficos de probabilidad condicional: «Si presionamos, la probabilidad de encajar en los próximos diez minutos baja del 18 al 9 %». Cuando la información se presenta en formato de riesgo-beneficio y se deja la última palabra al entrenador, la resistencia desaparece y el análisis pasa a ser parte del proceso habitual.
