Desigualdad de Markov

El teorema de Markov, comúnmente desigualdad de Markov, denominada también acotación de Markov o cota de Markov, proporciona una cota para la probabilidad de la cola superior de una variable aleatoria cuando se conoce exclusivamente la esperanza o media de dicha variable. Más concretamente, la desigualdad de Markov establece que la cota máxima para la probabilidad de obtener un valor de al menos \(k\) para una variable aleatoria X no negativa  con esperanza finita \(E[X]\) es:

$$P[X \geq k] \leq \cfrac{E[X]}{k}, \ \forall X \geq 0;k>0$$

Haciendo \(k=\lambda E[X]\), la desigualdad de Markov adquiere también esta formulación alternativa:

$$P[X \geq \lambda E[X] ] \leq \cfrac{1}{\lambda}, \ \forall X \geq 0;\lambda>0$$

Ejemplo de aplicación

La temperatura máxima diaria en agosto en una estación meteorológica ha registrado una media de 30 grados centígrados. Se desea acotar la probabilidad de que la temperatura máxima diaria supere los 40 grados. 

$$P[X \geq 40] \leq \cfrac{30}{40}=0.75$$

Utilizando la formulación alternativa, se resuelve de la siguiente forma:

$$P[X \geq 40]=P[X \geq 1.33 \times 30] \leq \cfrac{1}{1.33}=0.75$$

De esta forma, puede asegurarse de que la probabilidad de que la temperatura supere (o iguale) los 40 grados, es a lo sumo 0.75.

Exactitud de la cota de Markov

La desigualdad de Markov no proporciona generalmente una cota "fina" de probabilidad. Volviendo al ejemplo anterior, tenemos que la probabilidad exacta de una temperatura igual o superior a los 40 grados, pueder ser tanto 0.75 (muy probable) como 0.01 (muy improbable). 

En la siguiente tabla se compara la cota de Markov en una distribución de probabilidad de media 10 para diferentes colas, con las probabilidades exactas correspondientes a una distribución exponencial y distribución chi-cuadrado con la misma media (esto es, en el caso de la distribución exponencial con parámetro \(\lambda=0.1\) y en caso de la distribución chi-cuadrado con n=10 grados de libertad):

Cola
Cota de Markov
\(Exp(\lambda=0.1)\)
\(\chi^2_{10}\)
\(X \geq 15\)
\(p\leq 0.66\) 0.223
0.132
\(X \geq 20\) \(p\leq 0.50\) 0.135
0.029
\(X \geq 30\) \(p\leq 0.33\) 0.049
0.0008
\(X \geq 40\) \(p\leq 0.25\) 0.018
0.00002
\(X \geq 50\) \(p\leq 0.20\) 0.006
aprox. 0
\(X \geq 100\) (p\leq 0.10\) 0.00005 aprox. 0

Como puede observarse, la cota pierde exactitud o se aleja más del valor verdadero, cuanto más nos se aleja la cola de la esperanza o valor medio. 

Para aproximaciones o cotas más exactas puede utilizarse la desigualdad de Chebyshev, pero esta exige conocer también la desviación típica de la distribucion. El hecho de que la distribución de Chebyshev aporte una cota más exacta es lógico, ya que incorpora la información adicional proporcionada por la desviación.

Cota de Markov trivial

Cuando el valor a partir del cual se fija la cola de la que se quiere calcular la probabilidad es igual o inferior a la esperanza matemática de la variable, la desigualdad de Markov proporciona una cota trivial igual o superior a 1, de modo que no aporta ninguna información relevante, ya que por definición toda probabilidad debe estar entre 0 y 1. Por ejemplo, para una variable aleatoria con media 10, la cota de Markov para la probabilidad de que el valor de la variable sea mayor que 5 sería:

$$P[X \geq 5] \leq \cfrac{10}{5}=2$$

Como hemos  señalado antes, es trivial acotar la probabilidad a un valor de 2 o menos, ya que por definición toda probabilidad se sitúa en el intervalo [0,1]

Historia

La desigualdad lleva el nombre del matemático ruso Andrey Markov (1856-1922), por ser el primero que demostró la desigualdad en su caso más general, en la tercera edición de su libro "Cálculo de probabilidades". Sin embargo, una aplicación de dicha desigualdad a la media de variables aleatorias fue desarrollada anterioemrmente por su profesor Pafnuty Chebyshev (1821-1853) y por Irénée-Jules Bienaymé (1796-1878), dando lugar a la desigualdad de Chebyshev o desigualdad de Bienaymé-Chebyshev. De hecho, la desigualdad de Chebyshev se demuestra  fácilmente utilizando la desigualdad de Markov.

Puedes encontrar información más extendida sobre la historia de la desigualdad de Markov y su relación con la desigualdad de Chebyshev en este enlace:

https://timeseriesreasoning.com/contents/markovs-inequality-chebyshevs-inequality/

Demostración

  • para variables aleatorias discretas

Partiendo de la definición de esperanza matemática para una variable discreta:

$$E[X]=\sum xp(x)$$

Realizamos una partición en dos del sumatorio para valores de x menores que k, por un lado; y mayores o iguales que k, por otro:

$$E[X]=\sum_{x<k} xp(x)+\sum_{x\geq k} xp(x)$$

Por un lado, dado que la variable es no negativa: 

$$E[X]=\sum xp(x) \geq 0$$

De modo que respecto al primer término de la partición también se cumple:

$$\sum_{x<k} xp(x) \geq 0$$

De esta forma, volviendo a la partición de la esperanza:

$$E[X] \geq \sum_{x\geq k} xp(x)$$

Respecto al segundo término de la igualdad:

$$\sum_{x\geq k} xp(x)  \geq \sum_{x\geq k} kp(x)=k\sum_{x\geq k} p(x)=kp[X \geq k]$$

Uniendo las dos últimas expresiones, reordenando e intercambiando términos:

$$E[X] \geq kp[X \geq k] \longrightarrow p[X \geq k] \leq \cfrac{E[X]}{k}\ \ (qed)$$

  • para variables aleatorias continuas: 

Desarrollando de la misma forma que para variables discretas pero partiendo de la definición de esperanza para variables continuas:

$$E[X]=\int_0^\infty xf(x)dx=\int_0^kxf(x)dx+\int_k^\infty xf(x)dx \geq k\int_k^\infty f(x)dx=kp[X \geq k]$$

Uniendo el primer y último términos del desarrollo algebraico:

$$ p[X \geq k] \leq \cfrac{E[X]}{k}\ \ (qed)$$

Puede interesarte también



Como citar: Sarasola, Josemari (2024) en ikusmira.org
"Desigualdad de Markov" (en línea)   Enlace al artículo
Última actualización: 19/01/2025

¿Tienes preguntas sobre este artículo?

Envíanos tu pregunta e intentaremos responderte lo antes posible.

Nombre
Email
Tu pregunta
Sigue aprendiendo en Audible

Apoya nuestro contenido registrándote en Audible, sigue aprendiendo gratis a través de este link!


Frecuencia de ocurrencia

La frecuencia de ocurrencia es el número de veces que ocurre un suceso en un periodo de tiempo. También puede hacer referencia al número de veces que aparece un valor omodalidad en una distribución de datos, en términos absolutos (frecuencia absoluta) o relativos (frecuencia relativa). Puede intere...

Media cúbica

La media cúbica es la raíz cúbica de la media aritmética de los datos al cubo referidos a una variable estadística cuantitativa: $$\overline{x}_{cub}=\sqrt[3}{\cfrac{\sum_i x_i^3}{n}$$ Es un tipo de media generalizada, al igual que la media cuadrática, y por lo tanto se utiliza como medida de tend...

Variable politómica

Una variable politómica es aquella variable cualitativa que incluye más de dos modalidades o categorías, a diferencia de las variables dicotómicas que únicamente tienen dos categorías. Por ejemplo, son variables politómicas el nivel educativo (primaria/secundaria/bachillerato/universidad) y el grado...

Nivel de confianza

En relación a los intervalos de confianza con una amplitud determinada que pueden resultar respecto a un parámetro, el nivel de confianza es el porcentaje de veces que el parámetro a estimar se encontrará dentro de ese grupo de intervalos; por lo tanto, el nivel de confianza expresa la verosimilitud...