Momentos muestrales

Los momentos muestrales son un conjunto de estadísticos muestrales o fórmulas genéricas relativas a una distribución de datos que pretenden caracterizar dicha distribución de forma sistemática. Para una distribución estadística cuantitativa unidimensional se distinguen los momentos respecto al origen o momentos absolutos y los momentos respecto a la media, momentos centrales o momentos centrados. Ambos tipos de momentos están relacionados de modo que cualquier momento respecto a la media puede expresarse en términos de una suma de momentos respecto al origen. Los momentos muestrales pueden considerarse como estimadores de los momentos de un modelo de probabilidad unidimensional; de hecho, existe un método de estimación de parámetros llamdo método de los momentos basado en esta correspondencia.

Momentos respecto al origen (momentos absolutos)

Los momentos respecto al origen o momentos absolutos de orden \(r\) se calculan de acuerdo a esta fórmula para los datos \(x_1,x_2,...,x_n\):

$$a_r=\cfrac{\sum_i x_i^r}{n}$$

Como ejemplo desarrollemos los momentos respecto al origen de orden 0,  1 y 2:

\(\qquad a_0=\cfrac{\sum_i x_i^0}{n}=\cfrac{\sum_i 1}{n}=\cfrac{n}{n}=1\)

\(\qquad a_1=\cfrac{\sum_i x_i^1}{n}=\cfrac{\sum_i x_i}{n}=\overline{x}\)

\(\qquad a_2=\cfrac{\sum_i x_i^2}{n}\)

Ciertos momentos muestrales coinciden con conocidos estadísticos: por ejemplo, como puede observarse en los desarrollos anteriores, el momento respecto al origen de orden 1 coincide con la media aritmética simple.

Por ejemplo, para los datos 1-2-2-3-5, calcularíamos el momento respecto al origen de orden 3 de esta forma:

\(\qquad a_3=\cfrac{1^3+2^3+2^3+3^3+5^3}{5}=33.8\)

Momentos respecto a la media (momentos centrales o centrados)

Los momentos respecto al origen o momentos absolutos de orden \(r\) se calculan de acuerdo a esta fórmula para los datos \(x_1,x_2,...,x_n\):

$$m_r=\cfrac{\sum_i (x_i-\overline{x})^r}{n}$$

Como ejemplo desarrollemos los momentos respecto al origen de orden 0,  1 y 2:

\(\qquad m_0=\cfrac{\sum_i (x_i-\overline{x})^0}{n}=\cfrac{\sum_i 1}{n}=\cfrac{n}{n}=1\)

\(\qquad m_1=\cfrac{\sum_i (x_i-\overline{x})^1}{n}=\cfrac{\sum_i (x_i-\overline{x})^1}{n}=\cfrac{\sum_i x_i-\sum_i \overline{x}}{n}=\cfrac{\sum_i x_i-n\overline{x}}{n}=\cfrac{n\overline{x}-n\overline{x}}{n}=0\)

\(\qquad m_2=\cfrac{\sum_i (x_i-\overline{x})^2}{n}\)

Al igual que ocurre con los momentos respecto al origen, ciertos momentos muestrales centrados coinciden con estadísticos comúnmente utilizados: por ejemplo, como puede observarse en los desarrollos anteriores, el momento respecto a la media de orden 2 coincide con la varianza muestral. Por otro lado, los momentos respecto a la media de orden 3 y 4, se utilizan para calcular el coeficiente de asimetría de Fisher y el coeficiente de curtosis de Pearson respectivamente:

Por ejemplo, para los datos 1-2-4-5, calcularíamos el momento respecto a la media de orden 3 de esta forma:

\(\qquad \overline{x}=\cfrac{1+2+4+5}{4}=3\)

\(\qquad m_3=\cfrac{(1-3)^3+(2-3)^3+(4-3)^3+(5-3)^3}{4}=5.5\)

Los momentos respecto a la media puede calcularse como suma de momentos respecto al origen. Por ejemplo, para el momento central de orden 2, sabiendo que la suma de \(n\) términos de una constante, es \(n\) veces esa constante, que la constante que multiplica  el término de un sumatorio puede sacarse del sumatorio multiplicando y  que \(\sum_i x_i=n\overline{x}\):

\(\qquad m_2=\cfrac{\sum_i (x_i-\overline{x})^2}{n}=\cfrac{\sum_i (x_i^2+\overline{x}^2-2x_i\overline{x})}{n}=\cfrac{\sum_i x_i^2}{n} +\cfrac{\sum_i \overline{x}^2}{n}-2 \overline{x}\cfrac{ \sum_i x_i}{n}=\) 


\(\qquad \cfrac{\sum_i x_i^2}{n} +\cfrac{n \overline{x}^2}{n}-2 \overline{x}\overline{x}=\cfrac{\sum_i x_i^2}{n} -\overline{x}^2=a_2-a_1^2\)

Resultando de esta forma una fórmula alternativa para el cálculo de la varianza.

A continuación se dan dos expresiones para desarrollar los momentos centrales en forma de suma de momentos respecto al origen:

\(\qquad m_r = \sum_{i=0}^r {r \choose i} \, a_{r-i} \, (-a_1)^i = \sum_{i=0}^r {r \choose i}\, a_i \, (-a_1)^{r-i}\)

Los momentos respecto al origen también se pueden desarrollar en forma de suma de momentos centrales:

\(\qquad a_r = \sum_{i=0}^r {r \choose i} \, m_{r-i} \, (-m_1)^i = \sum_{i=0}^r {r \choose i}\, m_i \, (-m_1)^{r-i}\)

Como ejemplo desarrollemos el momento central de orden 3 como suma de momentos respecto al origen, recordando que \(a_0=1\):

\(\qquad m_3 = {3 \choose 0} \, a_3 \, (-a_1)^0 +{3 \choose 1} \, a_2 \, (-a_1)^1 +{3 \choose 2} \, a_3 \, (-a_1)^2+{3 \choose 3} \, a_0 \, (-a_1)^3 =\)

\(\qquad a_3-3a_2a_1+3a_1a_1^2-a_0a_1^3=a_3-3a_2a_1+2a_1^3\)



Como citar: Sarasola, Josemari (2024) en ikusmira.org
"Momentos muestrales" (en línea)   Enlace al artículo
Última actualización: 06/05/2025

¿Tienes preguntas sobre este artículo?

Envíanos tu pregunta e intentaremos responderte lo antes posible.

Nombre
Email
Tu pregunta
Sigue aprendiendo en Audible

Apoya nuestro contenido registrándote en Audible, sigue aprendiendo gratis a través de este link!


Media condicionada

En una distribución conjunta de varias variables estadísitca, una media condicionada es la media que toma los valores de una variable para un valor dado de otra variable. Por ejemplo, si disponemos de los datos de altura y perso para un grupo de personas; una media condicionada seria la media del pe...

Error de cobertura

El error de cobertura hace referencia al error que se produce cuando el marco muestral de una encuesta no coincide con la población objetivo o población que se definido de interés en la investigación. Los errores de cobertura pueder producirse por subcobertura, cuando en el marco muestral no se incl...

Variable causal

Al estudiar la dependencia o correlación entre variables, la variable causal es la variable que "causa" o influye en la variable que queremos explicar o predecir. Es por tanto un término equivalente al de variable explicativa. Sin embargo, mas allá de la correlación que pueda existir entre variables...

Tipificación

La tipificación o estandarización es la operación que sustrae a cada valor de una variable cuantitativa la media de la distribución y divide el resultado entre la desviación típica. Los valores resultante se denominan valores z.  El objetivo es reducir los datos a una escala típica o estándar d...