Sesgo de un estimador (estimador sesgado)

En estadística, el sesgo de un estimador es el error promedio en el que incurre por utilizar dicho estimador para estimar el valor de un parámetro estadístico concreto. Más concretamente, para un estimador \(\hat{\theta}\) de un parámetro \(\theta\), el sesgo de dicho estimador se define de esta forma:

$$E[\hat{\theta}]-\theta,$$

siendo \(E[\hat{\theta}]\) la esperanza o valor esperado del estimador. 

Cuando el sesgo es nulo, el error promedio es 0, lo cual no quiere decir que no se cometen errores en la estimación, sin que el promedio de dichos errores es nulo; en esos casos, se dice que el estimador es insesgado.

Cuando el sesgo no es nulo, se dice que el estimador es sesgado: si el sesgo es positivo, con el estimador se está en promedio sobreestimando el valor del parámetro; si el sesgo es negativo, se esta subestimando en promedio el valor del parámetro. 



Como citar: Sarasola, Josemari (2024) en ikusmira.org
"Sesgo de un estimador (estimador sesgado)" (en línea)   Enlace al artículo
Última actualización: 06/05/2025

¿Tienes preguntas sobre este artículo?

Envíanos tu pregunta e intentaremos responderte lo antes posible.

Nombre
Email
Tu pregunta
Sigue aprendiendo en Audible

Apoya nuestro contenido registrándote en Audible, sigue aprendiendo gratis a través de este link!


Muestra sesgada

Una muestra sesgada es aquella muestra estadística que por no haber sido seleccionada de forma aleatoria o siguiendo una metodología estadística correcta, no refleja de forma adecuada las características de la población, de modo que presenta un sesgo o desviación respecto e la característica poblaci...

Media aritmética simple

La media aritmética simple, frecuentemente media aritmética o media sin más, es una medida estadística de tendencia central que incluye y representa, es decir, promedia, todos los datos de una variable estadística cuantitativa , con el objetivo de obtener un valor único representativo como...

Factores (estadística)

En estadística y más concretamente en el análisis de varianza, un factor es una variable explicativa de tipo categórico de la que se investiga su influencia en una variable respuesta de tipo cuantitativo. Según el número de factores cuya influencia se analiza simultáneamente se desarrollará un ánali...

Phi (coeficiente de correlación y asociación)

El coeficiente phi de Pearson es una medida de correlación entre dos variables dicotómicas o binarias que coincide con el coeficiente de correlación de Pearson y por tanto se calcula a través de la fórmula de este último cuando las modalidades de las variables se han codificado con los valores ...