Sesgo de un estimador (estimador sesgado)
En estadística, el sesgo de un estimador es el error promedio en el que incurre por utilizar dicho estimador para estimar el valor de un parámetro estadístico concreto. Más concretamente, para un estimador \(\hat{\theta}\) de un parámetro \(\theta\), el sesgo de dicho estimador se define de esta forma:
$$E[\hat{\theta}]-\theta,$$
siendo \(E[\hat{\theta}]\) la esperanza o valor esperado del estimador.
Cuando el sesgo es nulo, el error promedio es 0, lo cual no quiere decir que no se cometen errores en la estimación, sin que el promedio de dichos errores es nulo; en esos casos, se dice que el estimador es insesgado.
Cuando el sesgo no es nulo, se dice que el estimador es sesgado: si el sesgo es positivo, con el estimador se está en promedio sobreestimando el valor del parámetro; si el sesgo es negativo, se esta subestimando en promedio el valor del parámetro.
Como citar: Sarasola, Josemari (2024) en ikusmira.org
"Sesgo de un estimador (estimador sesgado)" (en línea) Enlace al artículo
Última actualización: 19/01/2025
¿Tienes preguntas sobre este artículo?
Envíanos tu pregunta e intentaremos responderte lo antes posible.
Apoya nuestro contenido registrándote en Audible, sigue aprendiendo gratis a través de este link!