Regla de Freedman-Diaconis
La regla de Freedman-Diaconis es una regla para determinar la amplitud óptima de intervalo en una distribución agrupada por intervalos, basándose en le recorrido intercuartílico (IQR) y el tamaño muestral (n):
$$\text{Amplitud de clase}=2\, { \text{IQR}(x) \over{ \sqrt[3]{n} }}$$
La regla proporciona la amplitud de clase que minimiza la suma de las distancias al cuadrado entre el histograma y una distribución teórica normal. En principio, la regla depende de la desviación típica de los datos, pero se hace depender del recorrido intercuartílico, como estimación robusta de la desviación. Originariamente, partiendo de una distribución teórica normal, en lugar del factor 2, debería utilizarse el factor 2.59, pero Freedman y Diaconis acabaron por establecer la regla con el factor 2 para adaptarla a todo tipo de distribuciones. Por todo ello, la regla de Freedman-Diaconis se utiliza especialmente cuando existen otuliers o datos atípicos o las distribución presenta una marcada asimetría.
Puede interesarte además
Como citar: Sarasola, Josemari (2024) en ikusmira.org
"Regla de Freedman-Diaconis" (en línea) Enlace al artículo
Última actualización: 14/10/2025
¿Tienes preguntas sobre este artículo?
Envíanos tu pregunta e intentaremos responderte lo antes posible.
Apoya nuestro contenido registrándote en Audible, sigue aprendiendo gratis a través de este link!