Índice de Contenido
Estimadores puntuales
Concepto
Es aquel definido como un valor estadístico único, utilizado para la estimación de parámetros. De esta amanera, el estadístico utilizado se denomina estimador dentro de la Inferencia Estadística.
El estimador puntual de algún parámetro θ, puede ser considerado como un valor razonable para θ (siendo un número único). Su modo de obtención se da por medio de una selección estadística adecuada y posteriormente calculando su valor de acuerdo con los datos dados de la muestra.
Así, su objetivo principal es el poder aproximar el valor de un parámetro desconocido, por ende, puede servir para acercar al tiempo medio de ejecución de algún algoritmo, alturas, resultados, porciones, etc.
Nota: “La estadística selectiva es llamada estimador puntual de θ”
Clasificación y ejemplos
Dentro de los estimadores puntuales, existe una gran variedad y clasificación, cada un cumple con diferentes propiedades. Algunos de ellos son los siguientes:
ESTIMADORES PUNTUALES |
EJEMPLO DE USO |
||||||||||
MVUE.Estimador medio insesgado de varianza mínima. |
Minimiza el riesgo (pérdida esperada) de la función de pérdida de error cuadrado. Ejemplo:
(X1,…,Xn) muestra aleatoria simple de una v.a. Bernoulli b(p).
|
||||||||||
AZUL.Mejor estimador lineal insesgado. |
Teorema de Gauss-Markov, los supuestos siguientes:
Var(εi) = σ2 < ∞ para todos i
Cov(εi,εj) = 0 , ∀i ≠ j |
||||||||||
MMSE.Error cuadrático medio mínimo. |
Coeficiente de Pearson entre “x” y “y” → ρ Para el caso especial cuando ambos “x” y “y” son escalares |
||||||||||
MLE.Estimador de máxima verosimilitud. |
Como procedimiento iterativo tenemos el método de Newton-Raphson Algoritmo de Berndt-Hall-Hall-Hausman |
||||||||||
Estimador de mediana insesgado |
Minimiza el riesgo de la función de pérdida de error absoluto, en MachineLearning: |
||||||||||
Método de momentos y método generalizado de momentos. |
Métodos de optimización de GMM:
|
Métodos de estimación clásicos
Estimador insesgado
Es aquel, cuando en una distribución muestral de se tiene una media igual al parámetro estimado, siendo un estimador cuyo valor es una estimación puntual de algún parámetro de la población desconocido de θ.
En resumen, un estadístico es un estimador insesgado del parámetro θ si:
μ=E() = θ
Varianza de un estimador puntual
Se denomina como estimador más eficaz, aquel que tiene la menor varianza al considerar todos los posibles estimadores insesgados de algún parámetro θ.
En la imagen se muestran 3 estimadores diferentes (1, 2, 3),para θ. Se observa que 1 y 2 no son sesgados, por sus distribuciones cerradas a θ. Siendo el estimador 1 quién tiene una varianza menor, por ello, es denominado como el más eficaz.
Estimación por intervalo
Es aquel en el que en muchas ocasiones es preferible determinar un intervalo dentro del cual se espera encontrar el valor del parámetro. De este modo, un estimador por intervalo de un parámetro de población θ, es un intervalo de forma L< θ <U, donde dependen del valor estadístico para la muestra especifica, y también de la distribución de muestreo .
Interpretación de estimación por intervalo (R. E. Walpole, 2012)
“Como muestras distintas suelen producir valores diferentes de y, por lo tanto, valores diferentes de L y U , estos puntos extremos del intervalo son valores de las variables aleatorias correspondientes L y U. De la distribución muestral de seremos capaces de determinar L y U , de manera que P(L< <U) sea igual a cualquier valor positivo de una fracción que queramos especificar. Si, por ejemplo, calculamos L y U, tales que: ”
P(L< <U = 1-α)
“Para 0 < α < 1, tenemos entonces una probabilidad de 1 – α de seleccionar una muestra aleatoria que produzca un intervalo que contenga θ. El intervalo L< <U, que se calcula a partir de la muestra seleccionada, se llama entonces intervalo de confianza del 100(1 – α)%, la fracción 1 – α, se denomina coeficiente de confianza o grado de confianza, y los extremos, L y U , se denominan límites de confianza inferior y superior.”
Distribución T
Surgimiento
“Cuando se muestrea una distribución normal con desviación estándar conocida σ, la distribución de Z = (-μ)/σ/√n . Desde el punto de vista práctico, la necesidad de conocer σ impide formular inferencias con respecto a μ debido a que generalmente no se conoce el valor de la desviación estándar de la población.“
Es aquí donde se supone que, si tenemos dos variables aleatorias “X y Z”, X tiene una distribución chi-cuadrada (ji-cuadrado) con v grados de libertad y Z una distribución normal con media cero y desviación estándar uno. Entonces, sea T otra variable aleatoria que es función de X y Z de manera tal que:
Formula de densidad de probabilidad deducción
Sea T una variable aleatoria definida por la ecuación anterior. Se considera la densidad de probabilidad de T cuando X se mantiene fija en un valor x Dado que:
La densidad de proba- bilidad condicional de: | |
Se obtiene al considerar la relación inversa: | |
Y al sustituir en , en donde el jacobiano de la transformación es: | |
De esta forma: | |
De la ecuación principal se sabe que la densidad conjunta de T y X: | |
Dado que : | |
Es así qué: |
|
En dónde: E, Integrando f(t,x) con respecto a x, se obtiene la función de densidad de probabilidad de la distribución t Student. Así, finalmente: |
|
(Canavos, 1988 )
Importancia
- Las funciones de densidad de probabilidad son una medida estadística que se utiliza para medir el resultado probable de un valor discreto (por ejemplo, el precio de una acción o ETF).
- Los PDF se trazan en un gráfico que generalmente se asemeja a una curva de campana, con la probabilidad de que los resultados se encuentren por debajo de la curva, (Calculo de áreas)
- Una variable discreta se puede medir con exactitud, mientras que una variable continua puede tener valores infinitos.
- Los PDF se pueden utilizar para medir el riesgo / recompensa potencial de un valor o fondo en particular en una cartera.
BIBLIOGRAFÍA
Referencias Informativas
- Canavos, G. C. (1988 ). Probabilidad y Estadística: Aplicaciones y Métodos. Traducción UAM Ixtapalapa: Editorial McGRAW-HILL.
- Guevara, N. Y. (2017). Estadística inferencial. Bogotá, Colombia: Fondo editorial Areandino, Fundación Universitaria del Área Andina. Obtenido de https://digitk.areandina.edu.co/bitstream/handle/areandina/1390/Estad%C3%ADstica%20inferencial.pdf?sequence=1&isAllowed=y
- L., D. J. (2012). Probability and Statistics for Engineering and the Sciences (8th edition),. Boston, MA 02210, USA: Brooks/Cole, Cengage Learning.
- Montgomery Douglas C., P. E. (2007). Introduction to Linear Regression Analysis (4th Edition). USA: WILEY, John Wiley & Sons, Inc.
- Sapientia Aedificavit. (2012). TEMA 5: Estimación puntual I. Propiedades de los estimadores. Valladolid: Universidad de Valladolid. Obtenido de http://www5.uva.es/espartero/Tema5_2012.pdf
Referencias Ilustrativas (Créditos y Licencias correspondientes)
- : https://es.wikipedia.org/wiki/Estimador
- Fórmula Newton y R_Berndt-H-H-H, Fórmula Machine Learning, Fórmula Distribución T, Fórmula Coeficiente de Pearson; Deducción 1 … 8 F. de P. :
(BONZOPEDIA By JEVG / CC BY-NC-SA 4.0): https://bonzopedia.com/licencia-creative-commons