Inferencia Estadística

Estimadores puntuales

Concepto

   Es aquel definido como un valor estadístico único, utilizado para la estimación de parámetros. De esta amanera, el estadístico utilizado se denomina estimador dentro de la Inferencia Estadística.

   El estimador puntual de algún parámetro θ, puede ser considerado como un valor razonable para θ (siendo un número único). Su modo de obtención se da por medio de una selección estadística adecuada y posteriormente calculando su valor de acuerdo con los datos dados de la muestra.

   Así, su objetivo principal es el poder aproximar el valor de un parámetro desconocido, por ende, puede servir para acercar al tiempo medio de ejecución de algún algoritmo, alturas, resultados, porciones, etc.

Nota:La estadística selectiva es llamada estimador puntual de θ”

Clasificación y ejemplos

   Dentro de los estimadores puntuales, existe una gran variedad y clasificación, cada un cumple con diferentes propiedades. Algunos de ellos son los siguientes:

ESTIMADORES PUNTUALES

EJEMPLO DE USO

MVUE.

Estimador medio insesgado de varianza mínima.

Minimiza el riesgo (pérdida esperada) de la función de pérdida de error cuadrado. Ejemplo:

(X1,…,Xn) muestra aleatoria simple de una v.a. Bernoulli b(p).

  • f(x;p)  =  p(X=x)  =  px(1-p)1-x
  • k(p) = 1/Var(X)     →     Var(X) =  p(1-p)/n
AZUL.

Mejor estimador lineal insesgado.

Teorema de Gauss-Markov, los supuestos siguientes:

    • Tienen media cero: E[εi]=0
    • Son homocedásticos, es decir, todos tienen la misma varianza finita:

 Var(εi)  =  σ2  <  ∞  para todos i

    • Los distintos términos de error no están correlacionados:

  Cov(εi,εj)  =  0  ,  ∀≠  j

MMSE.

Error cuadrático medio mínimo.

Coeficiente de Pearson entre “x” y “y”  →  ρ

Para el caso especial cuando ambos “x” y “y” son escalares

Estadística, Fórmula Coeficiente de Pearson
Fórmula Coeficiente de Pearson
MLE.

Estimador de máxima verosimilitud.

Como procedimiento iterativo tenemos el método de Newton-Raphson

Algoritmo de Berndt-Hall-Hall-Hausman

Estadística, Fórmula Newton y Algoritmo de Berndt-Hall-Hall-Hausman
Fórmula Newton y R_Berndt-H-H-H
Estimador de mediana insesgado

Minimiza el riesgo de la función de pérdida de error absoluto, en MachineLearning:

Estadística, Fórmula Machine Learning
Fórmula Machine Learning
Método de momentos y método generalizado de momentos.

Métodos de optimización de GMM:

Mínimos cuadrados ordinarios (OLS): E[xt (yt – xtT·β)] = 0
Mínimos cuadrados ponderados (WLS):  E[xt (yt – xtT·β)/σ2(xt)] = 0
 Regresión de variables instrumentales: E[zt (yt – xtT·β)] = 0
Mínimos cuadrados no lineales (NLLS): E[∇β·(xt , β)·(yt – g(xt , β) ] = 0
Estimación de máxima verosimilitud         (MLE): E[∇θ·ln·f(xt , θ)] = 0

Métodos de estimación clásicos

Estimador insesgado

   Es aquel, cuando en una distribución muestral de {\displaystyle {\hat {\theta }}} se tiene una media igual al parámetro estimado, siendo {\displaystyle {\hat {\theta }}} un estimador cuyo valor {\displaystyle {\hat {\theta }}} es una estimación puntual de algún parámetro de la población desconocido de θ.

En resumen, un estadístico {\displaystyle {\hat {\theta }}} es un estimador insesgado del parámetro θ si:

μ{\displaystyle {\hat {\theta }}}=E({\displaystyle {\hat {\theta }}}) = θ

Varianza de un estimador puntual

   Se denomina como estimador más eficaz, aquel que tiene la menor varianza al considerar todos los posibles estimadores insesgados de algún parámetro θ.

   En la imagen se muestran 3 estimadores diferentes ({\displaystyle {\hat {\theta }}}1, {\displaystyle {\hat {\theta }}}2, {\displaystyle {\hat {\theta }}}3),para θ. Se observa que {\displaystyle {\hat {\theta }}}1 y {\displaystyle {\hat {\theta }}}2 no son sesgados, por sus distribuciones cerradas a θ. Siendo el estimador {\displaystyle {\hat {\theta }}}1 quién tiene una varianza menor, por ello, es denominado como el más eficaz.

Estimación por intervalo

   Es aquel en el que en muchas ocasiones es preferible determinar un intervalo dentro del cual se espera encontrar el valor del parámetro. De este modo, un estimador por intervalo de un parámetro de población θ, es un intervalo de forma {\displaystyle {\hat {\theta }}}L< θ <{\displaystyle {\hat {\theta }}}U, donde dependen del valor estadístico {\displaystyle {\hat {\theta }}} para la muestra especifica, y también de la distribución de muestreo {\displaystyle {\hat {\theta }}}.

Interpretación de estimación por intervalo (R. E. Walpole, 2012)

“Como muestras distintas suelen producir valores diferentes de {\displaystyle {\hat {\theta }}} y, por lo tanto, valores diferentes de {\displaystyle {\hat {\theta }}}L y {\displaystyle {\hat {\theta }}}U , estos puntos extremos del intervalo son valores de las variables aleatorias correspondientes {\displaystyle {\hat {\theta }}}L y {\displaystyle {\hat {\theta }}}U. De la distribución muestral de {\displaystyle {\hat {\theta }}} seremos  capaces de determinar {\displaystyle {\hat {\theta }}}L y {\displaystyle {\hat {\theta }}}U , de manera que P({\displaystyle {\hat {\theta }}}L< {\displaystyle {\hat {\theta }}} <{\displaystyle {\hat {\theta }}}U) sea igual a cualquier valor positivo de una fracción que queramos especificar. Si, por ejemplo, calculamos {\displaystyle {\hat {\theta }}}L y {\displaystyle {\hat {\theta }}}U, tales que: ”

P({\displaystyle {\hat {\theta }}}L< {\displaystyle {\hat {\theta }}} <{\displaystyle {\hat {\theta }}}U = 1-α)

“Para 0 < α < 1, tenemos entonces una probabilidad de 1 – α de seleccionar una muestra aleatoria que produzca un intervalo que contenga θ. El intervalo {\displaystyle {\hat {\theta }}}L< {\displaystyle {\hat {\theta }}} <{\displaystyle {\hat {\theta }}}U, que se calcula a partir de la muestra seleccionada, se llama entonces intervalo de confianza del 100(1 – α)%, la fracción 1 – α,  se denomina coeficiente de confianza o grado de confianza, y los extremos,  {\displaystyle {\hat {\theta }}}L y {\displaystyle {\hat {\theta }}}U , se denominan límites de confianza inferior y superior.”

Distribución T

Surgimiento

                Cuando se muestrea una distribución normal con desviación estándar conocida σ, la distribución de Z = (\overline{x}-μ)/σ/√n . Desde el punto de vista práctico, la necesidad de conocer σ impide formular inferencias con respecto a μ debido a que generalmente no se conoce el valor de la desviación estándar de la población.“  

            Es aquí donde se supone que, si tenemos dos variables aleatorias “X y Z”, X tiene una distribución chi-cuadrada (ji-cuadrado) con v grados de libertad y Z una distribución normal con media cero y desviación estándar uno. Entonces, sea T otra variable aleatoria que es función de X y Z de manera tal que:

Estadística, Distribución T Estadística
Distribución T

Formula de densidad de probabilidad deducción

   Sea T una variable aleatoria definida por la ecuación anterior. Se considera la densidad de probabilidad de T cuando X se mantiene fija en un valor x Dado que:

Estadística, Formula para el calculo de densidad de probabilidad deducción
Formula de densidad de probabilidad deducción
La densidad de proba-  bilidad condicional de:

Deducción de la formula para de densidad de probabilidad
Deducción 1 F. de P.
Se obtiene al considerar la relación inversa:
Y al sustituir en , en      donde el jacobiano de   la transformación es:
De esta forma:

Deducción de la formula para de densidad de probabilidad
Deducción 2 F. de P.
De la ecuación principal se sabe que la densidad conjunta de T y X:
Dado que :

Es así qué:

Deducción de la formula para de densidad de probabilidad
Deducción 3 F. de P.

Deducción de la formula para de densidad de probabilidad
Deducción 5 F. de P.

En dónde:

Deducción de la formula para de densidad de probabilidad
Deducción 4 F. de P.

E, Integrando f(t,x) con respecto a x, se obtiene la función de densidad de probabilidad de la distribución t Student.

Así, finalmente:

Deducción de la formula para de densidad de probabilidad
Deducción 6 F. de P.

 

Deducción de la formula para de densidad de probabilidad
Deducción 7 F. de P.

(Canavos, 1988 )

Importancia

  • Las funciones de densidad de probabilidad son una medida estadística que se utiliza para medir el resultado probable de un valor discreto (por ejemplo, el precio de una acción o ETF).
  • Los PDF se trazan en un gráfico que generalmente se asemeja a una curva de campana, con la probabilidad de que los resultados se encuentren por debajo de la curva, (Calculo de áreas)
  • Una variable discreta se puede medir con exactitud, mientras que una variable continua puede tener valores infinitos.
  • Los PDF se pueden utilizar para medir el riesgo / recompensa potencial de un valor o fondo en particular en una cartera.

BIBLIOGRAFÍA

Referencias Informativas

  • Canavos, G. C. (1988 ). Probabilidad y Estadística: Aplicaciones y Métodos. Traducción UAM Ixtapalapa: Editorial McGRAW-HILL.
  • Guevara, N. Y. (2017). Estadística inferencial. Bogotá, Colombia: Fondo editorial Areandino, Fundación Universitaria del Área Andina. Obtenido de https://digitk.areandina.edu.co/bitstream/handle/areandina/1390/Estad%C3%ADstica%20inferencial.pdf?sequence=1&isAllowed=y
  • L., D. J. (2012). Probability and Statistics for Engineering and the Sciences (8th edition),. Boston, MA 02210, USA: Brooks/Cole, Cengage Learning.
  • Montgomery Douglas C., P. E. (2007). Introduction to Linear Regression Analysis (4th Edition). USA: WILEY, John Wiley & Sons, Inc.
  • Sapientia Aedificavit. (2012). TEMA 5: Estimación puntual I. Propiedades de los estimadores. Valladolid: Universidad de Valladolid. Obtenido de http://www5.uva.es/espartero/Tema5_2012.pdf

Referencias Ilustrativas (Créditos y Licencias correspondientes)

  • {\displaystyle {\hat {\theta }}}: https://es.wikipedia.org/wiki/Estimador
  • Fórmula Newton y R_Berndt-H-H-H, Fórmula Machine Learning, Fórmula Distribución  T, Fórmula Coeficiente de Pearson; Deducción 1 … 8 F. de P. :

(BONZOPEDIA By JEVG / CC BY-NC-SA 4.0):          https://bonzopedia.com/licencia-creative-commons

Licencia Creative Commons Bonzopedia

 

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *