simulacionsisjuanb
  VARIABLE CONTINUA
 

Distribuciones de variable continua más importantes

Las distribuciones de variable continua más importantes son las siguientes:


Distribución χ²

De Wikipedia, la enciclopedia libre
 
Distribución χ² (ji-cuadrado)
Función de densidad de probabilidad
Chi-square distributionPDF.png
Función de distribución de probabilidad
Chi-square distributionCDF.png
Parámetros k > 0, grados de libertad
Dominio x in [0; +infty),
Función de densidad (pdf) frac{(1/2)^{k/2}}{Gamma(k/2)} x^{k/2 - 1} e^{-x/2},
Función de distribución (cdf) frac{gamma(k/2,x/2)}{Gamma(k/2)},
Media k,
Mediana aproximadamente k-2/3,
Moda k-2, if kgeq 2,
Varianza 2,k,
Coeficiente de simetría sqrt{8/k},
Curtosis 12/k,
Entropía frac{k}{2}!+!ln(2Gamma(k/2))!+!(1!-!k/2)psi(k/2)
Función generadora de momentos (mgf) (1-2,t)^{-k/2} for 2,t<1,
Función característica (1-2,i,t)^{-k/2},

En estadística, la distribución χ² (de Pearson) es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria

X = Z_1^2 + cdots + Z_k^2

donde Zi son variables aleatorias normalesindependientes de media cero y varianza uno. El que la variable aleatoria X tenga esta distribución se representa habitualmente así: Xsimchi^2_k .

Es conveniente tener en cuenta que la letra griega χ se transcribe al latín como chi[1] y se pronuncia en castellano como ji.[2] [3]

 Propiedades

Función de densidad

Su función de densidad es:


    f(x;k)=
    begin{cases}displaystyle
    frac{1}{2^{k/2}Gamma(k/2)},x^{(k/2) - 1} e^{-x/2}&text{para }xge0,
    0&text{para }x<0
    end{cases}

donde Γ es la función gamma.

 Función de distribución acumulada

Su función de distribución es

 F_k(x) = frac{gamma(k/2,x/2)}{Gamma(k/2)}

donde  gamma(k,z) es la función gamma incompleta.

El valor esperado y la varianza de una variable aleatoria X con distribución χ² son, respectivamente, k y 2k.

 Relación con otras distribuciones

La distribución χ² es un caso especial de la distribución gamma. De hecho, X sim Gamma(frac{k}{2}, theta=2). Como consecuencia, cuando k = 2, la distribución χ² es una distribución exponencial de media k = 2.

Cuando k es suficientemente grande, como consecuencia del teorema central del límite, puede aproximarse por una distribución normal:

 lim_{k to infty} frac{chi^2_k (x)}{ k }  = N_{(1,sqrt{2/k})} (x)

 Aplicaciones

La distribución χ² tiene muchas aplicaciones en inferencia estadística. La más conocida es la de la denominada prueba χ² utilizada como prueba de independencia y como prueba de bondad de ajuste y en la estimación de varianzas. Pero también está involucrada en el problema de estimar la media de una población normalmente distribuida y en el problema de estimar la pendiente de una recta de regresión lineal, a través de su papel en la distribución t de Student.

Aparece también en todos los problemas de análisis de varianza por su relación con la distribución F de Snedecor, que es la distribución del cociente de dos variables aleatorias independientes con distribución χ².

2.- Distribución exponencial

 
Distribución exponencial
Función de densidad de probabilidad
Probability density function
Función de distribución de probabilidad
Cumulative distribution function
Parámetros lambda > 0 ,
Dominio [0,infty)!
Función de densidad (pdf) λe − λx
Función de distribución (cdf) 1 − e − λx
Media 1/lambda,
Mediana ln(2)/lambda,
Moda 0,
Varianza 1/lambda^2,
Coeficiente de simetría 2,
Curtosis 6,
Entropía 1 - ln(lambda),
Función generadora de momentos (mgf) left(1 - frac{t}{lambda}right)^{-1},
Función característica left(1 - frac{it}{lambda}right)^{-1},

En estadística la distribución exponencial es una distribución de probabilidad continua con un parámetro λ > 0 cuya función de densidad es:


f(x)=left{begin{matrix}
lambda e^{-lambda x} &   mbox{para } x ge 0
0 &   mbox{de otro modo}
end{matrix}right.

Su función de distribución es: 
F(x)= P(X le x)=left{begin{matrix}
0 & mbox{para }x < 0
1-e^{-lambda x} & mbox{para }x ge 0
end{matrix}right.

Donde e representa el número e.

El valor esperado y la varianza de una variable aleatoria X con distribución exponencial son:

  • E[X]=frac{1}{lambda}
  • V(X)=frac{1}{lambda^2}

 Ejemplo

Ejemplos para la distribución exponencial es la distribución de la longitud de los intervalos de variable continua que transcuren entre la ocurrencia de dos sucesos "raros", que se distribuyen según la distribución de Poisson.

{{VT|Distribución exponencial}

 Calcular variables aleatorias

Se pueden calcular una variable aleatoria de distribución exponencial x por medio de una variable aleatoria de distribución uniforme u = U(0,1):

x=-frac{1}{lambda}  ln (1-u)

o, dado que (1 − u) es también una variable aleatoria con distribucion U(0,1), puedo utilizarse la versión más eficiente:

x=-frac{1}{lambda}  ln (u)

3.-Distribución t de Student

Distribución t de Student
Función de densidad de probabilidad
Student densite best.JPG
Función de distribución de probabilidad
T distributionCDF.png
Parámetros nu > 0! grados de libertad (real)
Dominio x in (-infty; +infty)!
Función de densidad (pdf) frac{Gamma((nu+1)/2)} {sqrt{nupi},Gamma(nu/2)} (1+x^2/nu)^{-(nu+1)/2}!
Función de distribución (cdf) frac{1}{2} + frac{x Gamma left( (nu+1)/2 right) ,_2F_1 left ( frac{1}{2},(nu+1)/2;frac{3}{2};-frac{x^2}{nu} right)} {sqrt{pinu},Gamma (nu/2)} donde ,_2F_1 es la función hipergeométrica
Media 0 para ν > 1, indefinida para otros valores
Mediana 0
Moda 0
Varianza frac{nu}{nu-2}! para ν > 2, indefinida para otros valores
Coeficiente de simetría 0 para ν > 3
Curtosis frac{6}{nu-4}! para ν > 4,
Entropía begin{matrix}
            frac{nu+1}{2}left[
            psi(frac{1+nu}{2})
            - psi(frac{nu}{2})
            right] [0.5em]
            + log{left[sqrt{nu}B(frac{nu}{2},frac{1}{2})right]}
            end{matrix}
  • ψ: función digamma,
  • B: función beta
Función generadora de momentos (mgf) (No definida)
Función característica  

En probabilidad y estadística, la distribución t (de Student) es una distribución de probabilidad que surge del problema de estimar la media de una poblaciónnormalmente distribuida cuando el tamaño de la muestra es pequeño.

Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra.

 Caracterización

La distribución t de Student es la distribución de probabilidad del cociente

 frac{Z}{sqrt{V/nu }}

donde

Si μ es una constante no nula, el cociente  frac{Z+mu}{sqrt{V/nu }} es una variable aleatoria que sigue la distribución t de Student no central con parámetro de no-centralidad μ.

Aparición y especificaciones de la distribución t de Student

Supongamos que X1,..., Xn son variables aleatoriasindependientes distribuidas normalmente, con media μ y varianza σ2. Sea

overline{X}_n=(X_1+cdots+X_n)/n

la media muestral. Entonces

Z=frac{overline{X}_n-mu}{sigma/sqrt{n}}

sigue una distribución normal de media 0 y varianza 1.

Sin embargo, dado que la desviación estándar no siempre es conocida de antemano, Gosset estudió un cociente relacionado,

T=frac{overline{X}_n-mu}{S_n/sqrt{n}},

donde

S ^ 2(x) = frac{1}{n-1} sum_{i=1}^n (x_i - overline{x}) ^ 2

es la varianza muestral y demostró que la función de densidad de T es

f(t) = frac{Gamma((nu+1)/2)}{sqrt{nupi,},Gamma(nu/2)} (1+t^2/nu)^{-(nu+1)/2}

donde ν es igual a n − 1.

La distribución de T se llama ahora la distribución-t de Student.

El parámetro ν representa el número de grados de libertad. La distribución depende de ν, pero no de μ o σ, lo cual es muy importante en la práctica.

 Intervalos de confianza derivados de la distribución t de Student

El procedimiento para el cálculo del intervalo de confianza basado en la t de Student consiste en estimar la desviación típica de los datos S y calcular el error estándar de la media= S/(raíz cuadrada de n), siendo entonces el intervalo de confianza para la media = x media +- t (alfa/2) multiplicado por (S/(raíz cuadradada de n)).

Es este resultado el que se utiliza en el test de Student: puesto que la diferencia de las medias de muestras de dos distribuciones normales se distribuye también normalmente, la distribución t puede usarse para examinar si esa diferencia puede razonablemente suponerse igual a cero.

para efectos prácticos el valor esperado y la varianza son :

E(t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3

 

4.- Distribución normal

 
Distribución normal
Función de densidad de probabilidad
Probability density function for the normal distribution
La línea verde corresponde a la distribución normal estandar
Función de distribución de probabilidad
Cumulative distribution function for the normal distribution
Parámetros mu inmathbb{R} ,!
σ > 0
Dominio x inmathbb{R} ,!
Función de densidad (pdf) frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{x-mu}{sigma}right)^2}  ,!
Función de distribución (cdf) intlimits_{-infty}^{x} frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{t-mu}{sigma}right)^2}    , dt ,!
Media mu ,!
Mediana mu ,!
Moda mu ,!
Varianza sigma^2 ,!
Coeficiente de simetría 0
Curtosis 0
Entropía lnleft(sigmasqrt{2,pi,e}right)  ,!
Función generadora de momentos (mgf) M_X(t)= e^{mu,t+frac{sigma^2 t^2}{2}} ,!
Función característica chi_X(t)=e^{mu,i,t-frac{sigma^2 t^2}{2}} ,!

En estadística y probabilidad se llama distribución normal,
distribución de Gauss o distribución gaussiana, a una de las
distribuciones de probabilidad de variable continua
que con más frecuencia aparece en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno,
sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí
que al uso de la estadística en psicología y sociología sea conocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la
normal son:

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.[1] Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas.

 Función de densidad

Gráfica de la distribución normal de media 0 y desviación típica 1

Se dice que una variable aleatoriacontinua X sigue una distribución normal de parámetros μ y σ y se denota X~N(μ, σ) si su función de densidad está dada por:

f(x)=frac1{sigmasqrt{2pi}}; e^{ - frac{1}{2} left(frac{x-mu}{sigma}right)^2} , , quad xinmathbb{R},

donde μ (mu) es la media y σ (sigma) es la desviación típica (σ2 es la varianza).[5]

Se llama distribución normal "estándar" a aquélla en la que sus parámetros toman los valores μ = 0 y σ = 1. En este caso la función de densidad tiene la siguiente expresión:

f(x)=f_{0,1}(x)=frac{e^frac{-x^2}{2}}{sqrt{2pi,}}, ,quad xinmathbb{R},

Su gráfica se muestra a la derecha y con frecuencia se usan tablas para el cálculo de los valores de su distribución.

 Función de distribución

Función de distribución para la distribución normal

La función de distribución de la distribución normal está definida como sigue:

 begin{align}
    Phi_{mu,sigma^2}(x)
    &{}=int_{-infty}^xvarphi_{mu,sigma^2}(u),du
    &{}=frac{1}{sigmasqrt{2pi}}
    int_{-infty}^x
    e^{-frac{(u - mu)^2}{2sigma^2}}, du ,quad xinmathbb{R}
    end{align}

Por tanto, la función de distribución de la normal estándar es:


    Phi(x) = Phi_{0,1}(x)
    = frac{1}{sqrt{2pi}}
    int_{-infty}^x
    e^{-frac{u^2}{2}}
    , du, quad xinmathbb{R}.

Esta función de distribución puede expresarse en términos de una función especial llamada función error de la siguiente forma:


    Phi(x)
    =frac{1}{2} Bigl[ 1 + operatorname{erf} Bigl( frac{x}{sqrt{2}} Bigr) Bigr],
    quad xinmathbb{R},

y la propia función de distribución puede, por consiguiente, expresarse así:


    Phi_{mu,sigma^2}(x)
    =frac{1}{2} Bigl[ 1 + operatorname{erf} Bigl( frac{x-mu}{sigmasqrt{2}} Bigr) Bigr],
    quad xinmathbb{R}.

El complemento de la función de distribución de la normal estándar, 1 − Φ(x), se denota con frecuencia Q(x), y es referida, a veces, como simplemente función Q, especialmente en textos de ingeniería.[6] [7] Esto representa la cola de probabilidad de la distribución gaussiana. También se usan ocasionalmente otras definiciones de la función Q, las cuales son todas
ellas transformaciones simples de Φ.
[8]

La inversa de la función de distribución de la normal estándar (función cuantil) puede expresarse en términos de la inversa de la función de error:


    Phi^{-1}(p)
    = sqrt2
    ;operatorname{erf}^{-1} (2p - 1),
    quad pin(0,1),

y la inversa de la función de distribución puede, por consiguiente, expresarse como:


    Phi_{mu,sigma^2}^{-1}(p)
    = mu + sigmaPhi^{-1}(p)
    = mu + sigmasqrt2
    ; operatorname{erf}^{-1}(2p - 1),
    quad pin(0,1).

Esta función cuantil se llama a veces la función probit. No hay una primitiva elemental para la función probit. Esto no quiere decir meramente que no se conoce, sino que se ha probado la inexistencia de tal función. Existen varios métodos exactos para aproximar la función cuantil mediante la distribución normal (véase función cuantil).

Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos, tales como integración numérica, series de Taylor, series asintóticas y fracciones continuas.

 Límite inferior y superior estrictos para la función de distribución

Para grandes valores de x la función de distribución de la normal estándar scriptstylePhi(x) es muy próxima a 1 y scriptstylePhi(-x),{=},1,{-},Phi(x) está muy cerca de 0. Los límites elementales


    frac{x}{1+x^2}varphi(x)<1-Phi(x)<frac{varphi(x)}{x}, qquad x>0,

en términos de la densidad scriptstylevarphi son útiles.

Usando el cambio de variable v = u²/2, el límite superior se obtiene como sigue:


    begin{align}
    1-Phi(x)
    &=int_x^inftyvarphi(u),du
    &<int_x^inftyfrac uxvarphi(u),du
    =int_{x^2/2}^inftyfrac{e^{-v}}{xsqrt{2pi}},dv
    =-biggl.frac{e^{-v}}{xsqrt{2pi}}biggr|_{x^2/2}^infty
    =frac{varphi(x)}{x}.
    end{align}

De forma similar, usando scriptstylevarphi'(u),{=},-u,varphi(u) y la regla del cociente,


    begin{align}
    Bigl(1+frac1{x^2}Bigr)(1-Phi(x))&=Bigl(1+frac1{x^2}Bigr)int_x^inftyvarphi(u),du
    &=int_x^infty Bigl(1+frac1{x^2}Bigr)varphi(u),du
    &>int_x^infty Bigl(1+frac1{u^2}Bigr)varphi(u),du
    =-biggl.frac{varphi(u)}ubiggr|_x^infty
    =frac{varphi(x)}x.
    end{align}

Resolviendo para scriptstyle 1,{-},Phi(x), proporciona el límite inferior.

 Funciones generadoras

Función generadora de momentos

La función generadora de momentos se define como la esperanza de e(tX). Para una distribución normal, la función generadora de momentos es:

 M_X(t) = mathrm{E} left[ e^{tX} right] = int_{-infty}^{infty}  frac{1}{sigma sqrt{2pi} } e^{-frac{(x - mu)^2}{2 sigma^2}} e^{tx} , dx = e^{mu t + frac{sigma^2 t^2}{2}}

como puede comprobarse completando el cuadrado en el exponente.


 

 Función característica

La función característica se define como la esperanza de eitX, donde i es la unidad imaginaria. De este modo, la función característica se obtiene reemplazando t por it en la función generadora de momentos.

Para una distribución normal, la función característica es[9]


    begin{align}
    chi_X(t;mu,sigma) &{} = M_X(i t) = mathrm{E}
    left[ e^{i t X} right]
    &{}=
    int_{-infty}^{infty}
    frac{1}{sigma sqrt{2pi}}
    e^{- frac{(x - mu)^2}{2sigma^2}}
    e^{i t x}
    , dx
    &{}=
    e^{i mu t - frac{sigma^2 t^2}{2}}
    end{align}

 Propiedades

Algunas propiedades de la distribución normal son:

  1. Es simétrica respecto de su media, μ;
    Distribución de probabilidad alrededor de la media en una distribución N(μ, σ).
  2. La moda y la mediana son ambas iguales a la media, μ;
  3. Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ.
  4. Distribución de probabilidad en un entorno de la media:
    1. en el intervalo [μ - σ, μ + σ] se encuentra comprendida, aproximadamente, el 68,26% de la distribución;
    2. en el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente, el 95,44% de la distribución;
    3. por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra comprendida, aproximadamente, el 99,74% de la distribución. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar.
  5. Si X ~ N(μ, σ2) y a y b son números reales, entonces (aX + b) ~ N(+b, a2σ2).
  6. Si X ~ N(μx, σx2) e Y ~ N(μy, σy2) son variables aleatorias normales independientes, entonces:
    • Su suma está normalmente distribuida con U = X + Y ~ N(μx + μy, σx2 + σy2) (demostración). Recíprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crámer).
    • Su diferencia está normalmente distribuida con V = X - Y sim N(mu_X - mu_Y, sigma^2_X + sigma^2_Y).
    • Si las varianzas de X e Y son iguales, entonces U y V son independientes entre sí.
    • La divergencia de Kullback-Leibler, D {rm KL}( X | Y ) =
        { 1 over 2 } left( log left( { sigma^2_Y over sigma^2_X } right) + frac{sigma^2_X}{sigma^2_Y} +
        frac{left(mu_Y - mu_Xright)^2}{sigma^2_Y} - 1right).
  7. Si X sim N(0, sigma^2_X) e Y sim N(0, sigma^2_Y) son variables aleatorias independientes normalmente distribuidas, entonces:
  8. Si X_1, dots, X_n son variables normales estándar independientes, entonces X_1^2 + cdots + X_n^2 sigue una distribución χ² con n grados de libertad.
  9. Si X_1,dots,X_n son variables normales estándar independientes, entonces la media muestral bar{X}=(X_1+cdots+X_n)/n y la varianza muestral S^2=((X_1-bar{X})^2+cdots+(X_n-bar{X})^2)/(n-1) son independientes. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qué el test-F no es robusto respecto a la no-normalidad).

 Estandarización de variables aleatorias normales

Como consecuencia de la Propiedad 1; es posible relacionar todas las variables aleatorias normales con la distribución normal estándar.

Si X ~ N(μ,σ2), entonces

Z = frac{X - mu}{sigma} !

es una variable aleatoria normal estándar: Z ~ N(0,1).

La transformación de una distribución X ~ N(μ, σ) en una N(0, 1) se llama normalización, estandarización o tipificación de la variable X.

Una consecuencia importante de esto es que la función de distribución de una distribución normal es, por consiguiente,

Pr(X le x)
    =
    Phi
    left(
    frac{x-mu}{sigma}
    right)
    =
    frac{1}{2}
    left(
    1 + operatorname{erf}
    left(
    frac{x-mu}{sigmasqrt{2}}
    right)
    right)
    .

A la inversa, si Z es una distribución normal estándar, Z ~ N(0,1), entonces

X = σZ + μ

es una variable aleatoria normal tipificada de media μ y varianza σ2.

La distribución normal estándar está tabulada (habitualmente en la forma de el valor de la función de distribución Φ) y las otras distribuciones normales pueden obtenerse como transformaciones simples, como se describe más arriba, de la distribución estándar. De este modo se pueden usar los valores tabulados de la función de distribución normal estándar para encontrar valores de la función de distribución de cualquier otra distribución normal.

 Momentos

Los primeros momentos de la distribución normal son:

Número Momento Momento central Cumulante
0 1 1  
1 μ 0 μ
2 μ2 + σ2 σ2 σ2
3 μ3 + 3μσ2 0 0
4 μ4 + 6μ2σ2 + 3σ4 4 0
5 μ5 + 10μ3σ2 + 15μσ4 0 0
6 μ6 + 15μ4σ2 + 45μ2σ4 + 15σ6 15σ6 0
7 μ7 + 21μ5σ2 + 105μ3σ4 + 105μσ6 0 0
8 μ8 + 28μ6σ2 + 210μ4σ4 + 420μ2σ6 + 105σ8 105σ8 0

Todos los cumulantes de la distribución normal, más allá del segundo, son cero.


Los momentos centrales de orden superior (2k con μ = 0) vienen dados por la fórmula

 Eleft[X^{2k}right]=frac{(2k)!}{2^k k!} sigma^{2k}.

 El Teorema del Límite Central

Gráfica de la función de distribución de una normal con μ = 12 y σ = 3, aproximando la función de distribución de una binomial con n = 48 y p = 1/4

El Teorema del límite central establece que bajo ciertas condiciones (como pueden ser independientes e idénticamente distribuidas con varianza finita), la suma de un gran número
de variables aleatorias se distribuye aproximadamente como una normal.

La importancia práctica del Teorema del límite central es que la función de distribución de la normal puede usarse como aproximación de algunas otras funciones de distribución. Por ejemplo:

  • Una distribución binomial de parámetros n y p es aproximadamente normal para grandes valores de n, y p no demasiado cercano a 1 ó 0 (algunos libros recomiendan usar esta aproximación sólo si np y n(1 − p) son ambos, al menos, 5; en este caso se debería aplicar una corrección de continuidad).
    La normal aproximada tiene parámetros μ = np, σ2 = np(1 − p).
  • Una distribución de Poisson con parámetro λ es aproximadamente normal para grandes valores de λ.
    La distribución normal aproximada tiene parámetros μ = σ2 = λ.

La exactitud de estas aproximaciones depende del propósito para el que se necesiten y de la tasa de convergencia a la distribución normal. Se da el caso típico de que tales aproximaciones son menos precisas en las colas de la distribución. El Teorema de Berry-Esséen proporciona un límite superior general del error de aproximación de la función de distribución.

 Divisibilidad infinita

Las normales tienen una distribución de probabilidad infinitamente divisible: dada una
media μ, una varianza σ 2 ≥ 0, y un número natural n, la suma X1 + . . . + Xn de n variables aleatorias independientes

X_1+X_2+dots+X_n sim N(mu/n, sigma!/sqrt n),

tiene esta específica distribución normal (para verificarlo, úsese la función característica de convolución y la inducción matemática).

 Estabilidad

Las distribuciones normales son estrictamente estables.

Desviación típica e intervalos de confianza

Alrededor del 68% de los valores de una distribución normal están a una distancia σ > 1 (desviación típica) de la media, μ; alrededor del 95% de los valores están a dos desviaciones típicas de la media y alrededor del 99,7% están a tres desviaciones típicas de la media. Esto se conoce como la "regla 68-95-99,7" o la "regla empírica".

Para ser más precisos, el área bajo la curva campana entre μ − nσ y μ + nσ en términos de la función de distribución normal viene dada por

begin{align}&Phi_{mu,sigma^2}(mu+nsigma)-Phi_{mu,sigma^2}(mu-nsigma)
    &=Phi(n)-Phi(-n)=2Phi(n)-1=mathrm{erf}bigl(n/sqrt{2},bigr),end{align}

donde erf es la función error. Con 12 decimales, los valores para los puntos 1-, 2-, hasta 6-σ son:

 n,  mathrm{erf}bigl(n/sqrt{2},bigr),
1  0,682689492137 
2 0,954499736104
3 0,997300203937
4 0,999936657516
5 0,999999426697
6 0,999999998027

La siguiente tabla proporciona la relación inversa de múltiples σ correspondientes a unos pocos valores usados con frecuencia para el área bajo la campana de Gauss. Estos valores son útiles para determinar intervalos de confianza para los niveles especificados basados en una curva normalmente distribuida (o estimadoresasintóticamente normales):

 mathrm{erf}bigl(n/sqrt{2},bigr)  n, 
0,80  1,28155 
0,90 1,64485
0,95 1,95996
0,98 2,32635
0,99 2,57583
0,995 2,80703
0,998 3,09023
0,999 3,29052
0,9999 3,8906
0,99999 4,4172

donde el valor a la izquierda de la tabla es la proporción de valores que caerán en el intervalo dado y n es un múltiplo de la desviación típica que determina la anchura de el intervalo.

 Forma familia exponencial

La distribución normal tiene forma de familia exponencial biparamétrica con dos parámetros naturales, μ y 1/σ2, y estadísticos naturales X y X2. La forma canónica tiene como parámetros {mu over sigma^2} y {1 over sigma^2} y estadísticos suficientes sum  x y -{1 over 2} sum  x^2.

 Distribución normal compleja

Considérese la variable aleatoria compleja gaussiana


    Z=X+iY,

donde X e Y son variables gaussianas reales e independientes con igual varianza sigma_r^2. La función de distribución de la variable conjunta es entonces


    frac{1}{2,pi,sigma_r^2} e^{-(x^2+y^2)/(2 sigma_r ^2)}.

Como sigma_Z =sqrt{2}sigma_r, la función de distribución resultante para la variable gaussiana compleja Z es


    frac{1}{pi,sigma_Z^2} e^{-|Z|^2!/sigma_Z^2}.

 Distribuciones relacionadas

  • Y˜Cauchy(μ = 0,θ = 1) es una distribución de Cauchy si Y = X1 / X2 para X1˜N(0,1) y X2˜N(0,1) son dos distribuciones normales independientes.
  • Distribución normal truncada. si X sim N(mu, sigma^2),! entonces truncando X por debajo de A y por encima de B dará lugar a una variable aleatoria de media E(X)=mu + frac{sigma(varphi_1-varphi_2)}{T},! donde T=Phileft(frac{B-mu}{sigma}right)-Phileft(frac{A-mu}{sigma}right), ; varphi_1 = varphileft(frac{A-mu}{sigma}right), ; varphi_2 = varphileft(frac{B-mu}{sigma}right)
  • y varphi es la función de densidad de una variable normal estándar.

Estadística descriptiva e inferencial

 Resultados

De la distribución normal se derivan muchos resultados, incluyendo rangos de percentiles ("percentiles" o "cuantiles"), curvas normales equivalentes, stanines, z-scores, y T-scores. Además, un número de procedimientos de estadísticos de comportamiento están basados en la asunción de que esos resultados están normalmente distribuidos. Por ejemplo, el test de Student y el análisis de varianza (ANOVA) (véase más abajo). La gradación de la curva campana asigna grados relativos basados en una distribución normal de resultados.

 Tests de normalidad

Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribución normal. La hipótesis nula es, en estos casos, si el conjunto de datos es similar a una distribución normal, por lo que un P-valor suficientemente pequeño indica datos no normales.

 Estimación de parámetros

 Estimación de parámetros de máxima verosimilitud

 

Supóngase que

X_1,dots,X_n

son independientes y cada una está normalmente distribuida con media μ y varianza σ 2 > 0. En términos estadísticos los valores observados de estas n variables aleatorias constituyen una "muestra de tamaño n de una población normalmente distribuida. Se desea estimar la media poblacional μ y la desviación típica poblacional σ, basándose en las valores observados de esta muestra. La función de densidad conjunta de estas n variables aleatorias independientes es

begin{align}f(x_1,dots,x_n;mu,sigma)
    &= prod_{i=1}^n varphi_{mu,sigma^2}(x_i)
    &=frac1{(sigmasqrt{2pi})^n}prod_{i=1}^n expbiggl(-{1 over 2} Bigl({x_i-mu over sigma}Bigr)^2biggr),
    quad(x_1,ldots,x_n)inmathbb{R}^n.
    end{align}

Como función de μ y σ, la función de verosimilitud basada en las observaciones X1, ..., Xn es


    L(mu,sigma) = frac C{sigma^n} expleft(-{sum_{i=1}^n (X_i-mu)^2 over 2sigma^2}right),
    quadmuinmathbb{R}, sigma>0,

con alguna constante C > 0 (de la cual, en general, se permitiría incluso que dependiera de X1, ..., Xn, aunque desapareciera con las derivadas parciales de la función de log-verosimilitud respecto a los parámetros tenidos en cuenta, véase más abajo).

En el método de máxima verosimilitud, los valores de μ y σ que maximizan la función de verosimilitud se toman como estimadores de los parámetros poblacionales μ y σ.

Habitualmente en la maximización de una función de dos variables, se podrían considerar derivadas parciales. Pero aquí se explota el hecho de que el valor de μ que maximiza la función de verosimilitud con σ fijo no depende de σ. No obstante, encontramos que ese valor de μ, entonces se sustituye por μ en la función de verosimilitud y finalmente encontramos el valor de σ que maximiza la expresión resultante.

Es evidente que la función de verosimilitud es una función decreciente de la suma

sum_{i=1}^n (X_i-mu)^2. ,!

Así que se desea el valor de μ que minimiza esta suma. Sea

overline{X}_n=(X_1+cdots+X_n)/n

la media muestral basada en las n observaciones. Nótese que


    begin{align}
    sum_{i=1}^n (X_i-mu)^2
    &=sum_{i=1}^nbigl((X_i-overline{X}_n)+(overline{X}_n-mu)bigr)^2
    &=sum_{i=1}^n(X_i-overline{X}_n)^2 + 2(overline{X}_n-mu)underbrace{sum_{i=1}^n (X_i-overline{X}_n)}_{=,0} + sum_{i=1}^n (overline{X}_n-mu)^2
    &=sum_{i=1}^n(X_i-overline{X}_n)^2 + n(overline{X}_n-mu)^2.
    end{align}

Sólo el último término depende de μ y se minimiza por

widehat{mu}_n=overline{X}_n.

Esta es la estimación de máxima verosimilitud de μ basada en las n
observaciones X1, ..., Xn. Cuando sustituimos esta estimación por μ en la función de verosimilitud, obtenemos

L(overline{X}_n,sigma) = frac C{sigma^n} expbiggl(-{sum_{i=1}^n (X_i-overline{X}_n)^2 over 2sigma^2}biggr),
    quadsigma>0.

Se conviene en denotar la "log-función de verosimilitud", esto es, el logaritmo de la función de verosimilitud, con una minúscula , y tenemos

ell(overline{X}_n,sigma)=log C-nlogsigma-{sum_{i=1}^n(X_i-overline{X}_n)^2 over 2sigma^2},
    quadsigma>0,

entonces


    begin{align}
    {partial over partialsigma}ell(overline{X}_n,sigma)
    &=-{n over sigma} +{sum_{i=1}^n (X_i-overline{X}_n)^2 over sigma^3}
    &=-{n over sigma^3}biggl(sigma^2-{1 over n}sum_{i=1}^n (X_i-overline{X}_n)^2 biggr),
    quadsigma>0.
    end{align}

Esta derivada es positiva, cero o negativa según σ2 esté entre 0 y

hatsigma_n^2:={1 over n}sum_{i=1}^n(X_i-overline{X}_n)^2,

o sea igual a esa cantidad, o mayor que esa cantidad. (Si hay solamente una observación, lo que significa que n = 1, o si X1 = ... = Xn, lo cual sólo ocurre con probabilidad cero, entonces hatsigma{}_n^2=0 por esta fórmula, refleja el hecho de que en estos casos la función de verosimilitud es ilimitada cuando σ decrece hasta cero.)

Consecuentemente esta media de cuadrados de residuos es el estimador de máxima verosimilitud de σ2, y su raíz cuadrada es el estimador de máxima verosimilitud de σ basado en las n observaciones. Este estimador hatsigma{}_n^2 es sesgado, pero tiene un menor error medio al cuadrado que el habitual estimador insesgado, que es n/(n − 1) veces este estimador.

 Sorprendente generalización

La derivada del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariante es despreciable. Involucra el teorema espectral y la razón por la que puede ser mejor para ver un escalar como la traza de una matriz 1×1 matrix que como un mero escalar. Véase estimación de la covarianza de matrices.

 Estimación insesgada de parámetros

El estimador  overline{X} de máxima verosimilitud de la media poblacional μ, es un estimador insesgado de la media poblacional.

El estimador de máxima verosimilitud de la varianza es insesgado si asumimos que la media de la población es conocida a priori, pero en la práctica esto no ocurre. Cuando disponemos de una muestra y no sabemos nada de la media o la varianza de la población de la que se ha extraído, como se asumía en la derivada de máxima verosimilitud de arriba, entonces el estimador de máxima verosimilitud de la varianza es sesgado. Un estimador insesgado de la varianza σ2 es la cuasi varianza muestral:


    S^2 = frac{1}{n-1} sum_{i=1}^n (X_i - overline{X})^2.

que sigue una distribución Gamma cuando las Xi son normales independientes e idénticamente distribuidas:


    S^2 sim operatorname{Gamma}left(frac{n-1}{2},frac{2 sigma^2}{n-1}right),

con media operatorname{E}(S^2)=sigma^2 y varianza operatorname{Var}(S^2)=2sigma^4/(n-1).

La estimación de máxima verosimilitud de la desviación típica es la raíz cuadrada de la estimación de máxima verosimilitud de la varianza. No obstante, ni ésta, ni la raíz cuadrada de la cuasivarianza muestral proporcionan un estimador insesgado para la desviación típica (véase estimación insesgada de la desviación típica para una fórmula particular para la distribución normal.

5.- Distribución gamma

 
Distribución gamma.

En estadística la distribución gamma es una distribución de probabilidad continua con dos parámetros k y λ cuya función de densidad para valores x > 0 es

f(x) = lambda e^{-lambda x} frac{(lambda x)^{k-1}}{Gamma(k)}

Aquí e es el número e y Γ es la función gamma. Para valores k=1,2,ldots la aquella es Γ(k) = (k − 1)! (el factorial de k − 1). En este caso - por ejemplo para describir un proceso de Poisson - se llaman la distribición distribución Erlang con un parámetro θ = 1 / λ.


El
valor esperado y la varianza de una variable aleatoria X de distribución gamma son

E[X] = k / λ = kθ
V[X] = k / λ2 = kθ2

 Relaciones

El tiempo hasta que el suceso número k ocurre en un Proceso de Poisson de intensidad λ es una variable aleatoria con distribución gamma. Eso es la suma de k variables aleatorias independientes de distribución exponencial con parámetro λ.

6.-Distribución beta

 
Beta
Función de densidad de probabilidad
Probability density function for the Beta distribution
Función de distribución de probabilidad
Cumulative distribution function for the Beta distribution
Parámetros α > 0 forma (real)
β > 0 forma (
real)
Dominio x in [0; 1]!
Función de densidad (pdf) frac{x^{alpha-1}(1-x)^{beta-1}} {mathrm{B}(alpha,beta)}!
Función de distribución (cdf) I_x(alpha,beta)!
Media frac{alpha}{alpha+beta}!
Mediana  
Moda frac{alpha-1}{alpha+beta-2}! para α > 1,β > 1
Varianza frac{alphabeta}{(alpha+beta)^2(alpha+beta+1)}!
Coeficiente de simetría frac{2,(beta-alpha)sqrt{alpha+beta+1}}{(alpha+beta+2)sqrt{alphabeta}}
Curtosis  
Entropía  
Función generadora de momentos (mgf) 1  +sum_{k=1}^{infty} left( prod_{r=0}^{k-1} frac{alpha+r}{alpha+beta+r} right) frac{t^k}{k!}
Función característica {}_1F_1(alpha; alpha+beta; i,t)!

En estadística la distribución beta es una distribución de probabilidad continua con dos parámetros a y b cuya función de densidad para valores 0 < x < 1 es

f(x) = frac{Gamma(a+b)}{Gamma(a)Gamma(b)}x^{a-1}(1-x)^{b-1}

Aquí Γ es la función gamma.

El valor esperado y la varianza de una variable aleatoria X con distribución beta son

E[X]=frac{a}{a+b}
V[X]=frac{ab}{(a+b+1)(a+b)^2}.

Un caso especial de la distribución beta con a = 1 y b = 1 es la distribución uniforme en el intervalo [0, 1].

Para relacionar con la muestra se iguala E[X] a la media y V[X] a la varianza y de despejan a
y b.

7.- Distribución F

 
Fisher-Snedecor
Función de densidad de probabilidad
F distributionPDF.png
Función de distribución de probabilidad
F distributionCDF.png
Parámetros d_1>0, d_2>0 grados de libertad
Dominio x in [0; +infty)!
Función de densidad (pdf) frac{sqrt{frac{(d_1,x)^{d_1},,d_2^{d_2}}
            {(d_1,x+d_2)^{d_1+d_2}}}}
            {x,mathrm{B}!left(frac{d_1}{2},frac{d_2}{2}right)}!
Función de distribución (cdf) I_{frac{d_1 x}{d_1 x + d_2}}(d_1/2, d_2/2)!
Media frac{d_2}{d_2-2}! para d2 > 2
Mediana  
Moda frac{d_1-2}{d_1};frac{d_2}{d_2+2}! para d1 > 2
Varianza frac{2,d_2^2,(d_1+d_2-2)}{d_1 (d_2-2)^2 (d_2-4)}! para d2 > 4
Coeficiente de simetría frac{(2 d_1 + d_2 - 2) sqrt{8 (d_2-4)}}{(d_2-6) sqrt{d_1 (d_1 + d_2 -2)}}!
para d2 > 6
Curtosis  
Entropía  
Función generadora de momentos (mgf)  
Función característica  

Usada en teoría de probabilidad y estadística, la distribución F es una distribución de probabilidad continua. También se la conoce como distribución F de Snedecor (por George Snedecor) o como distribución F de Fisher-Snedecor.

Una variable aleatoria de distribución F se construye como el siguiente cociente:

 F =frac{U_1/d_1}{U_2/d_2}

donde

  • U1 y U2 siguen una distribución chi-cuadrado con d1 y d2 grados de libertad respectivamente, y
  • U1 y U2 son estadísticamente independientes.

La distribución F aparece frecuentemente como la distribución nula de una prueba estadística, especialmente en el análisis de varianza. Véase el test F.

La función de densidad de una F(d1, d2) viene dada por


    g(x) = frac{1}{mathrm{B}(d_1/2, d_2/2)} ; left(frac{d_1,x}{d_1,x + d_2}right)^{d_1/2} ; left(1-frac{d_1,x}{d_1,x + d_2}right)^{d_2/2} ; x^{-1}

para todo número real x ≥ 0, donde d1 y d2 son enteros positivos, y B es la función beta.

La función de distribución es

 G(x) = I_{frac{d_1 x}{d_1 x + d_2}}(d_1/2, d_2/2)

donde I es la función beta incompleta regularizada.

Distribución uniforme continua

Uniforme
Función de densidad de probabilidad
PDF of the uniform probability distribution using the maximum convention at the transition points.
Utilizando convención de máximo
Función de distribución de probabilidad
CDF of the uniform probability distribution.
Parámetros a,b in (-infty,infty) ,!
Dominio a le x le b ,!
Función de densidad (pdf) 
            begin{matrix}
            frac{1}{b - a} & mbox{para }a le x le b   
            0 & mathrm{para} x<a mathrm{o} x>b
            end{matrix}
            ,!
Función de distribución (cdf) 
            begin{matrix}
            0 & mbox{para }x < a 
            frac{x-a}{b-a} & ~~~~~ mbox{para }a le x < b 
            1 & mbox{para }x ge b
            end{matrix}
            ,!
Media frac{a+b}{2} ,!
Mediana frac{a+b}{2} ,!
Moda cualquier valor en [a,b] ,!
Varianza frac{(b-a)^2}{12} ,!
Coeficiente de simetría 0 ,!
Curtosis -frac{6}{5} ,!
Entropía ln(b-a) ,!
Función generadora de momentos (mgf) frac{e^{tb}-e^{ta}}{t(b-a)} ,!
Función característica frac{e^{itb}-e^{ita}}{it(b-a)} ,!

En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada como U(a,b).

 Caracterización

 Función de densidad de probabilidad

La función de densidad de probabilidad de la distribución uniforme continua es:


    f(x)=left{begin{matrix}
    frac{1}{b - a} &    mathrm{para} a le x le b,   
    0 & mathrm{para} x<a mathrm{o} x>b, end{matrix}right.

Los valores en los dos extremos a y b no son por lo general importantes porque no afectan el valor de las integrales de f(xdx sobre el intervalo, ni de x f(xdx o expresiones similares. A veces se elige que sean cero, y a veces se los elige con el valor 1/(b − a). Este último resulta apropiado en el contexto de estimación por el método de máxima verosimilitud. En el contexto del análisis de Fourier, se puede elegir que el valor de f(a) ó f(b) sean 1/(2(b − a)), para que entonces la transformada inversa de muchas transformadas integrales de esta función uniforme resulten en la función inicial, de otra forma la función que se obtiene sería igual "en casi todo punto", o sea excepto en un conjunto de puntos con medida nula. También, de esta forma resulta consistente con la función signo que no posee dicha ambigüedad.

 Función de distribución de probabilidad

La función de distribución de probabilidad es:


    F(x)=left{begin{matrix}
    0 & mbox{para }x < a   
    frac{x-a}{b-a} &    mbox{para }a le x < b   
    1 & mbox{para }x ge b
    end{matrix}right.
    ,!

 Funciones generadoras asociadas

 Función generadora de momentos

La función generadora de momentos es


    M_x = E(e^{tx}) = frac{e^{tb}-e^{ta}}{t(b-a)} ,!

a partir de la cual se pueden calcular los momentos mk

m_1=frac{a+b}{2}, ,!
m_2=frac{a^2+ab+b^2}{3}, ,!

y, en general,

m_k=frac{1}{k+1}sum_{i=0}^k a^ib^{k-i}. ,!

Para una variable aleatoria que satisface esta distribución, la esperanza matemática es entonces m1 = (a + b)/2 y la varianza es m2 − m12 = (b − a)2/12.

 Propiedades

 Generalización a conjuntos de Borel

Esta distribución puede ser generalizada a conjuntos de intervalos más complicados. Si S es un conjunto de Borel de medida finita positiva, la distribución probabilidad uniforme en S se puede especificar definiendo que la pdf sea nula fuera de S e igual a 1/K dentro de S, donde K es la medida de Lebesgue de S.

 Estadísticas de orden

Sea X1,..., Xn una muestra i.i.d. de U(0,1). Sea X(k) el orden estadístico k-ésimo de esta muestra. Entonces la distribución de probabilidad de X(k) es una distribución Beta con parámetros k y n − k + 1. La esperanza matemática es

operatorname{E}(X_{(k)}) = {k over n+1}.

Esto es útil cuando se realizan Q-Q plots.

Las varianzas son

operatorname{Var}(X_{(k)}) = {k (n-k+1) over (n+1)^2 (n+2)} .

 'Uniformidad'

La probabilidad de que una variable aleatoria uniformemente distribuida se encuentre dentro de algún intervalo de longitud finita es independiente de la ubicación del intervalo (aunque sí depende del tamaño del intervalo), siempre que el intervalo esté contenido en el dominio de la distribución.

Es posible verificar esto, por ejemplo si X ≈ U(0,b) y [x, x+d] es un subintervalo de [0,b] con d fijo y d > 0, entonces


Pleft(Xinleft [ x,x+d right ]right)
= int_{x}^{x+d} frac{mathrm{d}y}{b-a},
= frac{d}{b-a} ,!

lo cual es independiente de x. Este hecho es el que le da su nombre a la distribución.

 Uniforme estándar

Si se restringe a = 0 y b = 1, a la distribución resultante U(0,1) se la llama distribución uniforme estándar.

Una propiedad interesante de la distribución uniforme estándar es que si u1 es una distribución uniforme estándar, entonces 1-u1 también lo es.

Distribuciones relacionadas

Si X tiene una distribución uniforme estándar, entonces:

  • Y = -ln(X)/λ tiene una distribución exponencial con parámetro λ.
  • Y = 1 - X1/n tiene una distribución beta con parámetros 1 y n. (Notar que esto implica que la distribución uniforme estándar es un caso especial de la distribución beta, con parámetros 1 y 1).

 Relaciones con otras funciones

Siempre y cuando se sigan las mismas convenciones en los puntos de transición, la función densidad de probabilidad puede también ser expresada mediante la función escalón de Heaviside:

f(x)=frac{operatorname{H}(x-a)-operatorname{H}(x-b)}{b-a}, ,!

ó en términos de la función rectángulo

f(x)=frac{1}{b-a},operatorname{rect}left(frac{x-left(frac{a+b}{2}right)}{b-a}right) .

No existe ambigüedad en el punto de transición de la función signo. Utilizando la convención de la mitad del máximo en los puntos de transición, la distribución uniforme se puede expresar a partir de la función signo como:

f(x)=frac{ sgn{(x-a)}-sgn{(x-b)}} {2(b-a)}.

 Aplicaciones

En estadística, cuando se utiliza un p-value a modo de prueba estadística para una hipótesis nula simple, y la distribución de la prueba estadística es continua, entonces la prueba estadística esta uniformemente distribuida entre 0 y 1 si la hipótesis nula es verdadera.

 Muestreo de una distribución uniforme

Existen muchos usos en que es útil realizar experimentos de simulación. Muchos lenguajes de programación poseen la capacidad de generar números pseudo-aleatorios que están distribuidos de acuerdo a una distribución uniforme estándar.

Si u es un valor muestreado de una distribución uniforme estándar, entonces el valor a + (ba)u posee una distribución uniforme parametrizada por a y b, como se describió previamente.

 Muestreo de una distribución arbitraria

La distribución uniforme resulta útil para muestrear distribuciones arbitrarias. Un método general es el método de muestreo de transformación inversa, que utiliza la distribución de probabilidad (CDF) de la variable aleatoria objetivo. Este método es muy útil en trabajos teóricos. Dado que las simulaciones que utilizan este método requieren invertir la CDF de la variable objetivo, se han diseñado métodos alternativos para aquellos casos donde no se conoce el CDF en una forma cerrada. Otro método similar es el rejection sampling.

La distribución normal es un ejemplo importante en el que el método de la transformada inversa no es eficiente. Sin embargo, existe un método exacto, la transformación de Box-Muller, que utiliza la transformada inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente.

 Ejemplo en el intervalo [0,1]

Para este caso el intervalo queda definido por a = 0 y b = 1.

Entonces resulta:

  • f(x) = 1 para 0leq xleq 1
  • F(x) = x para 0leq xleq 1
  • operatorname{E}(X) = 0,5
  • operatorname{Var}(X) = 1/12
  • sigma_x = sqrt{operatorname{Var}(X)} = sqrt{1/12} approx 0.29

 
  Hoy habia 16 visitantes (18 clics a subpáginas) ¡Aqui en esta página!  
 
Este sitio web fue creado de forma gratuita con PaginaWebGratis.es. ¿Quieres también tu sitio web propio?
Registrarse gratis