Distribuciones de Probabilidad: Bernoulli, Binomial, Poisson y Normal
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 112,3 KB
Distribuciones de Probabilidad Discretas
Prueba de Bernoulli
Un experimento o prueba aleatoria es de Bernoulli cuando solo se pueden dar dos posibles resultados: éxito o fracaso (A,
). A∪
= E; A ∩
= ∅.
Variable de Bernoulli
Una variable aleatoria es de Bernoulli si toma los valores 0 o 1: 0 si al realizar el experimento se obtiene fracaso (
= ∅) ; 1 si se obtiene éxito (A). Sea p = P(A). Entonces 1-p = P(
= ∅) = q; p+q = 1.
Definición: Sea X una variable aleatoria de Bernoulli. Su función de cuantía se puede expresar por
. Diremos que X sigue una distribución de Bernoulli de parámetro p, se representa por X
B(p).
Función de cuantía
Sea X
B(p). Su función de cuantía o de probabilidad se puede expresar como
Propiedad: Sea
, entonces
= p. Demostración:
= E
=
Distribución Binomial
Consideramos n repeticiones independientes de una prueba de Bernoulli. Sea X la variable aleatoria que representa el número de éxitos entre las n repeticiones. En este caso, X =
.
Definición: Se dice que la variable X sigue una distribución binomial de parámetros n y p (n ∈ ℕ, p
) si cuenta el número de éxitos que se obtienen al realizar n pruebas independientes de un experimento de Bernoulli con probabilidad de éxito p. Se representa por
Demostración: ¿Es P(X=x) una función de cuantía? Sea X una distribución binomial:
;
i)
ii)
(Binomio de Newton)
Definición: Binomial (Distribución)
Se dice que la variable aleatoria X sigue una distribución binomial de parámetros n (n
) y se representa por
. Su función de masa es
Observación: Si
=>
;
x=0,1. Si x=0, P(X=0)=q; si x=1, P(X=1)=p.
Propiedades:
Sea
Función de distribución: f(x)=P(x
. Simetría: Sea
y sea Y la variable que cuenta el número de fracasos en el experimento que modeliza
; P(X=x)=P(Y=n-x).
Distribución de Poisson
Proceso de Recuento
Un proceso es de recuento si cuenta el número de ocurrencias de un fenómeno en un ámbito geográfico o temporal determinado. Se realiza a través de la distribución de Poisson.
Características:
1) El número de sucesos en un periodo de tiempo o lugar es independiente de los demás periodos o lugares.
2) La probabilidad de que ocurra un suceso es proporcional al tamaño del periodo o lugar considerado.
3) La probabilidad de ocurrencia en un periodo o lugar pequeño es prácticamente nula.
Definición: Se dice que la v.a. X sigue una distribución de Poisson de parámetro
y se representa por
si su función de cuantía es: P(X=x) =
, x = 0,1,2,3...
Comprobación de que es una función de cuantía:
1) P(X=x) =
> 0
2)
=
=
Características:
1) Función de distribución: f(x) =P(X
Esperanza:
=
Varianza: Sea
, entonces Var(
)
Propiedades:
Reproductiva: Sea
, entonces X1 + X2
2) Teorema de Raikov: Si
, entonces se puede descomponer como suma de dos variables de Poisson
y
, de tal forma que
3) Distribución de Poisson como límite de la Binomial: Sea
con n→
, p→0 y n·p =
constante. Entonces se puede aproximar X a través de la distribución de Poisson de parámetro
, y se escribe
. En la práctica, la aproximación es válida si n>30; p
; np
Distribuciones de Probabilidad Continuas
Distribución Uniforme (o Rectangular)
Sea X una variable aleatoria que toma valores en un intervalo finito de la recta real. X sigue una distribución uniforme si asigna la misma probabilidad a subintervalos de la misma longitud.
Función de densidad
Supongamos que X sigue una función en el intervalo (a,b). Su función de densidad sería 1 =
; f(x) =
. Se dice que X sigue una distribución uniforme de parámetros a y b (
) y se representa por X
si su función de densidad es: f(x)
i) f(x)
Características:
1) Función de distribución: f(x) =
2) Esperanza: E(X) =
b2 – a2 / 2(b-a) = a+b/2 = A+B/2
Varianza: Var(x) = E(X2)-E(X)2 ; E(X2) =
= b3-a3/3(b-a)
E(X2) = b3-a3/3(b-a)
Var(x) = (b-a)2/12
Distribución Normal o de Gauss
Se dice que la variable aleatoria X sigue una distribución normal de parámetros µ (µ
) y
si su función de densidad es f(x) =
.
. Método abreviado: X
Comprobar que es función de densidad:
i) f(x)
0
ii)
dx = 1 =>
Representación gráfica de la función de densidad f(x)
1) Es continua y su dominio es todo ℝ.
2) Es simétrica respecto de µ. E(X) = µ.
3) Tiene asíntota horizontal en y=0.
4) Es creciente en (
)
5) Tiene un máximo en x=µ y el valor en el máximo es f(µ) =
6) Tiene dos puntos de inflexión en µ -
y en µ +
Características:
1) Función de distribución: f(x) = P(x
dx
2) Esperanza: E(X) = µ
3) Varianza: Var(x) =
Observación: A veces la definición de la normal es N(µ,
)
Tipificación
Si X
, entonces la variable Z = X-µ /
sigue una distribución N(0,1). Se la denomina distribución normal estándar. Su función de densidad será: f(z) = 1/
.
Proposición: Si Z
. Áreas bajo la curva normal (0,1): Z
dz
Propiedades
1) Sean X1, X2... Xn independientes tales que cada una de ellas Xi
. Entonces, la suma de ellas (
) o una combinación lineal de todas ellas son variables normales: a1x1 + a2x2 + ... + anxn + b
a1µ1 + ... anµn,
.
E(a1x1 + ... anxn + b) = a1E(x1) + ... + anE(xn) + b
Var(a1x1 + ... anxn + b) = a12Var(x1) + ... an2Var(xn) =
2) Sean X1, X2... Xn variables aleatorias independientes tales que Xi
. Entonces:
µ1 + ... µn,
)
3) Sean X1, X2... Xn variables aleatorias independientes tales que Xi
= X1 + ... Xn
4) Sean X1, X2... Xn variables aleatorias independientes tales que Xi
todas iguales. Entonces
= X1 + X2 + ... Xn / n, combinación lineal de variables normales.
= X1 + X2 + ... Xn / n
); (µ,
) = N(µ,
). Error estándar de la media (
).
Distribución Normal: Teorema de Moivre
Sea
. Si n →
, entonces Y = X - np /
N(0,1). Requisitos: n
Proceso de corrección por continuidad de Fisher
Sea X una variable aleatoria discreta que se puede aproximar mediante la normal. Es preciso establecer correspondencia entre los valores discretos que toma X y los intervalos en la distribución normal: P(X=x) = P(
, continuo, discreto.
Teorema del Límite Central (Lindeberg-Levy)
Sea X1, X2... Xn una colección de variables aleatorias independientes e idénticamente distribuidas, con media µ y desviación típica σ conocidas. Entonces, si n es grande (100, 50, 30, etc.), la suma de estas variables sigue una distribución normal: Y = X1 + ... + Xn
N(nµ,
). De forma alternativa: Y - nµ /
E(Y) = E(X1 + ... + Xn) =
Var(Y) = Var(X1 + ... + Xn) = n
Versión de la Media
Sean X1, X2... Xn variables aleatorias independientes e idénticamente distribuidas con media µ y varianza
. Si n es grande, se tiene: X = X1 + ... + Xn / n
) = N(µ;
). Alternativamente:
- µ /
)
N(0,1).
E(X) = E(X1 + X2 + ... Xn / n) = nµ / n = µ
Var(x) = Var(X1 + X2 + ... Xn / n) = (1/n2)·n·
=