Variables Aleatorias Discretas y Continuas: Conceptos y Aplicaciones
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en español con un tamaño de 14,6 KB
Variables Aleatorias Discretas
Variables Aleatorias Discretas Desconocidas
Cuando nos enfrentamos a variables aleatorias discretas desconocidas, usualmente se nos proporciona una tabla de probabilidad p(x). A partir de esta tabla, se nos puede solicitar:
- Función acumulada: F(x) = P(X ≤ x). Para calcularla, consideramos valores de x menores que 0, luego entre 0 y 1, y así sucesivamente. Los valores de p(x) se van acumulando, comenzando en 0 y terminando en 1. El valor se acumula hacia abajo desde el número (recordando que el signo de igual se coloca a la derecha del punto).
- Esperanza: E(x) = Σ [xi * P(xi)].
- Varianza: Var(x) = Σ [(xi - E(x))2 * p(xi)] = Σ [xi2 * P(xi)] - (E(x))2.
Es importante recordar que la suma de todas las p(x) debe ser igual a 1.
Teoría
- 0 ≤ F(x) ≤ 1
- F(x) es creciente.
- p(x = x0) puede ser diferente de 0.
- Para calcular la probabilidad P(a ≤ x ≤ b), se calcula F(b) - F(a).
- La esperanza de una constante es la constante misma.
- La esperanza de una constante por x es igual a la constante por la esperanza de x.
- La varianza de una constante es 0.
- La varianza de una constante por x es igual a la constante al cuadrado por la varianza de x.
- La esperanza de una función g(x) es igual a Σ [g(xi) * p(xi)].
Variables Aleatorias Discretas Conocidas
- Bernoulli:
- E(x) = p
- Var(x) = p(1-p)
- E(x2) = p
- Binomial:
- Dominio: de 0 a n.
- p(x=k) = (nk) pk (1-p)n-k
- E(x) = np
- Var(x) = np(1-p)
- E(x2) = np(1-p) + n2p2
- Geométrica:
- Dominio: de 1 a infinito.
- P(x) = p(1-p)x-1
- E(x) = 1/p
- Var(x) = (1-p)/p2
- E(x2) = (2-p)/p2
- τ = 1/p
- Poisson:
- Dominio: de 0 a infinito.
- P(x) = f(x) = (e-λ λx) / x!
- E(x) = λ
- Var(x) = λ
- E(x2) = λ + λ2
- Var(x) = σx2 (desviación típica al cuadrado).
Función Generadora de Momentos
- Binomial: (1 - p + pet)n
- Bernoulli: 1 + p(et - 1)
- Poisson: eλ(et - 1)
- Normal: e(λt + 0.5σ2t2)
- Geométrica: p / (1 - et(1 - p))
- Uniforme: (1/n) Σk=1n ekt
Momentos de Segundo y Tercer Orden
Se obtienen derivando la función generadora de momentos dos o tres veces, respectivamente, y sustituyendo t por 0.
Variables Aleatorias Continuas
Variables Aleatorias Continuas Generales
- Función de densidad: f(x) ≥ 0.
- La integral de f(x) en el dominio es igual a 1 (para calcular constantes, si solo hay una).
- P(a ≤ x ≤ b), no importa si hay signos de igual en los extremos, siempre es la integral entre a y b de f(x).
- Esperanza de x: E(x) = ∫dominio x f(x) dx.
- Varianza de x: Var(x) = ∫dominio (x - E(x))2 f(x) dx = ∫dominio x2 f(x) dx - (E(x))2.
- Función de distribución acumulada: F(x) = ∫-∞x f(t) dt.
Propiedades de F(x)
- P(a ≤ x ≤ b) = F(b) - F(a)
- Es continua.
- F(-∞) = 0
- F(+∞) = 1
- F(x) es creciente.
Variables Aleatorias Continuas Conocidas
- Uniforme:
- f(x) = 1/(b-a)
- E(x) = (a + b)/2
- Var(x) = (b-a)2/12
- E(x2) = Var(x) + (E(x))2
- F(x) = (x-a)/(b-a)
- E(x) = ∫ x f(x) dx
- Var(x) = ∫ x2 f(x) dx - (E(x))2
- E(g(x)) = ∫ g(x) f(x) dx
- Exponencial:
- f(x) = λe-λx
- E(x) = 1/λ = α
- Var(x) = 1/λ2 = α2
- E(x2) = 2/λ2 = 2α2
- F(x) = 1 - e-λx
- Normal:
- f(x) = (1/(σ√(2π))) e-0.5((x-μ)/σ)2
- Z ~ N(0,1): Z = (x-μ)/σ
Mezcla de Binomial y Normal
Es posible que se nos presente un problema donde la duración de un componente, como una bombilla, siga una distribución normal. Luego, se nos dice que tomamos n bombillas y se nos pide la probabilidad de que un cierto número de ellas duren menos de un determinado tiempo. En este caso, tenemos una distribución binomial que depende del número de bombillas n y la probabilidad de que duren menos del tiempo especificado, que se calcularía usando la distribución normal. Luego, calcularíamos con la distribución binomial la probabilidad de que ese número de bombillas dure menos del tiempo dado.
Si np > 5, n(1-p) > 5 y n > 30, podemos aproximar la distribución binomial a una normal, donde μ = np y σ2 = np(1-p). También aplicamos el factor de corrección:
- Si P(x = a), hacemos P(a - 0.5 ≤ x ≤ a + 0.5).
- Si P(x ≥ a), hacemos P(x ≥ a - 0.5).
- Si P(x > a), hacemos P(x > a + 0.5).
- Si P(x ≤ a), hacemos P(x ≤ a + 0.5).
- Si P(x < a), hacemos P(x < a - 0.5).
En el primer caso, se resuelve tomando el valor más grande y restando el más pequeño.
Regresión Lineal
Tipos de Muestra
- Aleatoria simple.
- Aleatoria estratificada (puede ser constante o proporcional).
Propiedades de los Estimadores
- Sea θ el parámetro poblacional y θ̂ el estimador muestral (por ejemplo, μ es θ y la media muestral x̄ es θ̂).
- Error cuadrático medio de θ̂: ECM(θ̂) = E[(θ̂ - θ)2] = Var(θ̂) + (θ - E[θ̂])2.
- Sesgo de θ̂: Sesgo(θ̂) = E[θ̂] - θ.
- θ̂ es insesgado si E[θ̂] = θ. También se dice que θ̂ es centrado.
- θ̂ es asintóticamente insesgado si limn→∞ E[θ̂] = θ.
- Eficiencia de θ̂: θ̂1 es más eficiente que θ̂2 si Var(θ̂1) < Var(θ̂2).
- θ̂ es consistente si limn→∞ E[(θ̂ - θ)2] = 0.
- Si el sesgo de θ̂ es menor que 0, se subestima el parámetro.
- Si el sesgo de θ̂ es mayor que 0, se sobrestima el parámetro.
Caso Particular
Si X ~ N(μ, σ2), donde μ = θ y la media muestral x̄n = θ̂, entonces:
x̄n ~ N(μ, σ2/n)
(x̄n - μ) / √(σ2/n) ~ N(0,1). A √(σ2/n) también se le llama σx̄.
Intervalos de Confianza
Siendo μ la media poblacional:
- Si X es normal y σ es conocida: x̄ - zα/2 * (σ/√n) ≤ μ ≤ x̄ + zα/2 * (σ/√n) (consultar la tabla 1 de la distribución normal).
- Si X es normal y σ es desconocida: x̄ - tα/2 * (s/√n) ≤ μ ≤ x̄ + tα/2 * (s/√n), donde s es la desviación típica muestral.
Nota: Si nos dan un intervalo de confianza del 95%, entonces α = 0.05.
Contraste de Hipótesis Paramétrico
- Paso 1: Hipótesis nula (H0): Establecer el valor de μ (parámetro poblacional).
- Paso 2: Hipótesis alternativa (H1): μ puede ser mayor, menor o diferente al valor establecido en H0.
- Paso 3: Calcular el estadístico de prueba: z = (x̄ - μ) / (σ/√n) ~ N(0,1). Luego, se calcula el valor de z. Si la confianza es del 95%, entonces α = 0.05.
- Paso 4: Región de rechazo y aceptación: Si μ es menor que un número, la región de rechazo estará a la izquierda; si es mayor, a la derecha; y si es diferente, en ambos lados. Si buscamos 0.05 dentro de la tabla, encontramos el punto de separación.
Contraste ANOVA
Nota: Para aplicar ANOVA, asumimos que las variables (por ejemplo, ventas) son normales y que las varianzas son desconocidas pero iguales (condiciones homocedásticas). Un nivel de significación del 5% implica que α = 0.05.
Ejemplo con 3 objetos:
- Paso 1: H0: Las 3 medias poblacionales (μ) son iguales.
- Paso 2: H1: Al menos dos medias son distintas.
- Paso 3: Estadístico de prueba (F):
- Filas: EM (Entre Muestras), DM (Dentro de Muestras), Total.
- Columnas: gl (grados de libertad), SS (suma de cuadrados), MS (cuadrados medios), F.
- gl:
- k - 1 (donde k es el número de grupos a comparar, 3 en el ejemplo).
- n - k (donde n es el tamaño total de la muestra).
- n - 1.
- SS:
- SSE (Suma de Cuadrados Entre Muestras): Σi=1k ni(x̄i - x̄)2, donde x̄i es la media de cada grupo y x̄ es la media global.
- SST (Suma de Cuadrados Dentro de Muestras): Σi=1k (ni - 1)si2, donde si2 es la varianza de cada grupo.
- SS: SSE + SST.
- MS:
- MSE: SSE / (k - 1).
- MST: SST / (n - k).
- F: MSE / MST.
- Paso 4: Regla de decisión: Se busca el valor crítico en la tabla de Fisher con F(k-1, n-k). Si el valor calculado de F es mayor que el valor crítico, se rechaza H0. Si no se rechaza H0, las tres medias de ventas son iguales, es decir, los tres supermercados venden lo mismo.
También se puede analizar con el p-valor: el riesgo que se asume al aceptar H1 o la probabilidad de rechazar H0 cuando es cierta. Si el p-valor es mayor que 0.05 (área), no se rechaza H0.
Con la tabla ANOVA, se pueden calcular intervalos de confianza:
- x̄i - tα/2, n-k√(MSE/ni) ≤ μi ≤ x̄i + tα/2, n-k√(MSE/ni)
- (x̄i - x̄j) - tα/2, n-k√(MSE(1/ni + 1/nj)) ≤ μi - μj ≤ (x̄i - x̄j) + tα/2, n-k√(MSE(1/ni + 1/nj))
Contraste de Bondad de Ajuste (Tabla de una Entrada)
Se nos dan probabilidades que deben sumar 1 y n (número total de veces que se realiza un experimento). También se nos proporciona una tabla de una entrada con los resultados de los experimentos.
- Paso 1: H0: Las probabilidades están bien. Por ejemplo, p1 = 0.2, p2 = 0.3, etc.
- Paso 2: H1: Al menos dos probabilidades son diferentes.
- Paso 3: Estadístico de prueba (χ2): Σi=1k (Oi - Ei)2 / Ei, donde k es el número de probabilidades, Oi es el valor observado en la tabla y Ei es el valor esperado (por ejemplo, si p1 = 0.1, el valor esperado es el 10% del total de experimentos).
- Paso 4: Regla de decisión: Se busca el valor crítico en la tabla de χ2 con (k - 1) grados de libertad. Si el valor calculado de χ2 es mayor que el valor crítico, se rechaza H0. Si no se rechaza H0, nos quedamos con la tabla.
Cómo Consultar las Tablas Estadísticas
- Tabla de Chi Cuadrado (χ2): Los valores en la tabla representan el área a la derecha del valor crítico. Ejemplo: Si P(x ≤ 4), el porcentaje dado en la columna debe restarse de 1 para obtener el valor deseado.
- Tabla t de Student: Similar a la tabla de Chi Cuadrado, los valores representan el área a la derecha del valor crítico.
- Tabla F de Fisher: Los valores en la tabla representan el área a la derecha del valor crítico, generalmente separando el 95% a la izquierda y el 5% a la derecha. Si P(x ≥ a) = 0.05 con F(2, 3), entonces a = 9.55. Si P(x ≤ 9.55), el resultado será 1 - 0.05 = 0.95.