Verdades y Falsedades en Modelos de Regresión Lineal: Un Estudio Exhaustivo
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 18,98 KB
Verdades y Falsedades en Modelos de Regresión Lineal
1. Coeficiente de Determinación
Si los vectores Y e Ŷ forman un ángulo muy pequeño, el coeficiente de determinación del modelo se acercará a 1. Verdadero, como Y = Ŷ + e y además Ŷ y e son perpendiculares, si los vectores Y e Ŷ forman un ángulo muy pequeño, el módulo de residuos es muy pequeño, por lo que SCR también lo es y el coeficiente de determinación estará próximo a 1.
2. Matrices Semidefinidas Positivas
Toda matriz semidefinida positiva es idempotente y simétrica. Falso, si eres idempotente y simétrica, eres semidefinida positiva (como H y M), pero no todas las semidefinidas positivas son idempotentes y simétricas.
3. Eliminación de Variables Explicativas
Si al eliminar una variable explicativa de un modelo de regresión, el error estándar de la estimación decrece, la variable eliminada era buena predictora. Falso, al eliminar una variable explicativa de un modelo de regresión, tanto el numerador como el denominador del cuadrado del error estándar de la estimación aumentan. Si el error decrece, es porque el incremento en la SCR es pequeño, lo cual indica que la variable eliminada no era buena predictora.
4. Eliminación de Variables en Modelos de Regresión
Dado un modelo de regresión con varias variables explicativas, eliminaremos siempre aquella variable explicativa que represente el menor índice t o el mayor valor p. Ambos criterios son totalmente equivalentes. Verdadero, las variables con menor índice t o mayor valor p son las peores, por lo que son las que se eliminarían en caso de que su índice t fuera menor que el valor crítico t_(N-k-1;∝/2) o p-valor > α.
5. Producto de Matrices
Como sabemos que MX es igual a 0, XM también lo es. Falso, el producto de XM no puede efectuarse por las dimensiones de las matrices.
6. SCR y Producto Escalar
La SCR es el producto escalar entre los vectores Y y e. Verdadera, ya que Y = XB + e.
Entonces =〖(XB+e)〗^T*e=(B^T X^T+e^T )*e=B^T X^T e+e^T e. Como sabemos que XTe es cero, entonces =e^T e=SCR.7. Sistemas de Ecuaciones Lineales
Un sistema de ecuaciones lineales con menos ecuaciones que incógnitas puede ser compatible determinado. Falso, es compatible indeterminado.
8. Suma de Matrices Simétricas
La suma de dos matrices simétricas siempre es una matriz simétrica. Verdadera.
9. Matrices de Covarianzas
Toda matriz de covarianzas es una matriz semidefinida positiva. Verdadero. Dado un vector aleatorio de Z de dimensión (M,1) y cualquier vector constante C también (M,1), resulta que Ct es un vector aleatorio tal que:
Var(C^T Z)=Cov(C^T Z)=C^T cov(Z)C≥0.Por lo tanto, semidefinida positiva.
10. Distribución Normal y Estimadores
Para que el estadístico t siga una distribución t de Student, son suficientes las hipótesis de Gauss-Markov. Falso, el ε tiene que seguir una distribución de tipo normal.
11. Matriz H
La matriz H es definida positiva. Falso, como es simétrica e idempotente, es semidefinida positiva.
12. Diagonal Principal de Matrices
Si la diagonal principal de una matriz cuadrada contiene tanto elementos positivos como negativos, podemos asegurar que es una matriz indefinida. Falso, si una matriz es indefinida, tiene elementos en la diagonal positivos y negativos, pero no por tener elementos positivos y negativos en la diagonal la matriz es indefinida (al revés).
13. Coeficiente de Determinación en Regresión Lineal Múltiple
En el modelo de regresión lineal múltiple, el coeficiente de determinación es el cuadrado del coeficiente de correlación. Falso, solo se cumple en regresión lineal simple.
14. Hipótesis de Gauss-Markov
Las hipótesis de Gauss-Markov se cumplen en el modelo de regresión lineal simple, pero no en el múltiple. Falso, damos por hecho que se cumplen en ambos modelos.
15. Coeficiente de Determinación y Modelo Compatible
Si el sistema de ecuaciones Y = XB es compatible, entonces el modelo que explica la variable dependiente Y a partir de las variables recogidas en la matriz X tiene un coeficiente de determinación = 1. Verdadero, en ese caso existe un valor de β que hace que la solución para el vector ε sea nula. En consecuencia, la SCR será 0 y R² será igual a 1.
16. Gradiente y Mínimos Relativos
Que el gradiente de la función sea nulo es una condición suficiente para que exista un mínimo relativo. El hecho de que la matriz Hessiana sea definida positiva garantiza que el mínimo es absoluto. Falso, que el gradiente de la función sea nulo es condición necesaria, pero no suficiente para que exista un mínimo relativo. El hecho de que la matriz Hessiana sea definida positiva es condición suficiente para demostrar que hay un mínimo relativo, no absoluto.
17. Función a Minimizar
Según el criterio de los mínimos cuadrados, la función a minimizar es el cuadrado del módulo del vector de los errores. Esta función presenta mínimos relativos y, por tanto, la localización del mínimo absoluto es muy complicada. Falso, la función que tenemos que minimizar es una función cóncava hacia arriba, por lo tanto, solo tiene un mínimo relativo que además es absoluto.
18. Matriz X en Regresión Lineal Múltiple
En el modelo teórico de regresión lineal múltiple, la matriz X es una matriz aleatoria. Falso, es una matriz constante del modelo.
19. Producto Escalar y Ángulo Agudo
El producto escalar entre dos vectores es positivo solo si el ángulo que forman entre ellos es un ángulo agudo. Verdadero, si el ángulo es agudo, el coseno es positivo y, por lo tanto, el producto escalar también, ya que: ‖dx‖*‖dy‖*cos∝.
20. R² en Regresión Lineal Múltiple
En un modelo de regresión lineal múltiple, si n = k + 1, cabe esperar que R² sea igual a 1. Verdadero, modelo perfecto, ya que como SCR = σ²*(N-k-1) y N-k-1 sería 0, y por lo tanto la SCR también.
21. Sistemas de Ecuaciones Lineales
Un sistema de ecuaciones lineales con menos ecuaciones que incógnitas puede ser compatible determinado. Falso, es un sistema compatible indeterminado.
22. Matrices Idempotentes
Si A es una matriz idempotente, entonces I + A y I - A son también matrices idempotentes. Falso, solo en resta:
En resta: (I − A)(I − A) = I − A − A + AA = I − A − A + A = I – A, por lo tanto sí se cumple. En suma: (I + A)(I + A) = I + A + A + AA = I + A + A + A = I + 3, por lo que no se cumple.23. SCR en Regresión Lineal Múltiple
La SCR es un elemento constante en el modelo de regresión lineal múltiple. Falso, ε contagia a Y, la Y a e y e a SCR.
24. Cálculo de ε
Como sabemos que e = Mε y tanto M como w son conocidos, podemos calcular ε haciendo ε = Mte. Falso, la matriz M no tiene inversa, ya que al ser semidefinida positiva, su determinante máximo es nulo.
25. Diagonal Principal de Matrices
Si todos los elementos de la diagonal principal de una matriz cuadrada son positivos o nulos, podemos afirmar que dicha matriz es semidefinida positiva. Falso, una matriz semidefinida positiva tiene todos los elementos de la diagonal ≥ 0, pero no todas las matrices con elementos de la diagonal ≥ 0 son semidefinidas positivas.
26. Añadir Variables Explicativas
Añadir una variable explicativa a un modelo de regresión supone siempre una reducción en la estimación de la varianza de los errores. Falso, al añadir una variable explicativa a un modelo de regresión, tanto el numerador como el denominador de la estimación de la varianza de los errores disminuyen. Si la estimación de la varianza decrece, es porque la disminución en la SCR es grande, lo cual indica que la variable añadida era buena predictora. Si la variable explicativa añadida es mala predictora, la estimación de la varianza no bajará.
27. Hipótesis de Gauss-Markov
Las hipótesis de Gauss-Markov son verdades fundamentales que se cumplen en todo modelo de regresión lineal múltiple. Falso, son hipótesis y damos por hecho que se cumplen.
28. Columnas de Matrices H y M
Tanto las columnas de la matriz H como las de la matriz M son linealmente independientes. Falso, tanto la matriz H como la matriz M tienen rango menor que N (k + 1 en el primer caso y N − k − 1 en el segundo). Como ambas matrices tienen N columnas y el rango indica el número de ellas que son linealmente independientes, podemos concluir que en ambas matrices existen columnas linealmente dependientes, por lo que la afirmación es falsa.
29. Coeficiente de Determinación y Seno
El cuadrado del seno del ángulo que forman los vectores Y - Y̅ y e es igual al coeficiente de determinación. Verdadero, el coeficiente de determinación se define como el cuadrado del coseno del ángulo que forman los vectores Ŷ - Y̅ y Y - Y̅, pero, como estos dos vectores forman un triángulo rectángulo, resulta que:
Cos(Ŷ - Y̅, Y - Y̅) = sen(Y - Y̅, e).30. Sistemas de Ecuaciones Lineales
¿Podemos afirmar que un sistema de ecuaciones lineales con más ecuaciones que incógnitas es siempre un sistema incompatible? Falso, en general, si hay más ecuaciones que incógnitas, el sistema será incompatible. Pero hay casos en los que un sistema de ecuaciones lineales puede tener más ecuaciones que incógnitas y aun así ser compatible, es decir, tener solución.
31. Sistemas de Ecuaciones Lineales
¿Podemos afirmar que un sistema de ecuaciones lineales con más incógnitas que ecuaciones es siempre un sistema compatible? Falso, en general, si hay más incógnitas que ecuaciones, el sistema será compatible. Pero hay casos especiales en los que podría no haber solución.
32. Suma de Cuadrados de los Residuos
¿Es posible que al añadir variables explicativas a un modelo de regresión se incremente la suma de cuadrados de los residuos? Falso, la SCR disminuye al añadir variables explicativas al modelo.
33. Error Estándar de la Estimación
¿Es posible que al añadir variables explicativas a un modelo de regresión el error estándar de la estimación crezca? Verdadero, dependerá de la calidad de la variable explicativa añadida.
34. Coeficientes del Modelo de Ajuste
¿Puede ocurrir que al eliminar una variable explicativa de un modelo de regresión los coeficientes del modelo de ajuste permanezcan constantes para las demás variables? Verdadero, si la variable eliminada no tiene ninguna influencia sobre Y y no tiene relación con el resto de variables explicativas, los coeficientes del resto de variables pueden permanecer constantes al eliminarla del modelo.
35. Elementos de la Diagonal Principal
¿Puede ocurrir que los elementos de la diagonal principal de la matriz (X^T X)^(-1) sean negativos? Falso, porque se trata de una matriz definida positiva y eso implica que los elementos de su diagonal principal sean positivos.
36. Variabilidad de Valores Estimados
¿Podemos afirmar que la variabilidad de los valores estimados de la variable dependiente es normalmente mayor que la variabilidad de los valores observados de dicha variable dependiente? Falso, normalmente la variabilidad de los valores estimados de la variable dependiente es menor que la variabilidad de los valores observados.
37. Producto de Matriz Constante y Vector Aleatorio
¿Podemos afirmar que el vector resultante del producto de una matriz constante por un vector aleatorio es aleatorio? Verdadero, en el producto la aleatoriedad se contagia. Podemos verlo en los vectores Ŷ = HY o e = MY o B = (X^T X)^(-1) X^T Y, todos ellos formados por matriz constante y vector aleatorio y, como resultado, son aleatorios contagiados por Y, contagiado por ε.
38. Coeficiente de Correlación
Un coeficiente de correlación igual a +1 entre dos variables cuantitativas implica que cuando una de las variables crece una unidad, la otra lo hace en la misma cuantía. Falso, ambas crecen, pero no tiene por qué ser en la misma cuantía.
39. Coeficiente de Correlación y Coeficiente de Determinación
En el caso de la regresión lineal simple, el coeficiente de correlación y el de determinación contienen la misma información, ya que cualquiera de los dos puede ser obtenido a partir del otro. Falso, si bien pueden calcularse el uno con el otro, no proporcionan la misma información. El coeficiente de correlación mide la fuerza y dirección de la relación lineal entre X e Y, y el coeficiente de determinación mide en qué grado se reduce el error al considerar X en el modelo.
40. Covarianza de Matrices
Si M es una matriz constante y Z es un vector aleatorio, entonces podemos afirmar que Cov(ZM) = M^T Cov(Z)M. Falso, esta afirmación solo se cumple para Cov(MZ).
41. Incorporación de Variables Explicativas
Cuando se incorporan al modelo de ajuste variables explicativas positivamente correlacionadas con la variable dependiente, el error estándar de la estimación aumenta. Análogamente, cuando se incorporan al modelo de ajuste variables explicativas negativamente correlacionadas con la variable dependiente, el error estándar de la estimación disminuye. Falso, si las variables explicativas que se incorporan al modelo están correlacionadas con Y, el error estándar disminuye, ya sea relación positiva o negativa.
42. Suma de Residuos
Demostrar que la suma de los residuos del modelo de ajuste es siempre nula, es decir: ∑_(i=1)^N e_i = 0.
Resolución:
X^T e = X^T (Y − XB) = X^T Y − X^T X (X^T X)^(-1) X^T Y = X^T Y − X^T Y = 0, luego todos los elementos del vector X^T e son nulos.
Por otra parte, como la primera fila de X^T es una fila de unos, resulta que el primer elemento del vector X^T e es ∑_(i=1)^N e_i, y como todos los elementos del vector X^T e son nulos, resulta que ∑_(i=1)^N e_i = 0.
43. Supuesto de Errores
¿Es necesario el supuesto de que los errores siguen una distribución normal para garantizar que B es un estimador BLUE? Falso, es necesario que se cumplan las hipótesis de Gauss-Markov.
44. Coincidencia de Estimadores
¿Podemos afirmar que si se cumplen dichas condiciones, B siempre coincidirá con el verdadero valor de β? Falso, B es el mejor estimador lineal e insesgado de β, pero eso no implica que coincida con el verdadero valor de β.
45. Diagonal Principal de Matrices Semidefinidas Positivas
¿Qué podemos afirmar sobre los elementos de la diagonal principal de una matriz semidefinida positiva? Que son siempre ≥ 0.
46. Traza de Matrices
Si una matriz cuadrada C se puede expresar en la forma C = AB, ¿podemos decir que tr(AB) = tr(BA) sean cuales sean las dimensiones de las matrices A y B? Falso, ese teorema de la traza se sostiene si ambas matrices son de dimensiones contrarias.
47. Inversa de Matrices
Dada una matriz no singular (invertible), ¿podemos afirmar que la inversa de su traspuesta coincide con la traspuesta de su inversa? Verdadero, ya que
(A^(-1))^T = (A^T)^(-1).48. Matrices Simétricas e Inversas
¿Puede existir una matriz simétrica e idempotente que sea semidefinida negativa? Falso, toda matriz simétrica e idempotente es semidefinida positiva.
49. Inversa de Matrices Simétricas
Si una matriz no singular (invertible) es simétrica, ¿podemos afirmar que su inversa es simétrica? Sí, verdadero.
50. Matrices Cuadradas y Simétricas
Si dos matrices cuadradas son traspuestas respectivamente una de la otra, ¿podemos afirmar que son iguales? Falso, solo si son simétricas. Veamos un ejemplo:
A = (■(1&2@3&4)) A^T = (■(1&3@2&4)) = B. Por lo tanto, no son iguales.51. Suma o Resta de Vectores Aleatorios
¿Podemos afirmar que la suma o resta de dos vectores aleatorios es siempre un vector aleatorio? Falso, no siempre es así. Veamos un ejemplo:
Y = Xβ + ε → Xβ = Y - β. En el modelo teórico, Y y ε son aleatorios y Xβ es constante. Al despejar Xβ, queda como resta de aleatorios y permanece constante.