El análisis multivariado de varianza, Correlación de variables dependientes



El análisis multivariado de varianza es un método de prueba estadística para comparar las medias multivariables de varios grupos. A diferencia de ANOVA, se utiliza la varianza-covarianza entre las variables en la prueba de la significación estadística de las diferencias de medias.

Se trata de una forma generalizada de análisis univariado de la varianza. Se utiliza cuando hay dos o más variables dependientes. Ayuda a responder: 1 - ¿Los cambios en la variable independiente tienen efectos significativos sobre las variables dependientes; 2 - ¿Cuáles son las interacciones entre las variables dependientes y 3 - entre las variables independientes. Esencialmente, MANOVA se marca desde la variable dependiente múltiple y crea una única variable dependiente que da la posibilidad de probar los efectos anteriores. Informes estadísticos embargo proporcionarán valores de p individual para cada variable dependiente, indicando si las diferencias e interacciones son estadísticamente significativas.

Cuando sumas de cuadrados aparecen en el análisis univariado de la varianza, en el análisis multivariado de varianza ciertas matrices definidas positivas aparecen. Los elementos de la diagonal son los mismos tipos de sumas de cuadrados que aparecen en ANOVA univariante. Las entradas fuera de la diagonal son sumas correspondientes de los productos. Bajo los supuestos de normalidad acerca de distribuciones de error, la contrapartida de la suma de cuadrados debido a error tiene una distribución de Wishart.

Análogo al ANOVA, MANOVA se basa en el producto de la matriz de varianza modelo, y la inversa de la matriz de varianza de error, o. La hipótesis de que implica que el producto. Consideraciones invariancia implican el estadístico MANOVA debe ser una medida de la magnitud de la descomposición en valores singulares de la matriz de este producto, pero no hay una opción única, debido a la naturaleza multidimensional de la hipótesis alternativa.

Las estadísticas más comunes son resúmenes basados en las raíces de la matriz:

  • Samuel Stanley Wilks distribuidos de la lambda
  • la Pillai-M. S. Bartlett traza,
  • la Lawley-Hotelling traza,
  • Mayor raíz de Roy,

Discusión continúa sobre los méritos de cada uno, aunque la mayor root sólo conduce a un salto en la importancia que en general no es de interés práctico. Una complicación adicional es que la distribución de estas estadísticas bajo la hipótesis nula no es sencilla y sólo puede ser aproximado, excepto en unos pocos casos de baja dimensionalidad. La aproximación más conocida de lambda de Wilks fue derivado por CR Rao.

En el caso de los dos grupos, todas las estadísticas son equivalentes y la prueba se reduce a T-cuadrado de Hotelling.

Correlación de variables dependientes

MANOVA es más eficaz cuando las variables dependientes se correlacionan moderadamente. Si las variables dependientes son también altamente correlacionados se podría suponer que puedan ser la medición de la misma variable. También se recomienda no incluir variables dependientes que se supone que la medición de la misma construcción en MANOVA.