ANEXO C: Análisis Factorial


1. INTRODUCCION

El Análisis Factorial22 es una técnica que consiste en resumir la información contenida en una matriz de datos con v variables. Para ello se identifican un reducido número de factores F, siendo el número de factores menor que el número de variables. Los factores representan a la variables originales, con una pérdida mínima de información.

El modelo matemático del Análisis Factorial es parecido al de la regresión múltiple. Cada variable se expresa como una combinación lineal de factores no directamente observables.

Xij = F1i ai1 + F2i ai2+....+Fki aik + Vi

Siendo:

Xij la puntuación del individuo i en la variable j.

Fij son los coeficientes factoriales.

aij son las puntuaciones factoriales.

Vi es el factor único de cada variable.

Ejemplo gráfico de un modelo.

variables

Sujeto 1 2 . . . v

1 X11 X21 . . . Xv1

2 X12 X22 . . . Xv2

n X1n X2n . . . Xvn

Se asume que los factores únicos no están correlacionados entre sí ni con los factores comunes.

Podemos distinguir entre Análisis Factorial Exploratorio, donde no se conocen los factores "a priori", sino que se determinan mediante el Análisis Factorial y, por otro lado estaría el Análisis Confirmatorio donde se propone "a priori" un modelo, según el cual hay unos factores que representan a las variables originales, siendo el número de estos superior al de aquellos, y se somete a comprobación el modelo.

Para que el Análisis Factorial tenga sentido deberían cumplirse dos condiciones básicas: Parsimonia e Interpretabilidad, Según el principio de parsimonia los fenómenos deben explicarse con el menor número de elementos posibles. Por lo tanto, respecto al Análisis Factorial, el número de factores debe ser lo más reducido posible y estos deben ser susceptibles de interpretación sustantiva. Una buen solución factorial es aquella que es sencilla e interpretable.

El análisis factorial es aplicado a investigaciones con variables continuas(medición por intervalos o de razón), variables cualitativas o categóricas, variables ordinales, variables dicotómicas.

2. PASOS EN EL ANALISIS FACTORIAL

Los pasos que se suelen seguir en el Análisis Factorial son:

1. Calcular la matriz de correlaciones entre todas las variables (conocida) habitualmente como matriz R).
2. Extracción de los factores necesarios para representar los datos.
3. Rotación de los factores con objeto de facilitar su interpretación. Representación gráfica.
4. Calcular las puntuaciones factoriales de cada individuo.

En realidad sólo los dos primeros pasos son indispensables, el 3º y 4º son un complemento.

2.1 EXAMEN DE LA MATRIZ DE CORRELACIONES

El primer paso en el Análisis Factorial será calcular la matriz de correlaciones entre todas las variables que entran en el análisis.

Pueden utilizarse diferentes métodos para comprobar el grado de asociación entre las variables:

- El determinante de la matriz de correlaciones: un determinante muy bajo indicará altas intercorrelaciones entre las variables, pero no debe ser cero (matriz no singular), pues esto indicaría que algunas de las variables son linealmente dependientes y no se podrían realizar ciertos cálculos necesarios en el Análisis Factorial.

Test de Esfericidad de Bartlett:

Comprueba que la matriz de correlaciones se ajuste a la matriz identidad, es decir ausencia de correlación significativa entre las variables.

Indice KMO de Kaiser-Meyer-Olkin:

Valores bajos (menores de 0,5) del indice KMO desaconsejan la utilización de Análisis Factorial.

Correlación Anti-imagen:

Que es el negativo del coeficiente de correlación parcial, deberá haber pocos coeficientes altos para que sea razonable aplicar el Análisis Factorial.

Medida de Adecuación de la Muestra (MSA):

Valores bajos de este índice desaconsejan el uso del Análisis Factorial.

Correlación Múltiple, que deberá ser alto, sobre todo si la técnica a utilizar es un análisis factorial. Esta técnica, por defecto, toma los valores de la correlación múltiple al cuadrado como los valores iniciales de comunalidad.

2.2 NUMERO DE FACTORES A CONSERVAR

La matriz factorial puede presentar un número de factores superior al necesario para explicar la estructura de los datos originales. Generalmente hay un conjunto reducido de factores, los primeros, que son los que explican la mayor parte de la variabilidad total.

Los otros factores suelen contribuir relativamente poco. Uno de los problemas que se plantean, por tanto, consiste en determinar el número de factores que debemos conservar, de manera que se cumpla el principio de parsimonia.

Se han dado diversos criterios para determinar el número de factores a conservar. Uno de los más conocidos y utilizados es el criterio o regla de Kaiser (1960) que indicaría lo siguiente: "conservar solamente aquellos factores cuyos valores propios (eigenvalues) son mayores a la unidad". Este criterio es el que suelen utilizar los programas estadísticos por defecto.

2.3 ROTACIONES FACTORIALES

La matriz factorial indica, como sabemos, la relación entre los factores y las variables. Sin embargo, a partir de la matriz factorial muchas veces resulta difícil la interpretación de los factores.

Para facilitar la interpretación se realizan lo que se denominan rotaciones factoriales.

La rotación factorial pretende seleccionar la solución más sencilla e interpretable. En síntesis consiste en hacer girar los ejes de coordenadas, que representan a los factores, hasta conseguir que se aproxime al máximo a las variables en que están saturados.

La saturación de factores transforma la matriz factorial inicial en otra denominada matriz factorial rotada, de más fácil interpretación.

Como hemos dicho el objetivo de la rotación es obtener una solución más interpretable, una forma de conseguirlo es intentando aproximarla al principio de estructura simple (Thurstone, 1935). Según este principio, la matriz factorial debe reunir las siguientes características:

1. Cada factor debe tener unos pocos pesos altos y los otros próximos a 0.
2. Cada variable no debe estar saturada más que en un factor.
3. No deben existir factores con la misma distribución, es decir, los factores distintos deben presentar distribuciones de cargas altas y bajas distintas.

Existen varios métodos de rotación que podemos agrupar en dos grandes tipos: ortogonales y oblicuos.

De entre las rotaciones ortogonales la más utilizada es la varimax mientras que en las oblicuas es la oblimin.

2.4 INTERPRETACION DE FACTORES

En la fase de interpretación juega un papel preponderante la teoría y el conocimiento sustantivo.

A efectos prácticos se sugieren dos pasos en el proceso de interpretación:

1. Estudiar la composición de las saturaciones factoriales significativas de cada factor.

2. Intentar dar nombre a los factores. Nombre que se debe dar de acuerdo con la estructura de sus saturaciones, es decir, conociendo su contenido.

Dos cuestiones que pueden ayudar a la interpretación son:

- Ordenar la matriz rotada de forma que las variables con saturaciones altas en un factor aparezcan juntas.

- La eliminación de las cargas factoriales bajas (generalmente aquellas que van por debajo de 0,25).

ANALISIS FACTORIAL BOOLEANO

El análisis factorial booleano se usa para variables binarias. Las puntuaciones del individuo i en la variable j se denominan por Xij , y solamente pueden tomar valores dicotómicos como por ejemplo 0-1 ó 1-2. En todo lo demás es muy similar al análisis factorial clásico.

ANALISIS DE CORRESPONDENCIA

Es un caso particular del análisis factorial clásico. Siendo una técnica factorial, sus resultados pueden ser presentados gráficamente, lo que aporta una gran ayuda a la interpretación de resultados.

Es una técnica utilizada para el estudio de las relaciones de dependencia entre variables categóricas, presentadas en forma de una tabla de contingencia. Sin embargo este análisis, permite analizar como esta estructurada esta asociación, describiendo "proximidades" que permiten identificar categorías causa de asociación.

El análisis de correspondencia simple se aplica a una tabla de frecuencias de dos variables categóricas. Además existe una generalización de método a mas de dos variables, denominado análisis de correspondencias múltiples, que lo hace especialmente útil en situaciones multivariables categóricas.