0% encontró este documento útil (0 votos)
194 vistas10 páginas

Análisis Factorial Múltiple Explicado

Este documento presenta una introducción al análisis factorial, una técnica estadística que resume la información de un conjunto de variables en factores subyacentes. Explica que el análisis factorial representa las variables originales con una pérdida mínima de información usando un número reducido de factores. También describe los pasos básicos del análisis factorial, incluyendo la extracción de factores, rotación de factores y cálculo de puntuaciones factoriales. Además, traza brevemente los antecedentes históricos del método y
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
194 vistas10 páginas

Análisis Factorial Múltiple Explicado

Este documento presenta una introducción al análisis factorial, una técnica estadística que resume la información de un conjunto de variables en factores subyacentes. Explica que el análisis factorial representa las variables originales con una pérdida mínima de información usando un número reducido de factores. También describe los pasos básicos del análisis factorial, incluyendo la extracción de factores, rotación de factores y cálculo de puntuaciones factoriales. Además, traza brevemente los antecedentes históricos del método y
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

ANALISIS FACTORIAL

INTRODUCCION

El Análisis Factorial es una técnica que consiste en resumir la información contenida


en una matriz de datos con V variables. Para ello se identifican un reducido número de
factores F, siendo el número de factores menor que el número de variables. Los
factores representan a las variables originales, con una pérdida mínima de información.

El modelo matemático del Análisis Factorial es parecido al de la regresión múltiple.


Cada variable se expresa como una combinación lineal de factores no directamente
observables.

Xij = F1i ai1 + F2i ai2+....+Fki aik + Vi

Siendo:

Xij la puntuación del individuo i en la variable j

Fij son los coeficientes factoriales.

aij son las puntuaciones factoriales.

Vi es el factor único de cada variable.

1
Ejemplo gráfico de un modelo.

Se asume que los factores únicos no están correlacionados entre sí ni con los
factores comunes.

Podemos distinguir entre Análisis Factorial Exploratorio, donde no se conocen los


factores "a priori", sino que se determinan mediante el Análisis Factorial y, por otro
lado estaría el Análisis Confirmatorio donde se propone "a priori" un modelo, según el
cual hay unos factores que representan a las variables originales, siendo el número de
estos superior al de aquellos, y se somete a comprobación el modelo.

Para que el Análisis Factorial tenga sentido deberían cumplirse dos condiciones
básicas: Parsimonia e Interpretabilidad, Según el principio de parsimonia los
fenómenos deben explicarse con el menor número de elementos posibles. Por lo tanto,
respecto al Análisis Factorial, el número de factores debe ser lo más reducido posible y
estos deben ser susceptibles de interpretación sustantiva. Una buen solución factorial
es aquella que es sencilla e interpretable.

2
ANTECEDENTES HISTORICOS

Los antecedentes del Análisis Factorial se encuentran en las técnicas de regresión


lineal, iniciadas por Galton. Un continuador suyo fue K. Pearson (1901), que presentó
la primera propuesta del "método de componentes principales", primer paso para el
cálculo del Análisis Factorial.

El origen del Análisis Factorial suele atribuirse a Spearman (1904), en su clásico


trabajo sobre inteligencia, donde distingue un factor general (factor G) y cierto número
de factores específicos.

Hotelling (1933), desarrolló un método de extracción de factores sobre la técnica de


"componentes principales".

Thurstone (1947), expresó la relación entre las correlaciones y las saturaciones de


las variables en los factores. Introdujo el concepto de estructura simple. También
desarrolló la teoría y método de las rotaciones factoriales para obtener la estructura
factorial más sencilla. En un principio las rotaciones eran gráficas. Kaiser (1958)
desarrolló el método Varimax para realizar rotaciones ortogonales mediante
procedimientos matemáticos.

A lo largo del desarrollo histórico del Análisis Factorial se han planteado algunos
problemas de fondo que han dado lugar a distintas propuestas de solución. Los
aspectos más polémicos han sido:

a- La estimación de las comunalidades.


b- Los métodos de extracción de factores.
c- El número de factores a extraer.
d- Los métodos de rotación de factores.

Por ejemplo, se han propuestos múltiples métodos para la extracción de factores,


comprobándose que había distintas soluciones a un mismo problema, según el método
que se adoptase. Con esto se plantea el dilema de qué método elegir. Las respuestas
han sido distintas según las diversas tendencias. El método de Componentes
Principales suele ser el más utilizado. De todas formas hay autores que consideran que
el Análisis de Componentes Principales es distinto del Análisis Factorial.

PASOS EN EL ANALISIS FACTORIAL

Los pasos que se suelen seguir en el Análisis Factorial son:

1- Calcular la matriz de correlaciones entre todas las variables (conocida


habitualmente como matriz R).
2- Extracción de los factores necesarios para representar los datos.
3- Rotación de los factores con objeto de facilitar su interpretación. Representación
gráfica.
4- Calcular las puntuaciones factoriales de cada individuo.

3
En realidad sólo los dos primeros pasos son indispensables, el 3º y 4º son un
complemento.

EXAMEN DE LA MATRIZ DE CORRELACIONES

El primer paso en el Análisis Factorial será calcular la matriz de correlaciones entre


todas las variables que entran en el análisis.

De tal forma que tendremos una matriz del tipo:

X1 X2 X3 X4 X5 Xj

X1 1 0.50 0.65 0.70 0.45 0.63

X2 0.5 1 0.30 0.82 0.73 0.40

X3 0.65 0.30 1 0.38 0.84 0.68

X4 0.70 0.82 0.38 1 0.76 0.92

X5 0.45 0.73 0.84 0.76 1 0.59

X6 0.63 0.49 0.68 0.92 0.59 1

Una vez que se dispone de esta matriz concierne examinarla para comprobar si sus
características son adecuadas para realizar un Análisis Factorial. Uno de los requisitos
que deben cumplirse para que el Análisis Factorial tenga sentido es que las variables
estén altamente correlacionadas.

Pueden utilizarse diferentes métodos para comprobar el grado de asociación entre


las variables:

- El determinante de la matriz de correlaciones: un determinante muy bajo indicará


altas intercorrelaciones entre las variables, pero no debe ser cero (matriz no
singular), pues esto indicaría que algunas de las variables son linealmente
dependientes y no se podrían realizar ciertos cálculos necesarios en el Análisis
Factorial). (Tarea: buscar una definición de determinante de una matriz)

- Test de Esfericidad de Bartlett: Comprueba que la matriz de correlaciones se


ajuste a la matriz identidad (I), es decir ausencia de correlación significativa
entre las variables. Esto significa que la nube de puntos se ajustara a una esfera
perfecta, expresando así la hipótesis nula por:

4
Ho: R = I

es decir, que el determinante de la matriz de correlaciones es 1.

Ho: | R| = 1

si se acepta la hipótesis nula (p>0,05) significa que las variables no están


intercorrelacionadas y por tanto no tiene mucho sentido llevar a cabo un Análisis
Factorial.

Es muy útil cuando el tamaño muestral es pequeño.

- Índice KMO de Kaiser-Meyer-Olkin:

Valores bajos del índice KMO desaconsejan la utilización de Análisis Factorial. Como
baremo para interpretar el índice KMO podría tomarse según Kaiser:

(Tarea: buscar definición de baremo)

1 >= KMO >= 0.9 muy bueno


0.9 >= KMO >= 0.8 meritorio
0.8 >= KMO >= 0.7 mediano
0.7 >= KMO >= 0.6 mediocre
0.6 >= KMO > 0.5 bajo
KMO <= 0.5 inaceptable

MATRIZ FACTORIAL

A partir de una matriz de correlaciones, el Análisis Factorial extrae otra matriz que
reproduce la primera de forma más sencilla. Esta nueva matriz se denomina matriz
factorial y adopta la siguiente forma:

1 2
1 P11 P21
2 P12 P22
3 P13 P23
4 P14 P24
5 P15 P25
6 P16 P26

Cada columna es un factor y hay tantas filas como variables originales.

Los elementos Pij pueden interpretarse como índices de correlación entre el factor i
y la variable j, aunque estrictamente sólo son correlaciones cuando los factores no
están correlacionados entre sí, es decir, son ortogonales. Estos coeficientes reciben el
nombre de pesos, cargas, ponderaciones o saturaciones factoriales. Los pesos

5
factoriales indican el peso de cada variable en cada factor. Lo ideal es que cada
variable cargue alto en un factor y bajo en los demás.

COMUNALIDADES

Se denomina "comunalidad" a la proporción de la varianza explicada por los factores


comunes en una variable.

La comunalidad (h ) es la suma de los pesos factoriales al cuadrado en cada una de


las filas.

EIGENVALUES (VALORES PROPIOS)

El cuadrado de una carga factorial indica la proporción de la varianza explicada por


un factor en una variable particular.

La suma de los cuadrados de los pesos de cualquier columna de la matriz factorial es


lo que denominamos eigenvalues ( ), indica la cantidad total de varianza que explica
ese factor para las variables consideradas como grupo.

Las cargas factoriales pueden tener como valor máximo 1, por tanto el valor
máximo que puede alcanzar el valor propio es igual al número de variables.

Si dividimos el valor propio entre el número de variables nos indica la proporción


(tanto por ciento si multiplicamos por 100) de las varianza de las variables que explica
el factor.

I II
1 P11 P21
2 P12 P22
3 P13 P23
4 P14 P24
5 P15 P25
6 P16 P26

ROTACIONES FACTORIALES

La matriz factorial indica, como sabemos, la relación entre los factores y las
variables o afirmaciones. Sin embargo, a partir de la matriz factorial muchas veces
resulta difícil la interpretación de los factores.

6
F.I [Link]

1 0.6 0.7

2 0.5 0.5

3 0.2 -0.5

4 -0.3 0.6

Como se ve esta matriz factorial resulta difícil de interpretar pues no queda claro en
que factor satura cada variable.

Para facilitar la interpretación se realizan lo que se denominan rotaciones factoriales.

La rotación factorial pretende seleccionar la solución más sencilla e interpretable. En


síntesis consiste en hacer girar los ejes de coordenadas, que representan a los
factores, hasta conseguir que se aproxime al máximo a las variables en que están
saturados.

La saturación de factores transforma la matriz factorial inicial en otra denominada


matriz factorial rotada, de más fácil interpretación. La matriz factorial rotada es una
combinación lineal de la primera y explica la misma cantidad de varianza inicial.

F.I [Link]

0.912 0.026

0.702 -0.018

0.226 -0.483

0.216 0.639

Como hemos dicho el objetivo de la rotación es obtener una solución más


interpretable, una forma de conseguirlo es intentando aproximarla al principio de
estructura simple (Thurstone, 1935). Según este principio, la matriz factorial debe
reunir las siguientes características:

1- Cada factor debe tener unos pocos pesos altos y los otros próximos a 0.
2- Cada variable o afirmación no debe estar saturada más que en un factor.
3- No deben existir factores con la misma distribución, es decir, los factores distintos
deben presentar distribuciones de cargas altas y bajas distintas.

Estos tres principios en la práctica no suelen lograrse, lo que se trata es de alcanzar


una solución lo más aproximada posible a ello.

7
Existen varios métodos de rotación que podemos agrupar en dos grandes tipos:
ortogonales y oblicuos.

La correlación entre las variables puede representarse como el ángulo entre dos
vectores y específicamente vendría dada como el coseno del ángulo entre dos vectores.
Así tendremos una rotación ortogonal cuando la correlación entre factores sea nula o lo
que es lo mismo, son independientes o tienen un ángulo de 90 grados entre factores; y
hablaremos de rotación oblicua cuando la correlación entre factores no sea nula y por
tanto el ángulo distinto de 90 grados.

Lo más recomendable es la rotación ortogonal, aunque en el caso de que existan


razones para pensar que los factores están correlacionados (dependientes) entonces
utilizaremos la rotación oblicua.

De entre las rotaciones ortogonales la más utilizada es la Varimax mientras en que


las oblicuas es la Oblimin.

En la rotación oblicua las ponderaciones factoriales no coinciden con las


correlaciones entre el factor y la variable, puesto que los factores están correlacionados
entre sí. Por eso cuando hacemos rotación oblicua la matriz factorial no rotada se
convierte en dos matrices diferentes: la matriz de ponderaciones (que es la que se
utiliza en la interpretación) y la matriz de correlaciones entre factores y variables.
También obtendremos otra matriz de correlaciones entre factores.

NUMERO DE FACTORES A CONSERVAR

La matriz factorial puede presentar un número de factores superior al necesario para


explicar la estructura de los datos originales. Generalmente hay un conjunto reducido
de factores, los primeros, que son los que explican la mayor parte de la variabilidad
total. Los otros factores suelen contribuir relativamente poco. Uno de los problemas
que se plantean, por tanto, consiste en determinar el número de factores que debemos
conservar, de manera que se cumpla el principio de parsimonia.

Se han dado diversos criterios para determinar el número de factores a conservar.


Uno de los más conocidos y utilizados es el criterio o regla de Kaiser (1960) que
indicaría lo siguiente: "conservar solamente aquellos factores cuyos valores propios
(eigenvalues) son mayores a la unidad". Este criterio es el que suelen utilizar los
programas estadísticos por defecto. Sin embargo, este criterio es generalmente
inadecuado tendiendo a sobreestimar el número de factores.

Otros criterios propuestos han sido por ejemplo, el Scree-test de Cattell (1966)
consistente en representar en un sistema de ejes los valores que toman los
eigenvalues (ordenadas) y el número de factor (abscisas). Sobre la gráfica resultante
(Gráfico de sedimentación) se traza una línea recta base a la altura de los últimos
autovalores (los más pequeños) y aquellos que queden por encima indicarán el número
de factores a retener.

8
Hay otros criterios propuestos por Velicer (1976), Bartlett (1950, 1951), Horn (1965) y
Lawley (1940), entre otros.

INTERPRETACION DE FACTORES

En la fase de interpretación juega un papel preponderante la teoría y el


conocimiento sustantivo.

A efectos prácticos se sugieren dos pasos en el proceso de interpretación:

1- Estudiar la composición de las saturaciones factoriales significativas de cada


factor.
2- Intentar dar nombre a los factores. Nombre que se debe dar de acuerdo con la
estructura de sus saturaciones, es decir, conociendo su contenido.

Dos cuestiones que pueden ayudar a la interpretación son:

- Ordenar la matriz rotada de forma que las variables con saturaciones altas en un
factor aparezcan juntas.
- La eliminación de las cargas factoriales bajas (generalmente aquellas que van por
debajo de 0,25).

Llamaremos variable compleja a aquella que satura altamente en más de un factor y


que no debe ser utilizada para dar nombre a los factores.

Factores bipolares, son aquellos factores en los que unas variables cargan
positivamente y otras tienen carga negativa

BIBLIOGRAFIA RECOMENDADA

Berstein, I.H. (1988). Applied Multivariated Analysis. New York: Springer-Verlag.

Bisquerra, R. (1989). Introducción Conceptual al Análisis Multivariable. Barcelona: PPU.

Comrey, A.L. (1985). Manual de Análisis Factorial. Madrid: Cátedra.

Cuadras, C. (1981). Métodos de Análisis Multivariante. Barcelona: Eunibar.

Ferrando, P.J. (1994). Introducción al Análisis Factorial. Barcelona: PPU.

Harman, H.H. (1980). Análisis Factorial Moderno. Madrid: Saltés.

9
Kim, J. y Mueller, C.W. (1978). An Introduction to Factor Analysis: What it is and how
to do it. Beverly Hills, CA: Sage.

Martínez Arias, R. (1995). Psicometría: Teoría de los Tests Psicológicos y Educativos.


Madrid: Síntesis.

Mulaik, S.A. (1972). The Foundation of Factor Analysis N.Y.: McGraw-Hill.

Rummel, R.J. (1970). Applied Factor Analysis Evanston: Northwistern University Press.

Vallejo, G. (Coor.) (1992). Técnicas Multivariadas Aplicadas a las Ciencias


Comportamentales. Oviedo: Universidad de Oviedo.

10

También podría gustarte