P. 1
ANALISIS FACTORIAL

ANALISIS FACTORIAL

|Views: 686|Likes:
Publicado porLineth Rodriguez

More info:

Published by: Lineth Rodriguez on Apr 01, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

12/02/2012

pdf

text

original

INTRODUCCION El Análisis Factorial es una técnica que consiste en resumir la información contenida en una matriz de datos con V variables

. Para ello se identifican un reducido número de factores F, siendo el número de factores menor que el número de variables. Los factores representan a la variables originales, con una pérdida mínima de información. El modelo matemático del Análisis Factorial es parecido al de la regresión múltiple. Cada variable se expresa como una combinación lineal de factores no directamente observables. Xij = F1i ai1 + F2i ai2+....+Fki aik + Vi Siendo: Xij la puntuación del individuo i en la variable j . Fij son los coeficientes factoriales. aij son las puntuaciones factoriales. Vi es el factor único de cada variable. Ejemplo gráfico de un modelo.

se han propuestos múltiples métodos para la extracción de factores. según el cual hay unos factores que representan a las variables originales. . b. Hotelling (1933). ANTECEDENTES HISTORICOS Los antecedentes del Análisis Factorial se encuentran en las técnicas de regresión lineal. Una buen solución factorial es aquella que es sencilla e interpretable.El nûmero de factores a extraer. Kaiser (1958) desarrolló el método Varimax para realizar rotaciones ortogonales mediante procedimientos matemáticos. También desarrolló la teoría y método de las rotaciones factoriales para obtener la estructura factorial más sencilla. por otro lado estaría el Análisis Confirmatorio donde se propone "a priori" un modelo. d. Con esto se plantea el dilema de qué método elegir. El método de Componentes Principales suele ser el más utilizado.Se asume que los factores únicos no están correlacionados entre sí ni con los factores comunes. en su clásico trabajo sobre inteligencia. segûn el método que se adoptase. En un principio las rotaciones eran gráficas. Para que el Análisis Factorial tenga sentido deberían cumplirse dos condiciones básicas: Parsimonia e Interpretabilidad. Por ejemplo.Los métodos de rotación de factores. donde no se conocen los factores "a priori". De todas formas hay autores que consideran que el Análisis de Componentes Principales es distinto del Análisis Factorial. desarrolló un método de extracción de factores sobre la técnica de "componentes principales". Thurstone (1947). Un continuador suyo fue K. Según el principio de parsimonia los fenómenos deben explicarse con el menor número de elementos posibles. A lo largo del desarrollo histórico del Análisis Factorial se han planteado algunos problemas de fondo que han dado lugar a distintas propuestas de solución. expresó la relación entre las correlaciones y las saturaciones de las variables en los factores.La estimación de las comunalidades. comprobándose que había distintas soluciones a un mismo problema. Pearson (1901). donde distingue un factor general (factor G) y cierto nûmero de factores específicos. el número de factores debe ser lo más reducido posible y estos deben ser susceptibles de interpretación sustantiva. Introdujo el concepto de estructura simple. Podemos distinguir entre Análisis Factorial Exploratorio. que presentó la primera propuesta del "método de componentes principales". y se somete a comprobación el modelo. respecto al Análisis Factorial. Los aspectos más polémicos han sido: a. Las respuestas han sido distintas segûn las diversas tendencias.Los métodos de extracción de factores. c. primer paso para el cálculo del Análisis Factorial. sino que se determinan mediante el Análisis Factorial y. Por lo tanto. siendo el número de estos superior al de aquellos. iniciadas por Galton. El origen del Análisis Factorial suele atribuirse a Spearman (1904).

el Análisis de Componentes Principales no hace tal asunción. menor en número que las variables originales. de la que no explicaba el primero y así sucesivamente. b. El Análisis de Componentes Principales no hace esa distinción entre los dos tipos de varianza.9 x . Análisis de Componentes Principales. entendiendo aquel como la aproximación inicial que tiene el investigador sobre los datos que desea analizar. En el Análisis Factorial se distingue entre varianza común y varianza única. que exprese lo que es común a esas variables. el primer factor o componente sería aquel que explica una mayor parte de la varianza total. Algunos autores consideran el segundo como una etapa del primero y otros los consideran como técnicas diferentes. Mientras que el Análisis de Componentes Principales busca hallar combinaciones lineales de las variables originales que expliquen la mayor parte de la variación total. El Análisis Factorial supone que existe un factor común subyacente a todas las variables. De este modo sería posible obtener tantos componentes como variables originales aunque esto en la práctica no tiene sentido.0 sobre la cual es operado un procedimiento de componentes principales y se obtienen los resultados: Factor Matrix: . Por su parte el Análisis Factorial busca factores que expliquen la mayor parte de la varianza común.9 1. El Análisis de Componentes Principales trata de hallar componentes (factores) que sucesivamente expliquen la mayor parte de la varianza total. es decir. La varianza única es la parte de la variación de la variable que es propia de esa variable. El Análisis Factorial y el Análisis de Componentes Principales están muy relacionados.ANALISIS FACTORIAL vs COMPONENTES PRINCIPALES. Análisis factorial. se centra en la varianza total. La importancia que tiene el modelo en la valoración de resultados y elección de la técnica estadística correspondiente. dentro del cual existen diferentes métodos. Kim y Mueller (1978) recomiendan utilizar el de máxima verosimilitud o el de mínimos cuadrados. el segundo factor sería aquel que explica la mayor parte de la varianza restante. En el Análisis de Componentes Principales. el Análisis Factorial pretende hallar un nuevo conjunto de variables. puede ser visto en el siguiente ejemplo. Ante la variedad de métodos que existen dentro del Análisis Factorial. La varianza común es la parte de la variación de la variable que es compartida con las otras variables. En resumen tenemos dos grandes tendencias: a. Supongamos la matriz de correlaciones siguiente: y x y 1.0 .

79859 89. y el resultado de esta predicción debería explicar el 81% de la varianza en y".440 . También se puede decir.80806 Standard Error .04381 .90000 95.".10.9 . Apareciendo como plausible que la varianza única asociada con y puede ser .Calcular la matriz de correlaciones entre todas las variables (conocida habitualmente como matriz R).00000 .81000 Adjusted R Square . que parece que y-x está cerca de ser una constante". .0 95.0000 (Constant) .43811 -----------------. PASOS EN EL ANALISIS FACTORIAL Los pasos que se suelen seguir en el Análisis Factorial son: 1.Y X FACTOR 1 .94831 Final Statistics: Variable Y X Communality * Factor Eigenvalue Pct of Var Cum Pct * . podré explicar el 95% de la varianza en cada x e y. Si por el contrario operásemos un método de análisis factorial obtendría los resultados siguientes: Factor Matrix: FACTOR 1 Y X .97468 .22361 -.9 89. Examen de esa matriz. desde el punto de vista de este tipo de modelo. vamos a ver un modelo propuesto desde el punto de vista de la regresión simple que da lugar a los resultados siguientes: Multiple R .90000 .10000 5. podemos esperar que el valor de y puede ser deducido de la ecuación matemática <0.89930 * 1 1.94831 .9*x>. si yo conozco el valor exacto de esta suma.00000 * 1 1.Variables in the Equation -----------------Variable B SE B Beta T Sig T X .19. Sobre la polémica entre Análisis Factorial y Componentes Principales puede consultarse el volumen 25 de Multivariate Behavioral Research (1990). pero teniendo en cuenta que también sería de esperar que el modelo ajustase igual de bien si los valores estuviesen entre 0 and .0 100.22361 Final Statistics: Variable Y X Communality * Factor Eigenvalue Pct of Var Cum Pct * 1.0 podríamos verificar una conclusión semejante a la siguiente: "Se observa que el primer componente principal es y+x.00000 * 2 .90000 20.04403 .0000 pudiendo verificarse una conclusión del tipo siguiente: "Verificamos que conocido el valor de x.89930 * donde la conclusión que podríamos extraer sería del tipo siguiente: "Se constata la existencia de 3 variables aleatorias independientes: donde una está oculta (factor común) y determina o influye tanto sobre x como sobre y.90000 R Square . Por último.0 1. Lo cual significa a nivel práctico.97468 FACTOR 2 . y además existen otras 2 variables ocultas (factores específicos) que tienen influencia única o singular sobre x e y.000 1. que necesitamos más variables que las que realmente observamos para ajustar los resultados al modelo propuesto.

63 0.38 1 0.38 0.76 0.Extracción de los factores necesarios para representar los datos. Representación gráfica. De tal forma que tendremos una matriz del tipo : X1 X1 X2 X3 X4 X5 X6 X2 X3 X4 X5 Xj 0. v =número de variables.92 0. EXAMEN DE LA MATRIZ DE CORRELACIONES El primer paso en el Análisis Factorial será calcular la matriz de correlaciones entre todas las variables que entran en el análisis.68 0.45 0. ..82 0.84 0. n =tamaño muestral. es decir ausencia de correlación significativa entre las variables. el 3º y 4º son un complemento.65 0.84 0.76 1 0.El determinante de la matriz de correlaciones: un determinante muy bajo indicará altas intercorrelaciones entre las variables. si se acepta la hipótesis nula (p>0.73 0.70 0.30 0.73 0.Test de Esfericidad de Bartlett: Comprueba que la matriz de correlaciones se ajuste a la matriz identidad ( I). Pueden utilizarse diferentes métodos para comprobar el grado de asociación entre las variables: .49 0.30 1 0.40 0. En realidad sólo los dos primeros pasos son indispensables.68 0.92 0. Es muy útil cuando el tamaño muestral es pequeño.Calcular las puntuaciones factoriales de cada individuo. expresando así la hipótesis nula por: Ho: R = I es decir. pero no debe ser cero (matriz no singular).. Uno de los requisitos que deben cumplirse para que el Análisis Factorial tenga sentido es que las variables estén altamente correlacionadas. R =matriz de correlaciones.45 0. .65 0.2.82 0. que el determinante de la matriz de correlaciones es 1. Esto significa que la nube de puntes se ajustara a una esfera perfecta. ln=logaritmo neperiano.50 0. 4.59 1 1 0.59 Una vez que se dispone de esta matriz concierne examinarla para comprobar si sus características son adecuadas para realizar un Análisis Factorial. pues esto indicaría que algunas de las variables son linealmente dependientes y no se podrían realizar ciertos cálculos necesarios en el Análisis Factorial).63 0.05) significa que las variables no están intercorrelacionadas y por tanto no tiene mucho sentido llevar a cabo un Análisis Factorial.5 1 0. Ho: | R| = 1 La formula correspondiente asume la siguiente expresión: donde.70 0.Rotación de los factores con objeto de facilitar su interpretación. 3.

. Como baremo para interpretar el índice KMO podría tomarse según Kaiser: 1 >= KMO >= 0. deberá haber pocos coeficientes altos para que sea razonable aplicar el Análisis Factorial. aij= correlación parcial. MATRIZ FACTORIAL A partir de una matriz de correlaciones... ponderaciones o saturaciones . cargas. rij= correlación simple.6 mediocre 0. aunque estrictamente sólo son correlaciones cuando los factores no están correlacionados entre sí. rij= correlación simple.5 inaceptable .8 meritorio 0. el Análisis Factorial extrae otra matriz que reproduce la primera de forma más sencilla.7 mediano 0.8 >= KMO >= 0.9 muy bueno 0.. Esta técnica.Correlación Anti-imagen: que es el negativo del coeficiente de correlación parcial. aij= correlación parcial. son ortogonales. toma los valores de la correlación múltiple al cuadrado como los valores iniciales de comunalidad. por defecto.7 >= KMO >= 0. sobre todo si la técnica a utilizar es un análisis factorial.Medida de Adecuación de la Muestra (MSA): donde.Correlación Múltiple. .Indice KMO de Kaiser-Meyer-Olkin: donde. Esta nueva matriz se denomina matriz factorial y adopta la siguiente forma: 1 2 3 4 5 6 1 P11 P12 P13 P14 P15 P16 2 P21 P22 P23 P24 P25 P26 Cada columna es un factor y hay tantas filas como variables originales. es decir. Estos coeficientes reciben el nombre de pesos.. que deberá ser alto.. valores bajos de este índice desaconsejan el uso del Análisis Factorial.5 bajo KMO <= 0.6 >= KMO > 0. Los elementos Pij pueden interpretarse como índices de correlación entre el factor i y la variable j.9 >= KMO >= 0. Valores bajos del indice KMO desaconsejan la utilización de Análisis Factorial.

Los pesos factoriales indican el peso de cada variable en cada factor. Si dividimos el valor propio entre el número de variables nos indica la proporción (tanto por ciento si multiplicamos por 100) de las varianza de las variables que explica el factor. 1 2 3 4 5 6 I II P11 P12 P13 P14 P15 P16 P21 P22 P23 P24 P25 P26 COMUNALIDADES Se denomina "comunalidad" a la proporción de la varianza explicada por los factores comunes en una variable. por tanto el valor máximo que puede alcanzar el valor propio es igual al número de variables. EIGENVALUES (VALORES PROPIOS) El cuadrado de una carga factorial indica la proporción de la varianza explicada por un factor en una variable particular.factoriales. La suma de los cuadrados de los pesos de cualquier columna de la matriz factorial es lo que denominamos eigenvalues ( ). Lo ideal es que cada variable cargue alto en un factor y bajo en los demás. . Las cargas factoriales pueden tener como valor máximo 1. indica la cantidad total de varianza que explica ese factor para las variables consideradas como grupo. La comunalidad (h ) es la suma de los pesos factoriales al cuadrado en cada una de las filas.

el Scree-test de Cattell (1966) consistente en representar en un sistema de ejes los valores que toman los eigenvalues (ordenadas) y el número de factor (abscisas). Este criterio es el que suelen utilizar los programas estadísticos por defecto. consiste en determinar el número de factores que debemos conservar.(Es el que da el ordenador SPSS por defecto). que son los que explican la mayor parte de la variabilidad total. Sin embargo.El promedio de los coeficientes de correlación de una variable con todas las demás. + P kj NUMERO DE FACTORES A CONSERVAR La matriz factorial puede presentar un número de factores superior al necesario para explicar la estructura de los datos originales. este criterio es generalmente inadecuado tendiendo a sobreestimar el número de factores.Estimando la comunalidad por la mayor correlación en la fila i-ésima de la matriz de correlaciones. de manera que se cumpla el principio de parsimonia. . Otros criterios propuestos han sido por ejemplo. . Como la comunalidad no se puede saber hasta que se conocen los factores. . Generalmente hay un conjunto reducido de factores. Los otros factores suelen contribuir relativamente poco.Calculando a partir de los dos coeficientes de correlación mayores de esa variable la siguiente operación: La comunalidad final de cada variable viene dada por: h =P 1j +P 2j + . En el Análisis de Componentes Principales como no suponemos la existencia de ningún factor común la comunalidad toma como valor inicial 1. Se han dado diversos criterios para determinar el número de factores a conservar. Uno de los más conocidos y utilizados es el criterio o regla de Kaiser (1960) que indicaría lo siguiente: "conservar solamente aquellos factores cuyos valores propios (eigenvalues) son mayores a la unidad". los primeros.. por tanto.Estimando la comunalidad por el cuadrado del coeficiente de correlación múltiple entre x y las demás variables. En los otros métodos se utilizan diferentes modos de estimar la comunalidad inicial: . Sobre la gráfica resultante se traza una línea recta base a la altura de los últimos autovalores (los más pequeños) y aquellos que queden por encima indicarán el número de factores a retener.El Análisis Factorial comienza sus cálculos a partir de lo que se conoce como matriz reducida compuesta por los coeficientes de correlación entre las variables y con las comunalidades en la diagonal. . Uno de los problemas que se plantean.. este resulta ser uno de los problemas del Análisis Factorial.

la relación entre los factores y las variables. Bartlett (1950. La rotación factorial pretende seleccionar la solución más sencilla e interpretable. Sin embargo.Velicer (1976) propone el método MAP (Minimum Average Partial).7 0. que se distribuye según Ji-cuadrado. Para facilitar la interpretación se realizan lo que se denominan rotaciones factoriales. que . De todos estos criterios los que parecen haber demostrado un mejor funcionamiento son el MAP y el Análisis Paralelo. En síntesis consiste en hacer girar los ejes de coordenadas. Los componentes empíricos con autovalores superiores a los de la matriz son retenidos. Un requisito para utilizar esta regla es que cada uno de los componentes retenidos deben tener al menos dos variables con pesos altos en ellos. a partir de la matriz factorial muchas veces resulta difícil la interpretación de los factores. Cada autovalor es excluido de manera secuencial hasta que no puede ser rechazada la hipótesis nula a través de una prueba de Ji-cuadrado. El método de Razón de Verosimilitud. Cuando se generan matrices muestrales basadas en esa matriz poblacional por fluctuaciones debidas al azar los autovalores excederán levemente de 1 y los últimos estarán ligeramente por debajo de 1.II 0.6 Como se ve esta matriz factorial resulta difícil de interpretar pues no queda claro en que factor satura cada variable.I 1 0. El Análisis Paralelo fue sugerido por Horn (1965) quien señala que a nivel poblacional los autovalores de una matriz de correlacines para variables no correlacionadas tomarían valor 1.5 -0. Horn propone contrastar los autovalores encontrados empíricamente en los datos reales con los obtenidos a partir de una matriz de variables no correlacionadas basada en el mismo número de variables que los datos empíricos y en el mismo tamaño de muestra. que implica calcular el promedio de las correlaciones parciales al cuadrado después de que cada uno de los componentes ha sido parcializado de las variables originales. sin embargo tienen la desventaja de que no son muy accesibles en la práctica. Cuando el promedio de las correlaciones parciales al cuadrado alcanza un mínimo no se extraen más componentes. ROTACIONES FACTORIALES La matriz factorial indica. La lógica de este procedimiento es comprobar si el número de factores extraído es suficiente para explicar los coeficientes de correlación observados. como sabemos. Este mínimo se alcanza cuando la matriz residual se acerca más a una matriz identidad.3 F. se trata de un criterio de bondad de ajuste pensado para la utilización del método de extracción de máxima verosimilitud. 1951) propone una prueba estadística para contrastar la hipótesis mula de que los restantes p-m autovalores son iguales (siendo p el número original de variables y m el número de factores o componentes retenidos).6 2 0.5 0.5 3 0. F.2 4 -0. introducido por Lawley (1940).

cambia la varianza explicada por cada factor. Por eso cuando hacemos rotación oblicua la matriz factorial no rotada se convierte en dos matrices diferentes: la matriz de ponderaciones (que es la que se utiliza en la interpretación) y la matriz de correlaciones entre factores y variables. Así tendremos una rotación ortogonal cuando la correlación entre factores sea nula o lo que es lo mismo. También obtendremos otra matriz de correlaciones entre factores. tienen un ángulo de 90 grados entre factores. la matriz factorial debe reunir las siguientes características: 1.226 0.639 Como hemos dicho el objetivo de la rotación es obtener una solución más interpretable.No deben existir factores con la misma distribución. Con la rotación factorial aunque cambie la matriz factorial las comunalidades no se alteran.Cada variable no debe estar saturada más que en un factor.216 F. hasta conseguir que se aproxime al máximo a las variables en que están saturados.Cada factor debe tener unos pocos pesos altos y los otros próximos a 0. de más fácil interpretación. . De entre las rotaciones ortogonales la más utilizada es la varimax mientras en que las oblicuas es la oblimin.912 0. y hablaremos de rotación oblicua cuando la correlación entre factores no sea nula y por tanto el ángulo distinto de 90 grados. Estos tres principios en la práctica no suelen lograrse. lo que se trata es de alcanzar una solución lo más aproximada posible a ello. En la rotación oblicua las ponderaciones factoriales no coinciden con las correlaciones entre el factor y la variable. aunque en el caso de que existan razones para pensar que los factores están correlacionados entonces utilizaremos la rotación oblicua.II 0. puesto que los factores están correlacionados entre sí. La matriz factorial rotada es una combinación lineal de la primera y explica la misma cantidad de varianza inicial. sin embargo. 1935). Según este principio.I 0. es decir.representan a los factores. una forma de conseguirlo es intentando aproximarla al principio de estructura simple (Thurstone. La correlación entre las variables puede representarse como el ángulo entre dos vectores y específicamente vendría dada como el coseno del ángulo entre dos vectores. La saturación de factores transforma la matriz factorial inicial en otra denominada matriz factorial rotada.018 -0. Lo más recomendable es la rotación ortogonal. INTERPRETACION DE FACTORES En la fase de interpretación juega un papel preponderante la teoría y el conocimiento sustantivo.483 0. Existen varios métodos de rotación que podemos agrupar en dos grandes tipos: ortogonales y oblicuos. los factores distintos deben presentar distribuciones de cargas altas y bajas distintas. A efectos prácticos se sugieren dos pasos en el proceso de interpretación: 1. 3.026 -0. F. 2.702 0.Estudiar la composición de las saturaciones factoriales significativas de cada factor.

86299 X19 -. Llamaremos variable compleja a aquella que satura altamente en más de un factor y que no debe ser utilizada para dar nombre a los factores.55459 .92995 X17 -.25867 -.33543 -.00000 X19 .52379 .00000 X20 .22016 .75680 .57707 .15756 -.9 .02226 -.La eliminación de las cargas factoriales bajas (generalmente aquellas que van por debajo de 0.58592 .31840 .00000 X17 .Intentar dar nombre a los factores. son aquellos factores en los que unas variables cargan positivamente y otras tienen carga negativa.66623 1.62461 .12052 -.86326 Measures of Sampling Adequacy (MSA) are printed on the diagonal.67496 1.00000 Anti-image Correlation Matrix: X16 X17 X18 X19 X20 X21 X16 .00000 Determinant of Correlation Matrix = .87189 Bartlett Test of Sphericity = 1009.81875 .00000 X21 .00000 * 1 4.FACTOR ANALYSIS ----------Analysis number 1 Listwise deletion of cases with missing values Label X16 test de figura humana X17 test tipo de letras X18 test de reconocimiento de formas X19 test numérico X20 test de términos relacionables X21 test de habilidades de clasificación Number of Cases = 238 Correlation Matrix: X16 X17 X18 X19 X20 X21 X16 1.Ordenar la matriz rotada de forma que las variables con saturaciones altas en un factor aparezcan juntas. Principal Components Analysis (PC) Initial Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct X16 1.92638 X21 .2.64664 .49473 -.9 70.00000 X18 . .25313 70.61893 1. ----------.56112 . Nombre que se debe dar de acuerdo con la estructura de sus saturaciones. Dos cuestiones que pueden ayudar a la interpretación son: . Significance = .04384 -.76539 .06255 . Extraction 1 for analysis 1.0134042 Kaiser-Meyer-Olkin Measure of Sampling Adequacy = .08595 . EJEMPLOS DE ANALISIS EN SPSS Ejemplo de un análisis factorial en SPSS por el método de componentes principales y sin rotación.25).59515 1. conociendo su contenido.64301 1. Factores bipolares. es decir.82683 X20 -.7701.85949 X18 -.66688 .01805 .04601 -.05431 .

5 79.9 X17 .77467 X21 .8 97.71440 X21 .1 86.46084 .82559 * X20 .78264 * 4 . Factor Matrix: Factor 1 X16 .75326 * A partir de los datos del primer ejemplo.62559 * 1 4.25313 70.7 7.7 97.8 X19 . Extraction 1 for analysis 1.X17 X18 X19 X20 X21 1.5 100.82314 * X20 .49440 * 5 .14788 8.0 3.90727 X20 . se puede observar como la solución varia al utilizar el metodo del factor principal.53970 * 1 3.3 79.00000 1.69627 * 2 . Principal Axis Factoring (PAF) Initial Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct X16 .00000 1.82770 X18 .46084 7.65202 * X19 .68509 * X18 .49556 8.3 7.0 PAF extracted 1 factors.51364 * 1 4.9 X17 .73493 * X18 .86790 Final Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct * X16 .80748 X19 .71364 * X19 .00000 1.00000 1.1 X18 .73464 X17 .42083 7.79095 X17 .7 2.3 65.3 X17 .64848 * 3 .0 PC extracted 1 factors.69691 * 6 .49556 .60012 * X21 .25313 70.84477 X19 . 5 iterations required.0 93. Factor Matrix: Factor 1 X16 .51037 * X21 .90862 X20 .42083 .8 X20 .92069 65.84284 Final Statistics: Variable Communality * Factor Eigenvalue Pct of Var Cum Pct X16 .9 70.22175 .9 70.5 100.8 93.5 X21 .7 86.85728 X18 .22175 3.14788 2.00000 * * * * * 2 3 4 5 6 .71037 * .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->