Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Temario 1º Cursos Analisis Multivariantes
Temario 1º Cursos Analisis Multivariantes
Fundamentos de la investigación en
ciencias de la salud: Análisis
multivariante
https://campusformacion.net/nuevocampus/impresioncurso.php 1/204
29/11/21 16:53 Campus Virtual
Índice
ÍNDICE
Multivariante” multivariantes.
3.1. Introducción
https://campusformacion.net/nuevocampus/impresioncurso.php 2/204
29/11/21 16:53 Campus Virtual
6.1. Introducción.
https://campusformacion.net/nuevocampus/impresioncurso.php 3/204
29/11/21 16:53 Campus Virtual
8.1. Introducción.
Tema 9. “Análisis
9.3. Obtención de soluciones: el método del
Factorial”
factor principal y el método de máxima
verosimilitud.
10.3. Aplicaciones.
https://campusformacion.net/nuevocampus/impresioncurso.php 4/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 5/204
29/11/21 16:53 Campus Virtual
Objetivos
OBJETIVOS GENERALES
https://campusformacion.net/nuevocampus/impresioncurso.php 6/204
29/11/21 16:53 Campus Virtual
Presentación
PRESENTACIÓN
https://campusformacion.net/nuevocampus/impresioncurso.php 7/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 9/204
29/11/21 16:53 Campus Virtual
Las ciencias de la salud y sociales soportan una realidad llena de necesidades que supone
cantidades ingentes de datos y, en consecuencia, requieren nuevos métodos para
diseccionarlos. Es ilusorio pretender responder a cuestiones complejas de investigación
mediante la exclusiva utilización de análisis estadísticos univariables.
https://campusformacion.net/nuevocampus/impresioncurso.php 10/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 11/204
29/11/21 16:53 Campus Virtual
Sheth (1968) se plantea tres preguntas en el momento de hacer una clasificación de las
técnicas multivariantes:
Métricos No Métricos
https://campusformacion.net/nuevocampus/impresioncurso.php 12/204
29/11/21 16:53 Campus Virtual
Regresión
Supervive
Métrica
MANOVA
Dependencia
Correlació
Se especifican una o más variables como si se hubiesen pronosticado (VD) mediante un Canónica
conjunto (VI)
Discrimin
No
Regresión
Métrica
Conjoint
Compone
principale
Factorial
Métrica
Cluster
Escalas
Interdependencia multidime
Todas las variables son tomadas como un conjunto, no se designa ninguna variable como
si se hubiesen pronosticado mediante otras variables. Correspo
Modelos l
lineales
No
Métrica
Cluster
Escalas
multidime
https://campusformacion.net/nuevocampus/impresioncurso.php 13/204
29/11/21 16:53 Campus Virtual
Controlar errores e incongruencias entre los datos, por ejemplo, recoger opiniones
de sujetos sobre la calidad del servicio de urgencias mediante una encuesta, cuando
estos nunca han estado en el.
Identificar y clasificar los datos missing. Los datos missing tienen consecuencias
nefastas para el potencial del contraste (tamaño de la muestra) y la capacidad de
generalización de los resultados (sesgos que no se distribuyen al azar)
Los datos missing en muchas ocasiones son producidos por rechazos, rechazos a
preguntas comprometidas o por falta de confidencialidad, etc. También pueden
deberse al desconocimiento, la falta de motivación para participar, la falta de
https://campusformacion.net/nuevocampus/impresioncurso.php 14/204
29/11/21 16:53 Campus Virtual
memoria en las personas mayores. Hay que percatarse de si son iguales los sujetos
que responden y los que no responden.
A veces un paso necesario para poder tratar los datos con determinadas técnicas es
la imputación o sustitución de valores missing por otros. Un procedimiento de
imputación conocido es el denomino Hot Deck. Se trata de un procedimiento de
duplicación, cuando un valor es ausente otro valor es publicado para presentar ese
valor missing. Concretamente este método se aplica cuando los missing se
producen en una variable cualitativa.
Controlar los valores que caen fuera del rango normal de los datos. Como criterio
aplicamos la distancia respecto al cuerpo central de la distribución (50% de los
casos, entre el P75 y el P25). El valor numérico entre el P75 y el P25 se denomina
IQR, Recorrido Intercuartílico. El caso anómalo se separa bien por arriba o por
debajo del cuerpo central 1,5 veces el IQR.
Debemos diferenciar entre valores outliers (± 1,5 – 3 IQR), que alteran la media
disparándola hacia arriba o hacia abajo y valores extremos (± 3 IQR), que alteran los
resultados mucho más.
Imaginemos dos casos anómalos, uno podría ser el gasto promedio semanal del hijo
de un narco, y el otro, los ingresos anuales de Messi.
Si existen estos casos tenemos que optar por acudir a contrastes y estadísticos más
resistentes, como los contrastes no paramétricos y la mediana (en lugar de la
media).
https://campusformacion.net/nuevocampus/impresioncurso.php 15/204
29/11/21 16:53 Campus Virtual
Comprobar que los datos tienen las condiciones adecuadas para poder ser
analizados bajo los supuestos que posee cada técnica. Por ejemplo, si los datos no
se distribuyen normalmente nos veremos obligados a renunciar a las técnicas
paramétricas. Otro ejemplo, la Regresión Logística tiene una ventaja muy
importante y es que se puede usar aunque las variables no sean cuantitativas ni se
distribuyan normalmente.
Posibles Transformaciones:
suave: log X ó
suave: X2 ó X3
https://campusformacion.net/nuevocampus/impresioncurso.php 16/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 17/204
29/11/21 16:53 Campus Virtual
Los datos en AM suelen provenir de una población caracterizada por una distribución
multivariante. Sea X = (X1, ……,Xp) un vector aleatorio con distribución absolutamente
continua y función de densidad ƒ (x1, ……., xp).
ƒj (xj) = ∫ ƒ (x1, ….., xj, ……., xp) dx1, ……., dx j-1d j+1 …….dxp.
https://campusformacion.net/nuevocampus/impresioncurso.php 18/204
29/11/21 16:53 Campus Virtual
Sea X una variable aleatoria con distribución N (μ; σ 2); es decir, con media μ y varianza σ
2
: La función de densidad de X es (Figura 1. Adaptado de Cuadras, 2014):
Según:
Siendo x = (x1, ……., xp) ́, μ = (μ1, ……., μp) ́ y Σ = (σij) una matriz definida positiva. Por
otra parte, la Figura 2 sugiere definir la distribución X como una combinación lineal de p
variables Y1,…………., Yp independientes con distribución N(0; 1) (Figura 4. Adaptado de
Cuadras, 2014):
https://campusformacion.net/nuevocampus/impresioncurso.php 19/204
29/11/21 16:53 Campus Virtual
Que podemos escribir como X = μ + AY siendo Y = (Y1, ……., Yp) ́ y A = ( α ij) una matriz p* p
que verifica AA´ = Σ
https://campusformacion.net/nuevocampus/impresioncurso.php 20/204
29/11/21 16:53 Campus Virtual
Si tenemos dos variables discretas: X e Y, con función de probabilidad conjunta p (x, y) las
funciones marginales de ambas variables serán:
Si las variables son continuas: X e Y, con función de densidad conjunta ƒ (x, y) las
funciones de densidad marginal de ambas variables serían:
https://campusformacion.net/nuevocampus/impresioncurso.php 21/204
29/11/21 16:53 Campus Virtual
Por otra parte, cuando se definen más de una variable aleatoria en un experimento, el
conocimiento de una de las variables puede afectar a las probabilidades que se asocian
con los valores de la otra variable.
https://campusformacion.net/nuevocampus/impresioncurso.php 22/204
29/11/21 16:53 Campus Virtual
Y, si las variables son continuas: X e Y, con función de densidad conjunta ƒ (x, y) las
funciones de densidad marginal de ambas variables serían:
experimento, x1 el suceso A1, x1 veces el suceso A2,…., Xn veces el suceso An, donde
dichos sucesos forman una partición del espacio muestral, es decir:
Hay que tener en cuenta que si (X1, X2,…..Xn) es una variable multidimensional entonces
existe una relación lineal entre sus componentes ya que X1 +…… + Xn = m, por lo que
una de las variables, por ejemplo Xn , se puede poner como combinación lineal del resto,
Xn = m-X 1 – X2 -…… Xn-1. Por tanto el fenómeno que describe la variable (X1,
X2,…..Xn) queda igualmente descrito por una variable de dimensión menor (X1, X2,……,
https://campusformacion.net/nuevocampus/impresioncurso.php 24/204
29/11/21 16:53 Campus Virtual
Xn-1) sin que esta pérdida de dimensión suponga una pérdida de información. Por
ejemplo, una variable multinomial de dimensión dos (X1, X2), M(n, p1, p2.) se puede
describir considerando un componente cualquiera que tiene una distribución binomial,
por lo que en realidad esta variable es unidimensional y no bidimensional.
Además, de cada una de las variables, Xi,que forman una multinomial M(n, p1, pn) siguen
distribuciones binomiales B (m,pi), es decir, las distribuciones marginales de una
multinomial son binomiales, por lo tanto la esperada y la varianza de cada una de estas
variables es:
E [Xi] = = mpi
Var (Xi) = mpi (1-pi)
EJEMPLO
https://campusformacion.net/nuevocampus/impresioncurso.php 25/204
29/11/21 16:53 Campus Virtual
El resultado más inmediato es bien conocido: Si Σ = Ip, entonces X´X ̴ χ p2 (δ) con δ = µ
´µ. Si este resultado se generaliza:
1. (X − µ) ´Σ −1 (X − µ) ̴ χ p2 p.
Además de los resultados anteriores podemos considerar otros aún más generales y que
se enmarcan dentro del tratamiento de la distribución de formas cuadráticas normales a
partir de la metodología general de la función característica. La situación genérica que se
plantea es la siguiente: sea el polinomio y = X´AX + 2b´X + c con las características:
1. X ̴ Np [µ; Σ].
4. c es una constante
https://campusformacion.net/nuevocampus/impresioncurso.php 27/204
29/11/21 16:53 Campus Virtual
Tema 3 - Estimación
TEMA 3. ESTIMACIÓN
3.1. INTRODUCCIÓN
En la estimación, los parámetros se indican por letras griegas, por ejemplo θ , y el símbolo
representa su correspondiente estimador. Por tanto θ se refiere al valor poblacional y
el símbolo se refiere al valor estimado en la muestra, el valor asignado a a partir de los
datos observados.θ y son cosas distintas, y puede no ser correcto, puede diferir de
θ.
Según se ha visto una variable X sigue una función f(x). Si se toma una muestra aleatoria
simple de n observaciones, la función de probabilidad (o de densidad) de la muestra es el
producto de la función de probabilidad (o densidad) de cada una de las observaciones:
https://campusformacion.net/nuevocampus/impresioncurso.php 28/204
29/11/21 16:53 Campus Virtual
El método de máxima verosmilitud toma f (x) como base para realizar la estimación.
Supongamos que se ha tomado una muestra aleatoria simple (x) y el propósito es estimar
el parámetro θ. La función de verosimilitud es la función ƒ (x), entendida como una
función de θ y manteniendo fijo el valor encontrado en la muestra. Esto suele
representarse como:
EJEMPLO I
λ: parámetro de escala (0 < λ < ∞). Indica que tan aguda o plana es la función.
Por tanto, la función ƒ(x) depende únicamente de la media muestral Ẋ no de ningún otro
dato o cantidad observada en la muestra. Cuando esto sucede así, se dice que Ẋ es un
estadístico suficiente para λ. Es decir, toda la información observada se resume en Ẋ, que
contiene toda la información necesaria para realizar la estimación de λ. Bastaría con que
supiéramos el valor de Ẋ para poder estimar λ. No necesitamos conocer ninguna otra
característica de la muestra tal como la varianza, etc.
EJEMPLO II
Supongamos que hemos tomado una muestra aleatoria simple de tamaño tres y se
encuentra el resultado x = (2; 7, 3). El valor del estadístico Ẋ que se obtiene es 4, por
tanto, la función de verosimilitud sería:
El método de máxima verosimilitud consiste en asignar a los parámetros aquel valor que
haga máxima la probabilidad de los datos observados.
https://campusformacion.net/nuevocampus/impresioncurso.php 30/204
29/11/21 16:53 Campus Virtual
La forma práctica de saber cual es el estimador máximo verosímil consiste en utilizar los
conceptos del cálculo diferencial para encontrar el máximo de una función. En primer
lugar, en la mayoría de las ocasiones no se trabaja directamente con L(θ) sino con su
logaritmo, denominado l(θ) = log L(θ). Entre otros motivos, esto se debe a que l(θ) suele
ser más sencilla que L(θ) aunque ambas alcanzan su valor máximo en el mismo punto de
θ, por lo que es más cómodo trabajar con l(θ). Es decir, para saber cuál es el máximo de la
función l(θ), se utiliza la propiedad de que en el máximo de una función su derivada toma
el valor cero. Por ello, se calcula la derivada de l(θ) con respecto a θ, y se busca el valor de
θ que hace que dicha derivada sea cero.
EJEMPLO III
Continuando con el EJEMPLO II, hemos visto que a partir de la muestra x = (2; 7, 3) se
obtenía una Ẋ = 4. Entonces, la función de verosimilitud y su logaritmo son:
https://campusformacion.net/nuevocampus/impresioncurso.php 31/204
29/11/21 16:53 Campus Virtual
EJEMPLO IV
https://campusformacion.net/nuevocampus/impresioncurso.php 32/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 33/204
29/11/21 16:53 Campus Virtual
Encontrar ese estimador no es sencillo, una posibilidad es buscar, fijar, una cota inferior
para la varianza de cualquier estimador insesgado y después encontrar el estimador
insesgado cuya varianza no alcance esa cota.
La cantidad de información acerca del valor del parámetro contenida en una observación
de la variable aleatoria X, se denomina información de Fisher.
La matriz de información de Fisher (MIF) para una distribución normal toma una
formulación especial. El elemento (m,n) de la MIF para X ̴ N( μ (), Σ( σ ) ) es:
Donde
https://campusformacion.net/nuevocampus/impresioncurso.php 34/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 35/204
29/11/21 16:53 Campus Virtual
“tr” es la función denominada traza de una matriz. La traza de una matriz
cuadrada de nxn está definida como la suma de los elementos de la diagonal
principal de la matriz. Es decir
Generalmente es consistente
Es asintóticamente normal
https://campusformacion.net/nuevocampus/impresioncurso.php 36/204
29/11/21 16:53 Campus Virtual
La pregunta que tratamos de responder es: ¿cómo se puede usar el test de razón de
verosimilitudes para hacer inferencia en poblaciones multivariantes?
Así, por ejemplo, en base a este resultado se puede hacer inferencia sobre el vector de
medias cuando la matriz de covarianzas es desconocida, recurriendo a la distribución de
Hotelling.
Partiendo del concepto simple de vector aleatorio, lo definimos como una colección de
variables aleatorias medidas simultáneamente sobre el mismo individuo o sobre el mismo
resultado de un experimento aleatorio. Cada una de las componentes de un vector
aleatorio (Figura 1; Fuente: Google) es una variable aleatoria, y por tanto se puede
calcular su media, su varianza y su distribución. Sin embargo, hay algunas propiedades
conjuntas dentro de un vector aleatorio, como son la covarianza (o la correlación) y la
distribución conjunta. En concreto, se define el vector de medias como (Figura 2; Fuente:
Google):
https://campusformacion.net/nuevocampus/impresioncurso.php 37/204
29/11/21 16:53 Campus Virtual
Hay una transformación lineal que tiene un interés especial, que se conoce como
estandarización. La estandarización de una variable aleatoria se consigue restando la
media y dividiendo por la desviación típica (raíz cuadrada de la varianza). En el caso de un
vector aleatorio, su estandarización es:
https://campusformacion.net/nuevocampus/impresioncurso.php 38/204
29/11/21 16:53 Campus Virtual
Puede surgir alguna duda sobre cómo obtener la matriz . A este respecto es útil
tener presente que toda matriz de covarianzas es una matriz simétrica y semidefi nida
positiva. Por ejemplo, si A es una matriz simétrica, entonces (Figura 4; Fuente: Google):
Siendo v1, …………,vd una base ortonormal de autovectores de A y λ1, …….., λd sus
autovalores asociados.
A se dice definida positiva si todos los autovalores de A son positivos. En ese caso se
puede emplear para definir una norma (y una distancia) (Figura 5; Fuente: Google):
A se dice semidefinida positiva si todos los autovalores son no negativos. En ese caso los
autovalores nulos provocan una reducción de dimensión.
Dado que toda matriz de covarianzas es una matriz simétrica y semidefinida positiva.
Su rango, número de autovalores no nulos, coincide con la dimensión del espacio lineal en
el que se puede incluir el vector aleatorio. De hecho, dicho espacio lineal es el generado
por los autovectores asociados a los autovalores no nulos.
https://campusformacion.net/nuevocampus/impresioncurso.php 39/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 40/204
29/11/21 16:53 Campus Virtual
El test univariante H0(a): μ (a) = μ0 (a) contra la alternativa H1(a): μ (a) ≠ μ0 (a) se resuelve
mediante la t de Student (Figura 10; Fuente: Google):
https://campusformacion.net/nuevocampus/impresioncurso.php 41/204
29/11/21 16:53 Campus Virtual
Un primer método para construir contrastes sobre los parámetros de una población
normal se basan en estadísticos con distribución conocida (ji-cuadrado, F).
Pues:
https://campusformacion.net/nuevocampus/impresioncurso.php 42/204
29/11/21 16:53 Campus Virtual
H0: μ1 = μ2
Pues:
https://campusformacion.net/nuevocampus/impresioncurso.php 43/204
29/11/21 16:53 Campus Virtual
Imaginemos dos poblaciones normales de las que tenemos diversas muestras, como por
ejemplo:
https://campusformacion.net/nuevocampus/impresioncurso.php 44/204
29/11/21 16:53 Campus Virtual
Siendo:
Bajo esta hipótesis nula, la matriz en el numerador es una distribución de Wishart Wp(N
−q−1,Σ11) y la del denominador Wp(N−1,Σ11). Una distribución que se expresa como
suma de productos
muestrales.
2. Suponemos que Y sigue, en cada una de las poblaciones de los g grupos una
distribución Normal n-variante con vector de medias M (i= 1,2,...g),
eventualmente distinto para cada grupo y matriz de covarianzas V, la misma
para todas las poblaciones.
https://campusformacion.net/nuevocampus/impresioncurso.php 46/204
29/11/21 16:53 Campus Virtual
Yi = M + Ai + Ei
Donde:
Ai es un vector n-dimensional que nos indica el efecto propio del nivel o grupo
i-simo.
Por tanto, deducimos que el vector Yi tendrá, en cada grupo, i, una
distribución:
Yi → N [ (M + Ai ); V ]
Sobre este modelo nosplanteamos contrastar la hipótesis nula de que todos
los vectores A sean nulos:
H0: A1 = A2 =....= Ag = 0
Donde:
https://campusformacion.net/nuevocampus/impresioncurso.php 47/204
29/11/21 16:53 Campus Virtual
Si tenemos una matriz de n columnas y m filas, Z; donde cada columna está formada
por un vector aleatorio m-dimensional que tiene una distribución normal m-
variante con vector de medias el vector nulo y matriz de varianzas V, la misma para
todas las columnas de la matriz; entonces la matriz A = Z'Z sigue una distribución
de parámetros n, m y V (lo que puede expresarse como):
Wn (m,V)
NS→ Wn (N-1, V )
NB→Wn (g-1,V)
Igualmente puede probarse también que si la hipótesis nula: H0: A1= A2 =....= Ag = 0
es cierta, entonces la matriz NW seguirá, también una distribución de parámetros
n, N-g, V y será independiente de la distribución de NB.
λ = |W| / |T|
Es, precisamente este estadístico el que nos conducirá a determinar si los vectores
de medias de los grupos son significativamente diferentes o no; es decir, si la
hipótesis nula es rechazable o no:
Siendo λ el valor crítico que verifica P ( λ > λα) = α en una distribución λ (n, N-g,g-1).
https://campusformacion.net/nuevocampus/impresioncurso.php 49/204
29/11/21 16:53 Campus Virtual
5.1. INTRODUCCIÓN
Donde, Ŷi es la variable dependiente (criterio); X1, X2 son las variables independientes
(predictoras); y a, b1 y b2 son los coeficientes de regresión calculados a partir de los datos
de la muestra. Son estadísticos que estiman los parámetros de la población.
https://campusformacion.net/nuevocampus/impresioncurso.php 51/204
29/11/21 16:53 Campus Virtual
La RM es una técnica que nos permitirá explicar una variable (VD) mediante un conjunto
de otras variables explicativas (VIs).
EJEMPLO I
Supongamos que el director de una empresa de esquí quiere saber cuáles son las
variables que mejor explican que los usuarios esquíen mucho o esquíen poco en su
estación. Para conseguir este objetivo, entrevista a una muestra de 217 clientes de la
estación. Con los datos obtenidos se plantea realizar un modelo de regresión múltiple,
cuya variable a explicar, VD, es el número de días de esquí durante la temporada en la
estación. Las variables explicativas, VIs, después de seleccionar las más relevantes son: la
edad del cliente, los años de experiencia, el gasto medio por día durante su estancia, la
satisfacción general con la estación (escala de 0 a 10) y el número de personas con las que
esquía.
1. Determinar la función que relaciona las VIs con la VD que explica la relación con
las VIs
https://campusformacion.net/nuevocampus/impresioncurso.php 52/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 53/204
29/11/21 16:53 Campus Virtual
Son los valores que relacionan las variables (β1, β2, β3, …….. βp)
Los efectos combinados de las distintas Xp son aditivos (Si X1; X2; X3;
……., Xp cambian una unidad, el cambio esperado en Y sería β1, β2, β3, ……..
βp).
Errores de medición
4. Modelo General:
Y = β0 + β1 X1 + β2 X2 + β3 X3 + …………..+ βp Xp + ei
https://campusformacion.net/nuevocampus/impresioncurso.php 54/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 55/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 56/204
29/11/21 16:53 Campus Virtual
a) Insesgadez
Con cada muestra de y se obtiene un valor específico de β´2, es decir, una estimación. En
la Figura 5A aparecen representados dos estimadores de β2, β´2 (1) y β´2(2). La primera
estimación β´2(1) está relativamente cerca de β2, mientras que β´2(2) está mucho más
alejada
https://campusformacion.net/nuevocampus/impresioncurso.php 57/204
29/11/21 16:53 Campus Virtual
En la Figura 5B, por el contrario, el estimador β´2 es sesgado, ya que su esperanza no es
igual a β2. El sesgo es precisamente E(β´2) - β2. En este caso también se han representado
dos hipotéticas estimaciones: β´2(1) y β´2(2). Como puede verse β´2(1) está más cerca de β2
que el estimador insesgado β´2(2). Aunque se debe simplemente al azar, que β´2(1) esté
más cerca que β´2(2), por ser sesgado no está centrado en promedio sobre el parámetro.
Siempre es preferible un estimador insesgado puesto que, con independencia de lo que
ocurra en una muestra concreta, no tiene una desviación sistemática respecto al valor del
parámetro.
b) Eficiencia
https://campusformacion.net/nuevocampus/impresioncurso.php 58/204
29/11/21 16:53 Campus Virtual
En ambas figuras se han representado dos estimaciones de β2: β´2(3) y β´2(4). La estimación
que está más cerca de β2 es β´2(3) en la figura 6B. Se ha mostrado así para resaltar el papel
jugado por el azar, sin embargo, la mejor estimación siempre es β´2(4) en la figura 6A
porque el mejor estimador es el que tiene la varianza más pequeña.
c) Linealidad
y = β1 + β2x + e
Este teorema se basa en 10 supuestos; supuestos que se conocen como los supuestos de
Gauss-Markov:
https://campusformacion.net/nuevocampus/impresioncurso.php 59/204
29/11/21 16:53 Campus Virtual
9. Las variables explicativas (x) no son estocásticas, es decir, son fijas en muestras
repetidas. Es decir, cada observación de x toma el mismo valor para diferentes
muestras de y.
10. No hay multicolinealidad perfecta. No existe una correlación perfecta entre las
variables explicativas.
La bondad de ajuste es la proporción de varianza de Y explicada por Xp. Sus valores van
de 0 a 1, valores próximos a 0 indican que el modelo no se ajusta bien a los datos.
La bondad de ajuste R² nos informa como se ajusta el modelo a la muestra con la que
trabajamos. Pero nuestro objetivo es desarrollar un modelo para predecir a nivel
poblacional, por eso se ajusta el R², ya que éste aumenta con el número de VI y el tamaño
de la muestra.
https://campusformacion.net/nuevocampus/impresioncurso.php 60/204
29/11/21 16:53 Campus Virtual
Por otro lado, hay que tener en cuenta que si las Xp fueron medidas en escalas diferentes
(años, euros, número de personas, etc.) los coeficients βp NO SON COMPARABLES
ENTRE SÍ. Para evaluar la importancia de cada variable explicativa, Xp hay que
normalizar los coeficientes (N βp). Para ello se estandarizan (normalizan) las variables
explicativas Zxp (N, 0, 1). Estos parámetros se relacionan entre sí:
A partir de los coeficientes normalizados N βp, además, podemos conocer el peso de cada
VI a la hora de explicar la VD. Para ello aplicamos:
https://campusformacion.net/nuevocampus/impresioncurso.php 61/204
29/11/21 16:53 Campus Virtual
El análisis de residuos permite identificar valores outliers (fuera de rango) para los que la
relación lineal planteada entre la VD y las VIs no existe. No se ajusta a las respuestas
dadas. Es decir, los valores estimados de la VD difieren notablemante de los valores
reales ei = Yi -Ŷi
Los outliers influyen negativamente en el ajuste general del modelo. Unos pocos outliers
son suficientes para distorsionar los resultados.
https://campusformacion.net/nuevocampus/impresioncurso.php 62/204
29/11/21 16:53 Campus Virtual
Dado que el estadístico t se corresponde con el valor de Nei , si Nei > 1,96 rechazamos la
H0 (α = 5%). Estos serán los outliers.
Trazando la media de las dos variables en un gráfico tenemos 4 cuadrantes (Figura 7):
https://campusformacion.net/nuevocampus/impresioncurso.php 63/204
29/11/21 16:53 Campus Virtual
En el cuadrante 1: los valores de X e Y están por encima de sus respectivas medias, tienen
desviaciones positivas.
Si los puntos caen en cuadrantes diagonales evidencian relación entre ambas variables.
Para corregir los efectos del tamaño de la muestra dividimos Σxy entre
los grados de libertas del tamaño de la muestra, n – 1, y así creamos la
Medida de Covarianza.
https://campusformacion.net/nuevocampus/impresioncurso.php 64/204
29/11/21 16:53 Campus Virtual
Este coeficiente puede calcularse a partir del conocimiento de las correlaciones sencillas,
sin utilizar informaciones individuales de los elementos de la muestra. La fórmula para la
correlación parcial se define como se muestra en la Figura 8
Para concluir, cabe hacer mención especiales a aquellas situaciones en las que deseamos
conocer la asociación que existe entre variables que no son métricas (no tienen
propiedades de una escala de intervalo y no presentan una distribución norma.
En estos casos, podemos recurrir a los índices rho de Spearman y Ƭ de Kendall, cuando la
distribución no es normal pero sí son numéricas y ordinales las variables. La rho de
Spearman se aproxima cuando tenemos muchas categorías, la T de Kendall es preferida
cuando muchos casos entran en un número selectivamente bajo de categorías.
Para probar si cada VI (Xp) por sí sola influye significativamente sobre VD (Y)
P son los grados de libertad del numerador = glr - glnr, donde gl = numero de
observaciones- número de parámetros estimados.
Por otro lado, si lo que queremos es comprobar globalmente la relación entre todas las
VI y la VD, aplicaremos:
https://campusformacion.net/nuevocampus/impresioncurso.php 66/204
29/11/21 16:53 Campus Virtual
Los intervalos de confianza a los que estamos habituados a utilizar son intervalos uno por
uno, denominamos “estop es”. Son los tipos usuales de intervalo de confianza o
predicción, en donde el coeficiente de confianza 1- α indica la proporción de estimaciones
correctas que resulta cuando se seleccionan muestras aleatorias repetidas. En algunos
problemas se necesita construir varios intervalos de confianza con los mismos datos de la
muestra, necesitamos un coeficiente de confianza que se aplique de forma simultánea, o
al mismo tiempo, a todo el conjunto de estimaciones por intervalo. Un conjunto de
intervalos de confianza que son todos ciertos de forma simultánea, con 1- α de
probabilidad, se llama conjunto de intervalos simultáneos o conjuntos de confianza.
Es relativamente fácil definir una región de confianza conjunta para los parámetros β del
modelo de Regresión Múltiple (Figura 9).
https://campusformacion.net/nuevocampus/impresioncurso.php 67/204
29/11/21 16:53 Campus Virtual
En consecuencia, una región de confianza conjunta de 100(1−α) por ciento, para todos los
parámetros en β es (Figura 11):
Se dice que existe multicolinealidad entre las variables explicativas cuando existe algún
tipo de dependencia lineal entre ellas, o lo que es lo mismo, si existe una fuerte
correlación entre las mismas. La correlación no solamente se refiere a las distintas
variables dos a dos, sino a cualquiera de ellas con cualquier grupo de las restantes. Por
esta razón no es suficiente (aunque sí necesaria) que en la matriz de correlaciones
bivariadas haya correlaciones altas.
La varianza de los estimadores tiene que ver con (X´X)-1, donde X es la matriz de los
valores de las variables independientes. Cuando las columnas de X son colineales, la
matriz es singular y no tiene inversa. En este sentido los autovalores de la matriz X´X
(normalizada) nos puede proporcionar información del grado de singularidad de la
misma. A este respecto, disponemos del Indice de Condición, cuyo valor es la raíz
cuadrada del cociente entre el máximo autovalor y el mínimo de la matriz X´X:
https://campusformacion.net/nuevocampus/impresioncurso.php 68/204
29/11/21 16:53 Campus Virtual
Se considera que a partir de un valor de 20 hay cierta multicolinealidad y que ésta es alta
a partir de 30.
Uno de las cuestiones más importantes a la hora de encontrar el modelo de ajuste más
adecuado para explicar la variabilidad de una característica cuantitativa es la correcta
especificación del llamado modelo teórico. En otras palabras, debemos seleccionar de
entre todas las variables candidatas a ser explicativas de la variable dependiente un
subconjunto que resulte suficientemente explicativo
Para ello debe eliminarse las variables Xp con βp no significativas y volver a repetir el
análisis para obtener estimaciones correctas.
https://campusformacion.net/nuevocampus/impresioncurso.php 69/204
29/11/21 16:53 Campus Virtual
Es obvio que, el modelo de ajuste al que se llega partiendo del mismo conjunto de
variables explicativas es distinto según cuál sea el método de selección de variables
elegido. Pero ninguno de los llamados métodos automáticos garantiza encontrar el
modelo óptimo -en el sentido, por ejemplo de maximizar el coeficiente de determinación
o cualquier otro criterio que nos parezca relevante-.
EJEMPLO III
https://campusformacion.net/nuevocampus/impresioncurso.php 70/204
29/11/21 16:53 Campus Virtual
Debido a que ninguna de las dos variables, cuando son consideradas de manera
independiente, supera los criterios mínimos para ser incluida en el modelo (que su
coeficiente t lleve asociada una probabilidad crítica inferior a 0,05), no se incluye ninguna
variable X en el modelo según el Método Foward.
El coeficiente de determinación para este modelo con dos variables explicativas es 0,987
y al coeficiente F asociado le corresponde una probabilidad crítica inferior a 0,001.
Adicionalmente, a los estadísticos t asociados a cada una de las dos variables explicativas
les corresponden probabilidades críticas muy reducidas. Hemos encontrado, por tanto,
un buen modelo lineal para explicar el comportamiento de Y a partir del comportamiento
de X1 y X2. El problema radica en que si hubieramos elegido de forma acrítica utilizar un
procedimiento forward o stepwise, jamás lo habríamos encontrado.
https://campusformacion.net/nuevocampus/impresioncurso.php 71/204
29/11/21 16:53 Campus Virtual
6.1. INTRODUCCIÓN
Construir una regla de decisión que asigne un objeto nuevo con un cierto
grado de riesgo, cuya clasificación previa se desconoce, a uno de los
grupos prefijados
https://campusformacion.net/nuevocampus/impresioncurso.php 72/204
29/11/21 16:53 Campus Virtual
Supuestos
2. Se necesitan al menos dos grupos, y para cada grupo se necesitan dos o más
casos.
Filosofía
Partiendo de q grupos a los cuales se asignan una serie de objetos y de p variables
medidas sobre ellos (X1 , X2 ,….. , Xp) , se trata de obtener para cada objeto una serie de
puntuaciones que indican el grupo al que pertenecen (Y1 , Y2 ,….. , Ym), de modo que sean
funciones lineales de (X1 , X2 ,….. , Xp):
………………………………………………………………………………………….
…………………………………………………………………………………………
https://campusformacion.net/nuevocampus/impresioncurso.php 73/204
29/11/21 16:53 Campus Virtual
Donde:
Xp = variables independientes p
El AD contrasta la hipótesis de que las medias de los grupos en un conjunto de VIs son
iguales.
Para que una VI sea un predictor significativo, las medias de los grupos deben ser
distintas.
Identificamos las variables que mejor discriminan entre los grupos, y determinamos
en qué medida lo hace cada una. De este modo podremos: a) comprender las
diferencias entre los grupos y b) pronosticar el grupo de pertenencia de un objeto o
sujeto (clasificar)
2. Diseñar la investigación
https://campusformacion.net/nuevocampus/impresioncurso.php 74/204
29/11/21 16:53 Campus Virtual
b) Tamaño muestral
c) División de la muestra
https://campusformacion.net/nuevocampus/impresioncurso.php 75/204
29/11/21 16:53 Campus Virtual
Es útil para ver la capacidad explicativa de cada VI, analizar las distintas
combinaciones de VIs o para valorar la parsimonia de las VIs.
https://campusformacion.net/nuevocampus/impresioncurso.php 76/204
29/11/21 16:53 Campus Virtual
La menor razón F incorpora en cada paso la variable que maximiza la menor razón
de F para las parejas de los grupos. El estadístico F utilizado es la distancia de
Mahalanobis ponderada por el tamaño de los grupos.
donde
https://campusformacion.net/nuevocampus/impresioncurso.php 77/204
29/11/21 16:53 Campus Virtual
a: Constante
CPRO = p2 + (1-p)2
La precisión clasificatoria debe ser, por lo menos, ¼ mayor que la obtenida por
azar (para 2 grupos: 62,5%).
https://campusformacion.net/nuevocampus/impresioncurso.php 80/204
29/11/21 16:53 Campus Virtual
Se recomienda:
¿Cómo?
Existen 2 métodos:
https://campusformacion.net/nuevocampus/impresioncurso.php 82/204
29/11/21 16:53 Campus Virtual
b) Diseño de Grupos.
EJEMPLO I
X3: Ansiedad
El grupo que abandona se caracteriza por: baja autoestima, bajo interés y alta
ansiedad.
https://campusformacion.net/nuevocampus/impresioncurso.php 83/204
29/11/21 16:53 Campus Virtual
A partir de L(x0) (valor que toma la función lineal discriminante L para la nueva
observación x0), decido a qué población se asigna la nueva observación x0.
https://campusformacion.net/nuevocampus/impresioncurso.php 84/204
29/11/21 16:53 Campus Virtual
Sustituyo en la Figura 2 las μi, ahora desconocidas por sus estimaciones, por Ẋi, y
tengo una nueva versión de la regla de discriminación lineal de Fisher Figura 3;
Fuente: Google:
https://campusformacion.net/nuevocampus/impresioncurso.php 85/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 86/204
29/11/21 16:53 Campus Virtual
Los algoritmos de selección hacia delante comienzan eligiendo las variables que más
discriminan entre los q grupos. A continuación seleccionan la segunda más discriminante
y así sucesivamente. Si de las variables que quedan por elegir ninguna discrimina de
forma significativa entre los grupos analizados el algoritmo finaliza.
Los algoritmos de regresión por pasos utilizan una combinación de los dos anteriores
algoritmos permitiendo la posibilidad de arrepentirse de decisiones tomadas con
precipitación bien eliminando del conjunto una variable introducida o introduciendo una
variable eliminada anteriormente.
Para determinar que variables entran y salen en cada paso se utilizan diversos criterios
de entrada y salida. Uno de los más utilizados es de la lambda de Wilks.
https://campusformacion.net/nuevocampus/impresioncurso.php 87/204
29/11/21 16:53 Campus Virtual
Por analogía, puede considerarse una extensión de la Regresión Lineal (RL), con la
particularidad de que el dominio de salida de la función (conjunto de todos los valores
dependientes posibles que la relación VI - VD puede producir) está acotado al intervalo
[0,1] y que el procedimiento de estimación, en lugar de mínimos cuadrados, es de
máximo-verosimilitud. En términos interpretativos es similar a la RL
La RLG también presenta una analogía con el Análisis Discriminante (AD). Cuando la VD
tiene sólo dos grupos, es dicotómica, puede utilizarse el AD o la RLG indistintamente. Sin
embargo, la RLG tiene cualidades que le otorgan gran poder estadístico por encima del
AD:
El Análisis de RLG tiene una gran utilidad en muchos campos de investigación, siendo
especialmente empleado en investigación socio-sanitaria. Su gran utilidad deviene de su
capacidad para identificar factores de riesgo o de estimar cuánto aumenta la
probabilidad de sufrir una patología si se dan una serie de características o condiciones.
Por ejemplo, la RLG sería el modelo fundamental si pretendemos estimar la probabilidad
de que un individuo sufra un infarto a partir de las condiciones: nivel de colesterol, edad,
https://campusformacion.net/nuevocampus/impresioncurso.php 88/204
29/11/21 16:53 Campus Virtual
En dicha función se presenta la estimación de que un sujeto presente uno de los valores
posibles (1 = Recuperación; 0 = Recaída), en función de determinas VIs. Normalmente se
trabaja con el valor 1 de referencia, este valor 1 se le otorga a lo que queremos predecir,
la Recuperación. Se toma como primera variable explicativa a la variable constante que
vale 1.
Como se puede observar el sujeto (0, 25) resulta ser un caso anómalo que rompe el ajuste
del modelo.
Como se puede observar el sujeto (0, 25) resulta ser un caso anómalo que rompe el ajuste
del modelo.
https://campusformacion.net/nuevocampus/impresioncurso.php 89/204
29/11/21 16:53 Campus Virtual
El objetivo de la RLG es hallar los coeficientes (b1, b2,……. bn) que mejor se ajusten a la
expresión funcional.
La ODD RATIO sería la razón o cociente entre la probabilidad de que un evento ocurra
bajo unas determinadas circunstancias que bajo otras. (Ej-. Hay el triple de probabilidad
de sufrir un trastorno de ansiedad en una familia monoparental que biparental).
La ODD RATIO es el cociente entre dos ODD. El ODD de que un evento ocurra entre el
ODD de que un evento no ocurra en función de una condición, una VI. Nos informa de la
ventaja / desventaja de tener un nivel u otro de la VI para la VD (Recuperación). Es el
cociente entre dos ODD asociados, el obtenido al realizar el incremento y el anterior al
mismo, suponiendo que ha habido un incremento unitario en la variable X:
Cuando la ODD RATIO alcanza el valor 1 quiere decir que no hay diferencias.
EJEMPLO I
https://campusformacion.net/nuevocampus/impresioncurso.php 90/204
29/11/21 16:53 Campus Virtual
Podemos afirmar que hay dos Odds ratio significativas, la de 3,12 y la de 2,5 porque sus
intervalos de confianza no contienen al 1. La OR 10,2 es la mayor cuantitativamente pero
no es significativa, porque su intervalo de confianza del 95% incluye al 1. La OR de 2,5
tiene un intervalo de confianza más estrecho, lo que indica que el tamaño de la muestra
es mucho mayor. Tanto la OR 3,12 como la OR 2,5 son significativas, pero debemos
concluir que la mayor es la de 3,12 porque el valor de estimación puntual es mayor.
EJEMPLO II
Podemos observar que la primera Odds ratio es incoherente porque ésta simpre debe
estar contenida en el intervalo de confianza
EJEMPLO III
Concluiremos que la OR de 0,6 es la que indica una mayor relación dado que si pensamos
en su inversa 1/0,6 = 1,66666, es mayor que 1,5. La OR de 2 no es necesario considerarla
porque no es significativa dado que su intervalo de confianza del 95% incluye al 1.
Dado que la VD tiene que ser necesariamente un valor entre 0 y 1, el modelo debe asumir
una expresión matemática particular, concretamente logarítmica imprescindible para
hacer las predicciones
https://campusformacion.net/nuevocampus/impresioncurso.php 91/204
29/11/21 16:53 Campus Virtual
ln [P / 1 – P] = a + b1 X1 + b2 X2 + ……. bn Xn
Lo que la RLG pretende es identificar aquellas VIs que hacen variar esa ODD.
Por ejemplo, si la P (Recuperación) = 0,2 y la P (Recaída) = 0,8, entonces la ODD será 0,2 /
0,8 = 0,25, lo que significa que existe la cuarta parte de probabilidad de recuperación que
de recaer.
La RLG utiliza una función de Enlace Logarítmica, para pasar de los valores cualesquiera
en las VI a predicciones entre 0 y 1.
El Modelo de RLG asume que existe una relación lineal entre los predictores y el
logaritmo de la probabilidad de ocurrencia de un evento (LOGIT).
LOGIT = ln (ODD) = ln [P / 1 – P]
Así, se puede apreciar que el estimador del parámetro b2 se podrá interpretar como la
variación en el término Logit originada por una variación unitaria en la variable X2
(suponiendo constantes el resto de las variables explicativas).
El LOGIT es la VD de la RLG.
El LOGIT tiene dos características que serán muy útiles: 1) puede tomar cualquier valor
real (- ∞, + ∞); 2) permite una lectura simétrica de la relación entre proporciones.
Los pasos a seguir en la RLG son básicamente los mismos que en el Análisis
Discriminante:
https://campusformacion.net/nuevocampus/impresioncurso.php 92/204
29/11/21 16:53 Campus Virtual
3. Comprobación de supuestos
6. Validación de resultados.
c) La relación entre cada VI y el Logaritmo de las ODD (LOGIT), debe ser lineal
d) No existe multicolinealidad
Los coeficientes de la ecuación (b1; b2; b3; …) se utilizan para hacer las estimaciones de
probabilidad de que ocurra el evento.
Los métodos de los cuales disponemos para poder realizar la estimación son los mismos
que en la RL: el método simultáneo ENTER y el STEPWISE.
Una vez construido el modelo de RLG comprobamos cómo de bueno es el ajuste de los
valores predichos por el modelo a los valores observados. Existen diversas formas de
medir la bondad de ajuste, de manera global, ésta puede ser evaluada a través de medidas
https://campusformacion.net/nuevocampus/impresioncurso.php 93/204
29/11/21 16:53 Campus Virtual
Estos test estadísticos se diferencian y clasifican según se basen en los patrones de las
covariables, en las probabilidades estimadas por el modelo, en residuos suavizados y tipo
R²
d) Test tipo R²
R2 de Cox y Snell (0 y 1)
R2 de Nagelkerte (0 y 1)
La Bondad de ajuste también se evalúa mediante el análisis de los residuos del modelo y
de su influencia en la estimación del vector de parámetros, se evalúa la bondad de ajuste
caso por caso. Los programas automáticos nos ofrecen el cálculo de los residuos: R.
estandarizados, R. studentizados, R. desviación.
https://campusformacion.net/nuevocampus/impresioncurso.php 94/204
29/11/21 16:53 Campus Virtual
Finalmente la Bondad de ajuste se determina en base a las medidas de influencia, esto es,
cuantificando la influencia que cada observación ejerce sobre la estimación del vector de
parámetros o sobre las predicciones hechas a partir del mismo de forma que, cuanto más
grandes son, mayor es la influencia que ejerce una observación en la estimación del
modelo. Distinguimos: Medida de Apalancamiento de Leverage, Distancia de Cook y
Dfbeta.
Donde:
El modelo saturado es un modelo con un parámetro para cada observación, de modo que
los datos se ajustan exactamente.
La deviance se utiliza para comparar dos modelos, en particular, en el caso de los modelos
lineales generalizados, donde la función es similar a la varianza residual de la ANOVA en
modelos lineales.
https://campusformacion.net/nuevocampus/impresioncurso.php 95/204
29/11/21 16:53 Campus Virtual
En la RL se recurría un contrastre “t” para saber si cada uno de los predictores eran o no
significativamente distintos de cero. En la RLG se recurre al Estadístico de Wald.
Es el criterio más conservador, pues está basado en conseguir lo mejor en las peores
condiciones posibles. Si X ij representa ganancias para el decisor, para ai la peor ganancia,
Este resultado recibe el nombre de nivel de seguridad (al elegir ai se garantiza al menos
un beneficio de unidades).
Wald sugirió que el decisor debe adoptar aquella alternativa que tenga el mayor nivel de
seguridad, es decir, elegir ai asociada a
Se trata de un modelo que se utiliza para predecir las probabilidades de los diferentes
resultados posibles de una distribución categórica como variable dependiente, dado un
conjunto de variables independientes
En los modelos de regresión multinomial se asume que los recuentos de las categorías de
Y tienen una distribución multinomial. Esta distribución es, a su vez, una generalización
de la distribución binomial.
Será común que encontréis una amplia variedad de denominaciones para referirse a la
regresión multinomial como: regresión multiclase LR, Softmax function regression, Logit
multinomial, clasificador de máxima entropía (MaxEnt), etc
La regresión logit es una solución particular al problema de clasificación que asume que
una combinación lineal de las características observadas y algunos parámetros
específicos del problema pueden ser utilizadas para determinar la probabilidad de cada
resultado, en particular de la variable dependiente.
Se toma una categoría como respuesta base, por ejemplo la última categoría y
https://campusformacion.net/nuevocampus/impresioncurso.php 97/204
29/11/21 16:53 Campus Virtual
Donde:
P (Y ≤ j) = 1,………….. j
Para j = 1, …., J.
P (Y ≤ 1) ≤ P (Y ≤ 2) ≤…………….≤ P (Y ≤ J) = 1
EJEMPLO IV
En el libro Categorical Data Analysis (2002) de Agresti (pag. 279) se muestran los datos
de un estudio sobre una enfermedad mental donde se trata de relacionarla con dos
variables explicativas. La enfermedad mental se resume en una variable categórica con
los siguientes niveles: buen estado, síntomas leves, síntomas moderados y enfermedad.
https://campusformacion.net/nuevocampus/impresioncurso.php 98/204
29/11/21 16:53 Campus Virtual
EJEMPLO V
Se tiene una muestra de 735 personas a los que se pregunta por sus preferencias en
cuanto a tres variedades (brands) de algunos productos. Se considera además el género y
la edad de las personas de la encuesta.
Para cada observación de la base de datos se presentan 3 observaciones: una para cada
una de los valores de la variable brand.
En los resultados se obtienen los coeficientes y sus p-valores (Figura 2; Fuente: Google)
Los resultados mostraron que por cada aumento en una unidad de la variable edad, el
logaritmo del ratio de las probabilidades, P(brand = 2) / P(brand = 1)), se incrementa en 0,
368, y el logaritmo del ratio de las dos probabilidades, P(brand = 3) / P(brand = 1)), se
https://campusformacion.net/nuevocampus/impresioncurso.php 99/204
29/11/21 16:53 Campus Virtual
incrementa en 0, 686. Por tanto, en general, cuanto mayor sea una persona tendrá más
preferencia por brand igual a 2 ó a 3, que por brand igual a 1.
Las columnas etiquetadas como pred.1, pred.2, y pred.3, contienen las probabilidades
predichas de que brand sea igual a 1, 2 y 3 respectivamente (Figura 3; Fuente: Google)
Las mujeres parecen preferir brand igual a 2 ó igual a 3 en comparación con brand igual a
1. Por otro lado, cuanto mayor es una persona es más probable que prefiera brand igual a
2 ó a 3 que brand igual a 1.
Se observa que con el cambio en una unidad en la variable age (un año mayor), se espera
que la razón de odds entre elegir brand = 2 respecto de brand = 1 se incrementa en exp
(0,3682) = 1,45.
https://campusformacion.net/nuevocampus/impresioncurso.php 100/204
29/11/21 16:53 Campus Virtual
En el caso del sexo de las personas, female, la razón de odds de elegir brand = 2 respecto
de 1 se incrementa en exp (0,5238) = 1, 69.
https://campusformacion.net/nuevocampus/impresioncurso.php 101/204
29/11/21 16:53 Campus Virtual
8.1. INTRODUCCIÓN
Esta técnica nace de la psicología matemática y comercial, hoy se utiliza en las ciencias
sociales y ciencias aplicadas como el marketing o administración del producto, aunque,
en general, podríamos decir que resulta útil siempre que se desee identificar las actitudes
de los consumidores en la decisión de compra, profundizar en la dinámica de productos y
servicios.
https://campusformacion.net/nuevocampus/impresioncurso.php 102/204
29/11/21 16:53 Campus Virtual
En una situación de decisión real, los estímulos son imperfectos y, en consecuencia, los
sujetos se ven obligados a renunciar a unos atributos en beneficio de otros. Por ello el
Análisis Conjunto se define como un modelo aditivo.
Pero, para explicar las preferencias el modelo multiatributo no es la única estrategia. Por
otro lado nos encontramos con la conocida Teoría de la decisión. La diferencia entre
ambas: en la primera el énfasis se pone en el objeto, en la segunda el estudio se realiza
sobre el propio sujeto.
Finalmente, las preferencias (o juicio asociado a un estímulo) será el resultado del efecto
conjunto de los niveles de atributo que definen al estímulo.
El Análisis Conjunto va a ser, precisamente, el que nos a permitir estimar los coeficientes
que modelan las propiedades de los estímulos.
A la hora de medir el valor o utilidad que le da el consumidor a cada uno de los niveles de
los atributos de un producto existen dos aproximaciones:
https://campusformacion.net/nuevocampus/impresioncurso.php 103/204
29/11/21 16:53 Campus Virtual
Son más realistas porque el sujeto tiene que considerar todas las características a la
vez, poniendo en funcionamiento su verdadera estructura de valores y
preferencias. Proporcionan un mejor indicador de la importancia relativa de cada
característica.
Son más precisos ya que los sujetos toman decisiones analizando los descartes que
hay entre las características (características que consideran simultáneamente). El
consumidor busca un equilibrio entre lo que gana y lo pierde, y el análisis conjunto
busca este equilibrio.
“Un conjunto de técnicas y modelos que buscan sustituir las respuestas subjetivas
de los consumidores, por parámetros que estimen la utilidad de cada nivel de
atributo en la respuesta de preferencia manifestada por éstos”.
a) Definición restrictiva: una técnica estadística que nos a permitir explicar una
variable de respuesta (o dependiente de tipo ordinal a partir de dos o más variables
explicativas nominales (atributos o factores).
https://campusformacion.net/nuevocampus/impresioncurso.php 104/204
29/11/21 16:53 Campus Virtual
1. Problema de investigación.
2. Diseño de la investigación.
3. Recogida de datos
6. Validación
https://campusformacion.net/nuevocampus/impresioncurso.php 105/204
29/11/21 16:53 Campus Virtual
a) Preguntar al sujeto directamente cuales son los atributos que determinan sus
preferencias suponiendo que conoce y es capaz de identificarlas. Los atributos son
clasificados como determinantes si se encuentran entre las razones de preferencia
mas frecuentemente citadas o se les asigna una puntuación media elevada en una
lista presentada al sujeto (obtenida preferentemente de modo indirecto).
Si los atributos son continuos (precio) el investigador deberá realizar un pretest para
asegurar que los niveles son lo suficiente mente diferentes.
Por supuesto, el número de niveles no tiene que ser similar para todos los atributos.
Para seleccionar adecuadamente los niveles se puede optar por seleccionar una muestra
representativa y a cada individuo de la muestra se le solicita sus preferencias por un
conjunto de estímulos resultantes de la combinación de los atributos de estudio a
diferentes niveles.
https://campusformacion.net/nuevocampus/impresioncurso.php 106/204
29/11/21 16:53 Campus Virtual
El investigador puede optar por presentar sólo una pequeña fracción del total de
combinaciones denominada fracción del diseño factorial completo. El número de estímulos
requerido en un diseño factorial fraccionado depende de los objetivos del investigador.
Cuantos más efectos principales y de interacción (no confundidos entre sí) desee estimar
mayor número de estímulos necesitará.
Los estímulos se representan en una matriz X que refleja las características del Diseño
Factorial Fraccionado. En términos informáticos se denomina PLAN, donde las filas
representan los perfiles de los productos o estímulos objeto de estudio, y las columnas
los distintos atributos definidos. A dicha matriz de diseño X se le añade una columna “l”
con el objeto de estimar coeficientes β. En cuanto a las columnas que representan los
atributos o factores, cabe matizar que si para un atributo se definen mi niveles discretos,
entonces dicho atributo dará lugar a mi -1 columnas. Por el contrario, si los niveles de ese
factor son lineales entonces habrá una columna de valores centrados en ese factor.
a) Método Trade-Off
Sencillo y fácil para el entrevistado, sin sobrecarga de información (si son pocos
atributos)
Poco realismo (sólo dos factores), alarga la tarea, la fatiga y la confusión, imposible
utilizar estímulos gráficos o reales
Motor Precio
https://campusformacion.net/nuevocampus/impresioncurso.php 107/204
29/11/21 16:53 Campus Virtual
10.00020.00030.000
1.4 6 3 9
1.8 5 2 8
2.0 4 1 7
El método del perfil completo es de amplia utilización. Ofrece una descripción mas
realista de los productos sobre los que se solicita preferencias contrastando su
validez cuando las corre1aciones entre los atributos son elevadas.
Yi = β0 + βjXij + ei
https://campusformacion.net/nuevocampus/impresioncurso.php 108/204
29/11/21 16:53 Campus Virtual
Para determinar la contribución de cada uno de los atributos y sus niveles (efectos
principales y efectos interacción) a las preferencias del sujeto, las investigaciones sobre
análisis conjunto emplean principalmente la siguiente metodología:
La modelización de las respuestas de evaluación dadas por un sujeto a cada uno de los
perfiles descritos por las variables independientes (presencia o ausencia de un nivel
particular de atributo), viene dado por:
Donde: í son los pesos beta estimados en la regresión; x es la matriz de valores Dummy
identificativos de los niveles del diseño factorial; e y son las evaluaciones de rangos o
clasificaciones del sujeto.
Una vez que tenemos los rangos que ocupan cada producto o estímulo para cada sujeto,
es el momento de proceder a la estimación de utilidades. Al respecto cabe señalar los
trabajos de Cattin y (1984) y Hagerty (1985), que contribuyeron a optimizar la decisión
del investigador a la hora de seleccionar el modelo con mayor validez predictiva.
Haberty (1991) propuso un índice que nos permite comparar los diferentes modelos de
preferencia que podemos seleccionar, es decir, el tipo de relación que suponemos entre
las preferencias de los sujetos y los niveles de atributo: discreta, lineal, ideal y anti-ideal.
Una vez estimadas las utilidades es conveniente analizar los errores estándar de las
utilidades.
https://campusformacion.net/nuevocampus/impresioncurso.php 109/204
29/11/21 16:53 Campus Virtual
Los modelos a nivel agregado, inicialmente pueden obtener las medias de preferencia de
cada perfil de producto para toda la muestra y posteriormente estimar las utilidades de
los niveles de los atributos para el conjunto de individuos. Sólo es válido cuando la
población es homogénea en sus criterios de preferencia. Por ello, normalmente se
aconseja el método de análisis individual, aunque la operación es más laboriosa. También
es deseable poder combinar los aspectos positivos de ambos enfoques (elevado poder
predictivo en modelos individuales y estimación de un menor número de funciones de
utilidad en modelos agregados). La alternativa sería agrupar individuos de acuerdo con
sus preferencias (por ejemplo, aplicando un análisis cluster y a continuación estimar los
parámetros del modelo para cada segmento obtenido.
La evaluación del ajuste de la función de regresión trata de ver hasta qué punto las
Utilidades estimadas nos sirven para reproducir eficazmente las (preferencias)
ordenaciones de los sujetos.
Correlación de Kendall.
Las utilidades parciales nos informan del valor que aporta cada característica concreta o
nivel del atributo a su preferencia global. Puede asumir valores + o – ya que pueden
aportar o quitar valor. La importancia de cada factor o atributo es la diferencia entre el
https://campusformacion.net/nuevocampus/impresioncurso.php 110/204
29/11/21 16:53 Campus Virtual
nivel con mayor utilidad de ese atributo y el nivel con menor rango partido por el
sumatorio de rangos de todos los atributos x100.
El atributo más importante es aquel cuyos niveles son más extremos en términos de
Utilidad.
Una vez tenemos las utilidades podemos pasar a determinar una posible probabilidad de
elección. Existen tres modelos de predicción:
a) Utilidad Máxima
b) Índice BTL
c) Logit
https://campusformacion.net/nuevocampus/impresioncurso.php 111/204
29/11/21 16:53 Campus Virtual
Este modelo es similar al BTL pero, en este caso, utiliza el logaritmo natural de las
utilidades en lugar de las utilidades directas.
https://campusformacion.net/nuevocampus/impresioncurso.php 112/204
29/11/21 16:53 Campus Virtual
Es una técnica de reducción de datos que sirve para encontrar grupos homogéneos de
variables a partir de un conjunto numeroso de variables. Los grupos homogéneos se
forman con las variables que correlacionan mucho entre sí y procurando, inicialmente,
que unos grupos sean independientes de otros.
https://campusformacion.net/nuevocampus/impresioncurso.php 113/204
29/11/21 16:53 Campus Virtual
EJEMPLO I.
Historia 1 0,812
Lengua 1
En la matriz se pueden identificar dos grupos de variables con correlaciones altas entre sí
y bajas con el resto. Un grupo estaría formado por las asignaturas Ciencias, y Mates
(0,804) y el otro por Inglés, Historia y Lengua. Cada grupo representaría a un factor. Una
representación gráfica en el plano definido por los dos factores implícitos en la matriz de
correlaciones nos da idea de la similitud entre las variables (Figura 1. Representación
factorial de las variables del ejemplo. Elaboración: propia)
https://campusformacion.net/nuevocampus/impresioncurso.php 114/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 115/204
29/11/21 16:53 Campus Virtual
- F1, F2, ……..., Fc , son los factores comunes. Los factores son independientes entre
ellos. Se crean un número c de factores que es siempre menor que d, d debe ser
menor c, es decir, el número de factores cuanto más pequeño mejor, que con dos o
tres factores tengamos suficiente, que unos pocos acumulen mucha información,
mucha varianza de la nube de puntos original. Los factores realmente no existen
como entidad propia, lo que existe de cada sujeto u objeto es la suma de sus
respuestas o medidas, una combinación lineal de variables.
Para que el AF tenga sentido deberían cumplirse dos condiciones básicas: Parsimonia e
Interpretabilidad. Según el principio de parsimonia los fenómenos deben explicarse con
el menor número de elementos posibles. Según el principio de interpretabilidad los
factores deben ser susceptibles de interpretación sustantiva, interpretables.
- u1, u2,…….., ud son los factores únicos de cada variable. Cada uno de ellos es único
y distinto en cada una de las variables originales. Son una especie de residuo, un
elemento individual de cada una de las d variables originales y que es lo que queda
por explicar de cada una de ellas después de haber sumado una combinación
https://campusformacion.net/nuevocampus/impresioncurso.php 116/204
29/11/21 16:53 Campus Virtual
peculiar y única de los factores en cada una de las variables, después de haber
introducido en ellas lo que tienen de lo común, de lo que se explica por los factores
comunes elegidos.
- Cabe señalar en relación con la expresión matemática propuesta que los factores
únicos no están correlacionados entre sí ni con los factores comunes. Los factores
comunes pueden expresarse como una combinación lineal de todas las variables
originales:
- d, es el número de variables
Los pesos de cada variable pueden ser grandes o pequeños, positivos o negativos.
Generalmente, en cada factor hay ítems variables con pesos grandes y otros próximos a
cero; las variables que más pesan en cada factor son las que lo definen.
Es posible elegir pesos o coeficientes de calificación del factor de manera que el primer
factor explique la mayoría de la varianza total. Luego se selecciona un segundo conjunto
de pesos de forma que el segundo factor dé cuenta de la mayoría de la varianza residual,
siempre que no esté correlacionado con el primer factor.
1. Analizar TODA la varianza (común y no común). En este caso utilizamos los unos
de la matriz de correlaciones. El método más usual es el de Análisis de
Componentes Principales.
https://campusformacion.net/nuevocampus/impresioncurso.php 118/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 119/204
29/11/21 16:53 Campus Virtual
Variables
Sujetos
X1 X2 … Xd
.
… … … …
Donde, (F1, F2, …, FC) (cFactores Comunes, (u1, u2, …, ud) los Factores únicos o específicos, y
los Coeficientes (aij) {i = 1, …, d; j=1, ... ,c} las Cargas factoriales.
https://campusformacion.net/nuevocampus/impresioncurso.php 120/204
29/11/21 16:53 Campus Virtual
x = Af + u
Y que las relaciones entre factores comunes y específicos son las siguientes:
Corr (ui,uk) = 0
https://campusformacion.net/nuevocampus/impresioncurso.php 121/204
29/11/21 16:53 Campus Virtual
Si asumimos estas tres relaciones entre los factores comunes y específicos el modelo x =
Af + u recibe el nombre de Modelo de Factores Comunes Ortogonales. Las variables se
pueden expresar en función de factores independientes, en el sentido de que no existe
entre ellos interdependencia lineal. Este modelo se usa en el AF Exploratorio dado el
desconocimiento de la estructura factorial subyacente.
Si, por el contrario, consideramos que los factores comunes pueden covariar el modelo es
el Modelo de Factores Oblicuos. Se aplica en el AF Confirmatorio.
La relación entre variables observadas y factores es la misma que entre las variables del
modelo de regresión lineal múltiple (los pesos aij pueden ser interpretados de modo
similar a los parámetros de la regresión y, en los dos casos, la relación entre variables
criterio y predictoras no es exacta, por lo que aparece un término de error). No obstante
existen diferencias sustanciales: a) En el modelo de regresión lineal múltiple las variables
predictoras y criterio son observadas; en cambio, en el modelo factorial las variables
predictoras son variables no observadas y las variables criterio observadas; b) En la
regresión los parámetros del modelo pueden ser estimados, en el modelo factorial no
porque no se conocen las medidas en los factores.
Dado que la diferencia en las variables predictoras hace que los parámetros del modelo
factorial no puedan ser estimados, como en la regresión porque no conocemos las
puntuaciones de los sujetos en los factores, la estructura de la matriz de correlaciones (R)
viene definida por “u”.
https://campusformacion.net/nuevocampus/impresioncurso.php 122/204
29/11/21 16:53 Campus Virtual
Los factores comunes serían los que explican las relaciones existentes entre las variables.
https://campusformacion.net/nuevocampus/impresioncurso.php 123/204
29/11/21 16:53 Campus Virtual
En esta expresión se observa que la correlación entre dos variables observadas puede
obtenerse multiplicando los pesos factoriales de ambas variables en el conjunto de
factores comunes. Como era de esperar las especificidades de las variables observadas
no intervienen en las correlaciones.
c) Porcentaje de varianza de cada variable explicada por cada uno de los factores
comunes.
https://campusformacion.net/nuevocampus/impresioncurso.php 124/204
29/11/21 16:53 Campus Virtual
El porcentaje de varianza de cada variable explicada por cada uno de los factores
comunes podemos expresarlo como (Tabla III)
Ciencias 64 4 68
Mates 81 1 82
Inglés 1 81 82
Historia 9 64 73
https://campusformacion.net/nuevocampus/impresioncurso.php 125/204
29/11/21 16:53 Campus Virtual
Lengua 4 64 68
intercorrelacionadas. También se espera que las variables que tengan correlación muy
alta entre sí la tengan con el mismo factor o factores. En consecuencia, si las
correlaciones entre todas las variables son bajas, tal vez no sea apropiado el
AF. Pueden utilizarse diferentes métodos para comprobar el grado de asociación entre
las variables:
https://campusformacion.net/nuevocampus/impresioncurso.php 126/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 127/204
29/11/21 16:53 Campus Virtual
Pues bien, el método de Ejes Principales contempla únicamente la varianza que las
variables tienen en común o covarianza, excluyendo a la varianza específica y la varianza
de error. Esta característica lo distingue perfectamente del método de Componentes
Principales, ya que este último explica la mayor cantidad de varianza posible en los datos
observados, analiza la varianza total asociada a las variables, incluyendo la varianza
específica y la varianza de error.
https://campusformacion.net/nuevocampus/impresioncurso.php 128/204
29/11/21 16:53 Campus Virtual
Debe ser máxima. Se impone, además, la restricción de que las correlaciones observadas
deben ser reproducidas exactamente por los pesos factoriales lo que implica residuales
cero. Esta segunda restricción se expresa como
Los pesos (ai1) de las variables en el primer factor común se obtienen resolviendo el
sistema de ecuaciones que se deriva de la expresión
https://campusformacion.net/nuevocampus/impresioncurso.php 129/204
29/11/21 16:53 Campus Virtual
b) la varianza de las d variables observadas explicada por cada factor común viene
dada por
https://campusformacion.net/nuevocampus/impresioncurso.php 130/204
29/11/21 16:53 Campus Virtual
Esta varianza es, en principio, desconocida y tiene que ser estimada por algún
procedimiento. Varios han sido los criterios utilizados para estimar las comunalidades; de
todos ellos el más utilizado e implementado en el paquete estadístico SPSS consiste en
utilizar como estimación de la comunalidad de una variable el coeficiente de correlación
múltiple al cuadrado (R2i.1,2,...(i),..d) de dicha variable con el resto.
EJEMPLO II.
Lengua 0,8470
https://campusformacion.net/nuevocampus/impresioncurso.php 131/204
29/11/21 16:53 Campus Virtual
Este es el primer método de extracción de naturaleza estadística, los anteriores que son
de naturaleza algebraica.
https://campusformacion.net/nuevocampus/impresioncurso.php 132/204
29/11/21 16:53 Campus Virtual
Cuando dijimos que los métodos de extracción hacen únicas las cargas factoriales
aclaramos que dichas cargas son únicas en función del criterio particular elegido pero, en
ningún momento podemos pensar que hemos resuelto el problema de la indeterminación
factorial. Quiere esto decir que existirán infinitas matrices factoriales, obtenidas rotando
a una situación espacial distinta la solución factorial directa, que conserven el número de
factores comunes, la varianza total explicada por el conjunto de factores, las
comunalidades de las variables y que sean más fáciles de interpretar.
De las infinitas soluciones posibles obtenidas por rotación sólo nos van a interesar
aquellas que conserven la ortogonalidad de los factores (rotación ortogonal frente a
oblicua) y que nos lleven a una matriz factorial con determinadas características.
Para acometer este problema están los procedimientos de Rotación de Factores que, a
partir de la solución inicial, buscan factores cuya matriz de cargas factoriales los hagan
más fácilmente interpretables. Estos métodos intentan aproximar la solución obtenida al
Principio de Estructura Simple (Louis Leon Thurstone, 1935), según el cual la matriz de
cargas factoriales debe reunir tres características:
1. Cada factor debe tener unos pocos pesos altos y los demás próximos a cero.
3. No deben existir factores con la misma distribución, esto es, dos factores
distintos deben presentar distribuciones diferentes de cargas altas y bajas.
De esta manera, dado que hay más variables que factores comunes, cada factor tendrá
una correlación alta con un grupo de variables y baja con el resto de las variables.
Los principios enunciados están encaminados a encontrar una matriz factorial en
términos de factores disjuntos es decir, factores definidos por agrupamientos diferentes
de variables. Un ejemplo de una matriz factorial simple en los términos expresados
anteriormente sería la siguiente (Tabla V. Matriz Factorial simple; Elaboración: propia):
Variables F1 F2 F3
https://campusformacion.net/nuevocampus/impresioncurso.php 133/204
29/11/21 16:53 Campus Virtual
X1 0 X 0
X2 0 X 0
X3 0 X 0
X4 X 0 0
X5 X 0 0
X6 X 0 0
X7 0 0 X
X8 0 0 X
X9 0 0 X
donde los 0 representan pesos factoriales muy pequeños y las X pesos factoriales altos.
Aunque no siempre encontremos matrices tan fáciles de interpretar como la anterior con
la rotación si se va a eliminar buena parte de la dificultad que tiene interpretar la matriz
factorial directa.
https://campusformacion.net/nuevocampus/impresioncurso.php 134/204
29/11/21 16:53 Campus Virtual
Realmente lo que se realiza es un giro de ejes, de forma que cambian las cargas
factoriales y los factores.
Se trata de buscar una matriz T tal que la nueva matriz de cargas factoriales B tenga
muchos valores nulos o casi nulos, y unos pocos valores cercanos a la unidad de acuerdo
con el principio de estructura simple.
Todos ellos tienden a simplificar la matriz factorial directa. Según el criterio utilizado, el
objetivo será simplificar filas o la complejidad de las variables en el conjunto de factores
comunes (ej-. método Quartimax) o simplificar columnas o factores.
Los nuevos ejes se obtienen maximizando la suma para los k‐factores retenidos de
las varianzas de las cargas factoriales al cuadrado dentro de cada factor. Para evitar
que las variables con mayores comunalidades tengan más peso en la solución final,
se efectúa la normalización de Kaiser (dividiendo cada carga factorial al cuadrado
por la comunalidad de la variable correspondiente).
https://campusformacion.net/nuevocampus/impresioncurso.php 135/204
29/11/21 16:53 Campus Virtual
En la Rotación oblicua la matriz T de rotación no tiene que ser ortogonal (cuando una
matriz multiplicada por su transpuesta es la matriz identidad T T' =I ) sino únicamente no
singular (matriz cuadrado cuyo determinante no es cero). De esta manera, los factores
rotados no tienen por qué ser ortogonales y tener, por tanto, correlaciones distintas de
cero entre sí. La rotación oblicua puede utilizarse cuando es probable que los factores en
la población tengan una correlación muy fuerte. Es necesario ir con mucha atención en la
interpretación de las rotaciones oblicuas, pues la superposición de factores puede
confundir la significación de los mismos.
b) Método Promax. Altera los resultados de una rotación ortogonal hasta crear una
solución con cargas factoriales lo más próximas a la estructura ideal. La estructura
ideal se obtiene elevando a una potencia (entre 2 y 4) las cargas factoriales
obtenidas en una rotación ortogonal. Cuanto mayor sea la potencia, más oblicua es
la solución obtenida.
Sea H la matriz de cargas buscada por el método Promax, busca una matriz T tal que AT
=H.
Multiplicando ambos miembros por la matriz (A'A)−1 A' , se tiene: T = (A'A)−1 A' H.
https://campusformacion.net/nuevocampus/impresioncurso.php 136/204
29/11/21 16:53 Campus Virtual
Son variadas las posibilidades de analizar las puntuaciones factoriales de los sujetos:
Es necesario conocer los valores que toman los factores en cada observación, pues en
ocasiones, el AF es un paso previo a otros análisis: Regresión Múltiple o Análisis Cluster,
en los que sustituye el conjunto de variables originales por los factores obtenidos.
Cada factor estimado tenga correlación nula con los demás factores
verdaderos.
X =FA'+U
https://campusformacion.net/nuevocampus/impresioncurso.php 137/204
29/11/21 16:53 Campus Virtual
Una vez elegidas las variables, se les asigna pesos basados en su correlación con el factor,
y se comprueba su validez estimando su correlación con los factores que desea estimar
mediante la fórmula:
https://campusformacion.net/nuevocampus/impresioncurso.php 138/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 139/204
29/11/21 16:53 Campus Virtual
Los nuevos componentes principales o factores serán una combinación lineal de las
variables originales, y además serán independientes entre sí.
De modo ideal, se buscan c < d variables que sean combinaciones lineales de las p
originales y que no estén correlacionadas, recogiendo la mayor parte de la información o
variabilidad de los datos.
https://campusformacion.net/nuevocampus/impresioncurso.php 140/204
29/11/21 16:53 Campus Virtual
Para realizar el cálculo de las CP se considera una serie de variables (x1, x2, …, xd) sobre un
grupo de objetos o individuos y se trata de calcular, a partir de ellas, un nuevo conjunto de
variables (y1, y2, …, yd), incorrelacionadas entre sí, cuyas varianzas vayan decreciendo
progresivamente.
Lagrange):
Por su parte, los pesos (vij) de las componentes en las variables se obtienen resolviendo
el sistema de ecuaciones que se deriva de la expresión:
Una vez obtenida la matriz de pesos de las componentes en las variables, lo normal es
derivar a partir de la misma la matriz A que relaciona las variables observables con las
componentes. La relación entre estas dos matrices es:
Donde D1/2 es una matriz diagonal que contiene las raíces de las varianzas explicadas por
cada componente del conjunto de variables observadas. Los pesos o saturaciones
factoriales se obtienen de vij según la expresión:
La matriz factorial así obtenida es una matriz de orden d y con las siguientes propiedades:
https://campusformacion.net/nuevocampus/impresioncurso.php 142/204
29/11/21 16:53 Campus Virtual
a) Determinación “a priori”. Es el criterio más fiable si los datos y las variables están
bien elegidos y el investigador conoce la situación, lo ideal es plantear el AF con una
idea previa de cuántos factores hay y cuáles son.
https://campusformacion.net/nuevocampus/impresioncurso.php 143/204
29/11/21 16:53 Campus Virtual
En general, no se suelen coger más de tres componentes principales, a ser posible, para poder
representarlos gráficamente.
Para aclarar algunos de los conceptos desarrollados acerca del ACP podemos realizar el
siguiente ejercicio.
https://campusformacion.net/nuevocampus/impresioncurso.php 144/204
29/11/21 16:53 Campus Virtual
La primera pregunta que tenemos que poder responder es: ¿Cuántas variables vamos a
utilizar?
Variables originales
1 580,104 23,795
3 470,963 1,531
4 431,003 - 12,756
6 299,991 9,059
7 289,155 12,541
8 248,465 13,495
9 215,853 -34.828
El primer paso para la obtención de los CP es saber si: ¿Hay correlación entre ambas
variables?
Correlaciones
https://campusformacion.net/nuevocampus/impresioncurso.php 145/204
29/11/21 16:53 Campus Virtual
0,5460
Número de vacas ( 9)
0,1283
0,5460
( 9)
Beneficio
0,1283
https://campusformacion.net/nuevocampus/impresioncurso.php 146/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 147/204
29/11/21 16:53 Campus Virtual
Analysis Summary
Data variables:
Inversion
beneficio
Standardized: yes
https://campusformacion.net/nuevocampus/impresioncurso.php 148/204
29/11/21 16:53 Campus Virtual
Principal Components
Analysis
-----------------------------------------------
--------------------------------------
2 0,453963
22,698 100,000
-----------------------------------------------
---------------------------------------
b) Cada raíz tiene asociado un vector característico, que con dos variables:
u1 = ( u11; u12)
u2 = ( u21; u22)
u221+ u222 = 1
Si los datos están tipificados, siempre con 2 variables se obtienen los siguientes vectores: u1 =
(07071; 07071); u2 = (07071; - 07071)
Los coeficientes de los vectores son los coeficientes que hay que aplicar a
las variables tipificadas para obtener los CP:
https://campusformacion.net/nuevocampus/impresioncurso.php 149/204
29/11/21 16:53 Campus Virtual
-----------------------------------------------
--------
beneficio 0,707107
-0,707107
The SrarAdvisor
-----------------
Son los senos y los cosenos del ángulo de rotación entre los ejes de los CP y los ejes de las
variables tipificadas (ver Figura 4)
https://campusformacion.net/nuevocampus/impresioncurso.php 150/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 151/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 152/204
29/11/21 16:53 Campus Virtual
10.3. APLICACIONES
https://campusformacion.net/nuevocampus/impresioncurso.php 154/204
29/11/21 16:53 Campus Virtual
En las ciencias agrícolas, donde se usan conjuntos de datos complejos con variables
bióticas y abióticas, la aplicación de estadísticas multivariadas es fundamental. En
estos estudios, el APC se aplica principalmente para reducir el número de variables de
entrada. Además, estos cálculos se usan para desarrollar aplicaciones de agricultura
de precisión usando el monitoreo de cultivos, para descubrir gradientes de la
estructura del terreno, para determinar el momento de la cosecha (Garcia-Mozo y
cols., 2007) o para evaluar métodos de muestreo. PCA se aplicó para analizar la
variabilidad de la producción de frutos a partir de datos de polen aerobiológicos, así
como para conectar los parámetros meteorológicos con los períodos de altas
concentraciones de polen. Este método demostró ser fiable para identificar las
fuentes y los patrones de dispersión de las bacterias aerotransportadas y las esporas
de hongos patógenos de las plantas, lo que resultó en el énfasis de su posible uso tanto
para la señalización de la aparición como para la identificación de fuentes de
patógenos vegetales. Esto último es importante para un control eficaz de plagas
Magyar 2007).
https://campusformacion.net/nuevocampus/impresioncurso.php 155/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 156/204
29/11/21 16:53 Campus Virtual
El objetivo, por tanto, es similar al de los métodos factoriales, pero el método de ACO se
aplica sobre variables categóricas u ordinales. El ACO es, en realidad, un
análisis equivalente al Análisis de componentes principales y al Análisis factorial pero con
variables cualitativas.
Si nos centramos en una tabla de contingencia de dos variables cualitativas, con una
variable cuyas categorías aparecen en filas y la otra variable cuyas categorías son
representadas en columnas, el ACO consiste en resumir la información presente en las
filas y columnas de manera que pueda proyectarse sobre un subespacio reducido, y
representarse simultáneamente los puntos fila y los puntos columna, pudiéndose
obtener conclusiones sobre relaciones entre las dos variables nominales u ordinales de
origen. Es decir, el ACO hay que entenderlo como una técnica descriptiva que nos va a
permitir elaborar un mapa perceptual de las categorías de las variables analizadas en un
espacio de pocas dimensiones (habitualmente 2). La mayor o menor distancia entre los
puntos representados reflejan relaciones de dependencia y semejanza más o menos
fuertes entre las categorías representadas (Peña, 2002).
Así, si la variable cualitativa fila representa el nivel cultural de las familias (bajo, medio y
alto) y la variable columna diferentes percepciones que los padres tienen sobre si ser hijo
único es bueno o malo (bueno, malo, depende, no sabe), el ACO produce un gráfico con
dos ejes en los cuales cada categoría fila y cada categoría columna están representadas
por puntos distintos (Figura1; Fuente: Google)
https://campusformacion.net/nuevocampus/impresioncurso.php 157/204
29/11/21 16:53 Campus Virtual
Los campos en los que se pueden aplicar el ACO y las preguntas a las que puede dar
respuesta son múltiples, por ejemplo, nos puede permite conocer si:
Existe alguna relación entre la opinión de los padres acerca de ser hijo
único y el nivel cultural
https://campusformacion.net/nuevocampus/impresioncurso.php 158/204
29/11/21 16:53 Campus Virtual
Para resolver el problema, esto es, para analizar, desde un punto de vista gráfico, las
relaciones de dependencia e independencia de un conjunto de variables categóricas a
partir de los datos de una tabla de contingencia, debemos asociar a cada una de las
modalidades de la tabla, un punto en el espacio Rn (generalmente n=2) de forma que las
relaciones de cercanía/lejanía entre los puntos calculados reflejen las relaciones de
dependencia y semejanza existentes entre ellas.
Marginal
Bueno Malo Depende No sabe
Nivel
https://campusformacion.net/nuevocampus/impresioncurso.php 159/204
29/11/21 16:53 Campus Virtual
Además de las frecuencias para cada combinación de las categorías de las variables en la
tabla aparecen varios totales:
1 2 3 4 Marginal Fila
1 2 3 4 Marginal Fila
https://campusformacion.net/nuevocampus/impresioncurso.php 160/204
29/11/21 16:53 Campus Virtual
Dónde
El análisis clásico de la posible relación entre las variables cualitativas se realiza mediante
una prueba de hipótesis nula. La H0: establece que las variables son independientes, la
H1: establece que las variables son dependientes. El estadístico de contraste es:
https://campusformacion.net/nuevocampus/impresioncurso.php 161/204
29/11/21 16:53 Campus Virtual
Donde nob son las frecuencias absolutas y nesp las esperadas bajo la H0.
Para los datos que estamos analizando las frecuencias observadas y esperadas junto a
los residuales tipificados vienen dadas en la siguiente tabla (Tabla SPSS) (Figura 3. Fuente:
Google):
https://campusformacion.net/nuevocampus/impresioncurso.php 162/204
29/11/21 16:53 Campus Virtual
La distribución marginal de las variables es descrita por los perfiles marginales y vienen
dados por:
Tabla IV
n1./N = f1.(199/600=0,3317)
https://campusformacion.net/nuevocampus/impresioncurso.php 163/204
29/11/21 16:53 Campus Virtual
Tabla V
El conjunto de marginales columna (f.1, f.2, f.3, f.4) corresponde a la fila promedio se le
denomina centro de gravedad o centroide de las filas.
https://campusformacion.net/nuevocampus/impresioncurso.php 164/204
29/11/21 16:53 Campus Virtual
1 1 1 1
Así pues existen dos nubes de puntos: una constituida por n puntos en Rp de
coordenadas y la otra constituida por p puntos en Rn de coordenadas, cuyos puntos
están afecta afectados de masas fi. Y f.j, respectivamente.
https://campusformacion.net/nuevocampus/impresioncurso.php 165/204
29/11/21 16:53 Campus Virtual
La matriz de distancias Df obtenida a partir de F viene dada por (Figura 6. Fuente:
Google):
Del mismo modo, podemos calcular la matriz de distancias 2 entre los perfiles
columna. La distancia entre las columna 1 y 2 de C viene dada por:
https://campusformacion.net/nuevocampus/impresioncurso.php 166/204
29/11/21 16:53 Campus Virtual
Por la traspuesta de X, la matriz de inercia a partir de las filas viene dada por:
SF=X’ X
Sc=X X’
https://campusformacion.net/nuevocampus/impresioncurso.php 167/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 168/204
29/11/21 16:53 Campus Virtual
Relaciones baricéntricas.
Tomando un punto como origen, para todo punto P del plano del triángulo ABC, se
denota por el vector con extremo en este punto y, para dos puntos P y Q, se tiene que
. Como , forman una referencia afín, existen unos únicos
escalares x, y, z .
La inercia de un eje α es la suma de las inercias de los puntos fila proyectados en dicho
eje, λα = ... o de los puntos columna proyectados en dicho eje, λα = ...
Las categorías con contribuciones absolutas más altas son las protagonistas en la
construcción del eje, y nos van a servir para interpretar el sentido de los ejes principales.
La contribución relativa nos indica si los puntos están bien representados en los nuevos
ejes.
https://campusformacion.net/nuevocampus/impresioncurso.php 171/204
29/11/21 16:53 Campus Virtual
El objetivo es identificar grupos de manera que la variabilidad intra clase sea inferior a la
variabilidad entre clases.
Si X es una muestra de m individuos sobre los que medimos p variables, los valores que
toman los individuos para cada variable que se estudia se puede representar en una
matriz de datos (Figura 2, Fuente: Google)
https://campusformacion.net/nuevocampus/impresioncurso.php 172/204
29/11/21 16:53 Campus Virtual
Una vez tenemos la matriz debemos buscar los segmentos o grupos (clusters) en que se
pueden dividir los m individuos de forma que cada individuo pertenezca a un grupo y
solamente a uno.
En la Figura 3 se ilustra muy bien como obtenemos una matriz de similaridades a partir de
la matriz de origen.
https://campusformacion.net/nuevocampus/impresioncurso.php 173/204
29/11/21 16:53 Campus Virtual
Para poder unir variables o individuos es necesario tener algunas medidas numéricas que
caractericen las relaciones entre las variables o los individuos. Cada medida refleja
asociación en un sentido particular y es necesario elegir una medida apropiada para el
problema concreto que se esté tratando.
d(x,x) ≥ 0
d(x,y) = 0; x = y
d(x,y) = d(y,x)
S (x,y) ≤ S0
S (x,x) = S0
S (x,y) = S(y,x)
S (x,y) = S0; x = y
Dependiendo del tipo de análisis (por variables o por individuos) que se realiza, existen
distintas medidas de asociación aunque, técnicamente, todas las medidas pueden
utilizarse en ambos casos (Tabla I)
https://campusformacion.net/nuevocampus/impresioncurso.php 174/204
29/11/21 16:53 Campus Virtual
Medida Φ Distancia χ2
Medida de Jaccard
Medida de Dice
Medida de Rogers-Tanimoto
independiente (Figura 4A). A continuación se agrupan los dos casos más próximos
entre sí (Figura 4B). Después se agrupan los siguientes casos con menores
distancias entre ellos (Figura 4C). Posteriormente se junta la obs 3 en el cluster 1
(Figura 4D) y para terminar se unen los dos clusters 1 y 2, quedando un sólo caso
desparejado: un outlier (Figura 4E)
Figura 4
https://campusformacion.net/nuevocampus/impresioncurso.php 176/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 177/204
29/11/21 16:53 Campus Virtual
Una vez que se conocen las distancias existentes entre cada dos individuos se
observa cuáles son los individuos más próximos en cuanto a esta distancia o
similaridad (qué dos individuos tienen menor distancia o mayor similaridad). Estos
dos individuos forman un grupo que no vuelve a separarse durante el proceso. Se
repite el proceso, volviendo a medir la distancia o similaridad entre todos los
individuos de nuevo (tomando el grupo ya formado como sí de un solo individuo se
tratara) de la siguiente forma:
https://campusformacion.net/nuevocampus/impresioncurso.php 178/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 179/204
29/11/21 16:53 Campus Virtual
Una desventaja de este método es que la distancia entre dos conglomerados puede
disminuir a medida que progresa el análisis, ya que los conglomerados unidos en los
últimos pasos son más diferentes entre sí que los que se unen en las primeras
https://campusformacion.net/nuevocampus/impresioncurso.php 180/204
29/11/21 16:53 Campus Virtual
etapas.
En primer lugar, se elige la variable con mayor asociación con las demás. Usando
esta variable, se divide el conglomerado en dos, uno en que ésta toma el valor 0, y
otro en que toma el valor 1. Se repite en proceso en los dos conglomerados
resultantes. El proceso se detiene cuando todos los conglomerados tienen un solo
objeto o bien tienen objetos idénticos.
https://campusformacion.net/nuevocampus/impresioncurso.php 181/204
29/11/21 16:53 Campus Virtual
Muchos autores consideran que los métodos no jerárquicos son los que mejor se adaptan
a los estudios sociológicos y de mercados caracterizados por el empleo de grandes
conjuntos de datos.
Estos métodos calculan en cada etapa las distancias entre los casos y el centroide de los
conglomerados, a diferencia de los métodos jerárquicos que calculan las distancias entre
todos los pares de objetos.
Las diferencias fundamentales entre los clusters jerárquicos y no jerárquicos son (Tabla
II):
JERÁRQUICO NO JERÁRQUICO
https://campusformacion.net/nuevocampus/impresioncurso.php 182/204
29/11/21 16:53 Campus Virtual
3. Calcula los nuevos centroides de los conglomerados cada vez que se incorpora un
nuevo caso.
https://campusformacion.net/nuevocampus/impresioncurso.php 183/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 184/204
29/11/21 16:53 Campus Virtual
Tema 13 - Escalonamiento
En la actualidad, el EMD puede ser apto para gran cantidad de tipos diferentes de datos
de entrada (tablas de contingencia, matrices de proximidad, datos de perfil,
correlaciones, etc.).
Y puede ayudar a determinar por ejemplo, ƒ qué dimensiones utilizan los encuestados a
la hora de evaluar a los objetos; cuántas dimensiones utilizan; la importancia relativa de
cada dimensión; cómo se relacionan perceptualmente los objetos.
Las medidas de semejanza, como una aplicación de valores numéricos que permiten
expresar numéricamente el vínculo existente entre estímulos, son aquí fundamentales.
Los conceptos de similaridad, disimilaridad y distancia, como medidas de semejanza,
https://campusformacion.net/nuevocampus/impresioncurso.php 185/204
29/11/21 16:53 Campus Virtual
El punto de partida es una matriz de disimilaridades entre n objetos, con el elemento δij
en la fila i y en la columna j, que representa la disimilaridad del objeto i al objeto j.
También se fija el número de dimensiones, m, para hacer el gráfico de los objetos en una
solución particular. Generalmente el camino que se sigue es:
2. Calcular las distancias euclidianas entre los objetos de esa configuración, esto es,
calcular las dij, que son las distancias entre el objeto i y el objeto j.
3. Hacer una regresión de dij, sobre δij. Esta regresión puede ser lineal, polinomial o
monótona. Por ejemplo, si se considera lineal se tiene el modelo: dij = a + b δij. . Y
utilizando el método de los mínimos cuadrados se obtienen estimaciones de los
coeficientes a y b, y de ahí puede obtenerse lo que genéricamente se conoce como
una “disparidad”.
5. Las coordenadas (x1, x2, ..., xm) de cada objeto se cambian ligeramente de tal
manera que la medida de ajuste se reduzca.
Los pasos del 2 al 5 se repiten hasta que al parecer la medida de ajuste entre las
disparidades y las distancias de configuración no puedan seguir reduciéndose. El
resultado final del análisis es entonces las coordenadas de los n objetos en las m
dimensiones. Estas coordenadas pueden usarse para elaborar un gráfico que muestre
cómo están relacionados los objetos. Lo ideal sería encontrar una buena solución en
menos de tres dimensiones, pero esto no es siempre posible.
https://campusformacion.net/nuevocampus/impresioncurso.php 186/204
29/11/21 16:53 Campus Virtual
De modo general, podemos decir que el EMD toma como entrada una matriz de
proximidades Δ∈Μnxn, donde n es el número de estímulos. Cada elemento δij de Δ
representa la proximidad entre el estímulo i y el estímulo j (Figura 1; Fuente: Google)
A partir de esta matriz de proximidades nos proporciona como salida una matriz
X∈Μnxm, donde n, al igual que antes, es el número de estímulos, y m es el número de
dimensiones. Cada valor xij representa la coordenada del estímulo i en la dimensión j
(Figura 2; Fuente: Google).
A partir de esta matriz X se puede calcular la distancia existente entre dos estímulos
cualesquiera i y j, simplemente aplicando la fórmula general de la distancia dij = a + b δij.
A partir de estas distancias podemos obtener una matriz de distancias que denominamos
D∈Mnxn (Figura 3; Fuente: Google)
https://campusformacion.net/nuevocampus/impresioncurso.php 187/204
29/11/21 16:53 Campus Virtual
La solución proporcionada por el EMD debe ser de tal modo que haya la máxima
correspondencia entre la matriz de proximidades inicial Δ y la matriz de distancias
obtenidas D. Para que exista la máxima correspondencia EMD proporciona varias
medidas, que veremos más adelante, y que nos informan sobre la bondad del modelo.
Existen dos modelos básicos de EMD que son: el modelo de escalamiento métrico y el
modelo de escalamiento no métrico. En el primero de ellos consideramos que los datos
están medidos en escala de razón o en escala de intervalo y en el segundo consideramos
que los datos están medidos en escala ordinal. No se ha desarrollado todavía ningún
modelo para datos en escala nominal.
Los dos primeros axiomas son fáciles de cumplir, pero el tercer axioma no se cumple
siempre. Este problema se conoce con el nombre de “estimación de la constante
aditiva”. Torgerson solucionó este problema, estimando el valor mínimo de c que
verifica la desigualdad triangular de la siguiente forma:
https://campusformacion.net/nuevocampus/impresioncurso.php 188/204
29/11/21 16:53 Campus Virtual
Una vez llegados a este punto, lo único que queda es transformar la matriz B∈Mnxn
en una matriz X∈Μnxm tal que B=X·X’, siendo X la matriz que nos da las
coordenadas de cada uno de los n estímulos en cada una de las m dimensiones.
Cualquier método de factorización permite transformar B en X·X’.
https://campusformacion.net/nuevocampus/impresioncurso.php 189/204
29/11/21 16:53 Campus Virtual
Tanto para el modelo métrico como para el modelo no métrico es necesario obtener
un coeficiente que nos informe sobre la bondad del modelo. Sabemos que las
distancias son una función de las proximidades, es decir:
f: δij(x) →dij(x)
De esta forma se tiene que dij=f(δij). Esto no deja ningún margen de error, sin
embargo, en las proximidades empíricas es difícil que se dé la igualdad, con lo que
generalmente ocurre que dij ≈ f(δij).
Como medida que nos informa de la bondad del modelo podemos utilizar el Stress
que Kruskal definió como (Figura 6; Fuente:Google):
https://campusformacion.net/nuevocampus/impresioncurso.php 190/204
29/11/21 16:53 Campus Virtual
Mientras mayor sea la diferencia entre las disparidades y las distancias, es decir,
entre f(δij) y dij, mayor será el Stress y por tanto peor será el modelo. Por tanto, el
Stress no es propiamente una medida de la bondad del ajuste, sino una medida de la
no bondad o “maldad” del ajuste. Su valor mínimo es 0, mientras que su límite
superior para n estímulos es la raiz cuadrada de 1−(2/ n) .
0.2 → Pobre
0.1 → Aceptable
0.05 → Bueno
0.025 → Aceptable
0.0 → Excelente
También se suele utilizar una variante del Stress que se denomina S-Stress, definida
como (Figura 7; Fuente:Google):
https://campusformacion.net/nuevocampus/impresioncurso.php 191/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 192/204
29/11/21 16:53 Campus Virtual
Bibliografía
BIBLIOGRAFÍA
BLOQUE 1
UNIDAD FORMATIVA 1
UNIDAD FORMATIVA 2
https://campusformacion.net/nuevocampus/impresioncurso.php 193/204
29/11/21 16:53 Campus Virtual
UNIDAD FORMATIVA 3
UNIDAD FORMATIVA 4
BLOQUE 2
UNIDAD FORMATIVA 5
https://campusformacion.net/nuevocampus/impresioncurso.php 194/204
29/11/21 16:53 Campus Virtual
UNIDAD FORMATIVA 6
UNIDAD FORMATIVA 7
https://campusformacion.net/nuevocampus/impresioncurso.php 195/204
29/11/21 16:53 Campus Virtual
UNIDAD FORMATIVA 8
BLOQUE 3
UNIDAD FORMATIVA 9
UNIDAD FORMATIVA 10
https://campusformacion.net/nuevocampus/impresioncurso.php 196/204
29/11/21 16:53 Campus Virtual
UNIDAD FORMATIVA 11
UNIDAD FORMATIVA 12
UNIDAD FORMATIVA 13
https://campusformacion.net/nuevocampus/impresioncurso.php 197/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 198/204
29/11/21 16:53 Campus Virtual
Ejercicios
EJERCICIOS
EJERCICIO 1
Enviar al tutor
El plazo de realización y envío al equipo docente de los ejercicios y casos prácticos deberá realizarlo al menos 5
días antes de la fecha de fin de convocatoria del curso.
Le recordamos que estos ejercicios y casos prácticos son voluntarios y no repercutirán en la evaluación de la
acción formativa.
EJERCICIO 2
https://campusformacion.net/nuevocampus/impresioncurso.php 199/204
29/11/21 16:53 Campus Virtual
Enviar al tutor
El plazo de realización y envío al equipo docente de los ejercicios y casos prácticos deberá realizarlo al menos 5
días antes de la fecha de fin de convocatoria del curso.
Le recordamos que estos ejercicios y casos prácticos son voluntarios y no repercutirán en la evaluación de la
acción formativa.
EJERCICIO 3
https://campusformacion.net/nuevocampus/impresioncurso.php 200/204
29/11/21 16:53 Campus Virtual
Enviar al tutor
El plazo de realización y envío al equipo docente de los ejercicios y casos prácticos deberá realizarlo al menos 5
días antes de la fecha de fin de convocatoria del curso.
Le recordamos que estos ejercicios y casos prácticos son voluntarios y no repercutirán en la evaluación de la
acción formativa.
https://campusformacion.net/nuevocampus/impresioncurso.php 201/204
29/11/21 16:53 Campus Virtual
EJERCICIO 4
https://campusformacion.net/nuevocampus/impresioncurso.php 202/204
29/11/21 16:53 Campus Virtual
Enviar al tutor
El plazo de realización y envío al equipo docente de los ejercicios y casos prácticos deberá realizarlo al menos 5
días antes de la fecha de fin de convocatoria del curso.
Le recordamos que estos ejercicios y casos prácticos son voluntarios y no repercutirán en la evaluación de la
acción formativa.
https://campusformacion.net/nuevocampus/impresioncurso.php 203/204
29/11/21 16:53 Campus Virtual
https://campusformacion.net/nuevocampus/impresioncurso.php 204/204