Está en la página 1de 87

CURSO SPSS INTERMEDIO

LECCIÓN 1
PRUEBAS DE HIPÓTESIS
INTRODUCCIÓN
ESTADISTICA DESCRIPTIVA
• Comprende los métodos para recolectar, describir, analizar y
representar un grupo de datos utilizando métodos numéricos y
gráficos que resumen y presentan la información contenida en ellos.
ESTADISTICA INFERENCIAL
Comprende los métodos y procedimientos para deducir propiedades
(hacer inferencias) de una población a partir de una pequeña parte de
la misma (muestra). Estas deducciones son de tipo inductivo, se basan
en la probabilidad.
• Para q la estadística inferencial proporcione buenos resultados debe
cumplir dos condiciones.

- Basarse en una técnica estadístico-matemática adecuada al


problema y suficientemente validada.
- Utilizar una muestra q realmente sea representativa de la población
y de un tamaño suficiente.
• Podemos clasificar la estadística en descriptiva, cuando los resultados
del análisis no pretenden ir más allá del conjunto de datos, e
inferencial cuando el objetivo del estudio es derivar las conclusiones
obtenidas a un conjunto de datos más amplio.

• La estadística inferencial se concentra en la estimación de parámetros


y contrastación de hipótesis (estadísticas)
Población
• Es la totalidad de elementos a los q se quiere investigar.

• A cada elemento se le llama unidad estadística

• Al total de elementos de la población se le representa por N


Muestra
• Es toda parte representativa de la población, cuyas características
deben ser lo mas exactamente posible iguales a los de la población.

• Para q sea representativa se debe seleccionar empleando el


muestreo, tópico importante de la estadística. con la finalidad de q
los resultados de esta nuestra sean válidos para la población.
Parámetro
• Son los valores que caracterizan una población.

• Son cantidades indeterminadas constantes o fijas respecto a una


condición o situación q caracteriza a un fenómeno en un momento
dado que ocurre en una población.

• Se suele representar un parámetro mediante letras griegas, media


poblacional se representa por μ y la varianza poblacional se
representa por σ2.
PRUEBAS DE HIPOTESIS
• Las pruebas de hipótesis, denominadas también pruebas de
significación, tienen como objeto principal evaluar suposiciones o
afirmaciones acerca de los parámetros.
• Se recurre a las pruebas de hipótesis cuando se tiene la necesidad de
tomar una decisión sobre la validez de la representación de una
población con base en los resultados obtenidos a través de una
muestra.
HIPOTESIS ESTADÍSTICA
• Son las suposiciones acerca de los parámetros.
• La suposición puede ser cierta o falsa, estas suposiciones se llaman
hipótesis estadísticas.
OBJETIVO ESTADÍSTICOS
• Comparar.
• Asociar.
• Concordar.
OBJETIVO ESTADÍSTICO COMPARAR
• Es el objetivo estadístico más básico del análisis bivariado, el modelo
comparativo cuenta en la mayoría de casos con la participación de
una variable fija y otra aleatoria.
• Su finalidad es identificar las diferencias entre los grupos
participantes, se puede comparar dos o mas grupos los cuales se
construyen en la etapa de la planificación del estadio
COMPARAR UNA MUESTRA

Prueba T para una muestra


Prueba Binomial o Prueba de
14 la Mediana
G1
60% Prueba Chi2 para una muestra
(Estadístico Chi2 de Pearson)
Prueba Binomial
COMPARAR UNA MUESTRA
A B

15
14
60% 65%
COMPARAR DOS MUESTRAS PAREADAS

Prueba T para dos muestras


pareadas (relacionadas,
emparejadas).
11 14 Prueba de Wilcoxon
G1
50% 65%
Prueba Chi2 de Mc Nemar.
COMPARAR DOS MUESTRAS INDEPENDIENTES
Prueba T para dos muestras
independientes.
12 Prueba U de Man Whitney
G1
60%
Prueba Chi2 de homogeneidad,
14 o Chi2 para proporciones.
G2
75%
COMPARAR DOS MUESTRAS INDEPENDIENTES

A B

12 14
60% 75%
COMPARAR K MUESTRAS INDEPENDIENTES

11 Prueba ANOVA.
G1
50% Prueba de Kruskall Wallis

14
G2
65%
Prueba Chi2 de homogeneidad,
13 o Chi2 para proporciones.
G3
60%
COMPARAR VARIAS MUESTRAS INDEPENDIENTES

A B C

14 13
11 65% 60%
50%
COMPARAR K MUESTRAS INDEPENDIENTES
G1 G2 G3
H0

H1
14
G1
60%

11 14
G1
50% 65%
OBJETIVO 12
G1
ESTADISTICO 60%
14
G2
COMPARAR 75%

11
G1
50%
14
G2
65%
13
G3
60%
Objetivo
Variables Escala/Cuantitativas Variables Categóricas
Estadístico
Comparar una muestra con un valor Comparar una muestra con una
Prueba T para una muestra proporción
Prueba Binomial, Mediana (Chi2 para una muestra)
Comparar 2 muestras independientes
Prueba T p Muestras Independientes
Prueba U de Man Whitney Comparar muestras
Comparar Prueba Chi2 para proporciones
Comparar 3 o más grupos Chi2 de Homogeneidad
Análisis de Varianza
Prueba H de Kruskall Wallis
Comparamos 2 muestras pareadas
Comparar Antes y Después
Prueba T para Muestras Relacionadas
Chi2 de McNemar
Prueba de Wilcoxon
LECCIÓN 3
PRUEBAS PARAMÉTRICAS
PRUEBAS DE NORMALIDAD

KOLMOGOROV SMIRNOV SHAPIRO WILK


Muestras Grandes (N >30) Muestras Pequeñas (N <=30)
P.-valor: Error al afirmar que la distribución difiere de una normal
P-valor > 0.05 -> Si hay normalidad.
La distribución NO difiere de una dist. Normal
P-valor < 0.05 -> No hay normalidad.
La distribución SI difiere de una dist. Normal
PRUEBA T y ANOVA
Regla de decisión
H0: No hay diferencias significativas
H1: Si hay diferencias significativas
P-valor: Error al rechazar H0
P-valor > α -> Se acepta H0.
La media de la muestra NO difiere del valor a comparar
P-valor < α -> Se rechaza H0, se acepta H1
La media de la muestra SI difiere del valor a comparar
α: nivel de significancia ( 0.05, 0.01)
PRUEBA DE HOMOGENEIDAD DE VARIANZAS
P-valor: Error al afirmar que las varianzas difieren
significativamente.
P-valor > 0.05 -> Varianzas no difieren significativamente.
Varianzas homogéneas (Homocedasticidad)
P-valor < 0.05 -> Varianzas si difieren significativamente
Varianzas NO homogéneas (Heterocedasticidad)
PRUEBAS PARAMÉTRICAS
Son pruebas que se basan en que se supone una forma determinada de
la distribución de valores, la distribución normal.
Son más potentes que las no paramétricas, se basan en la distribución
de probabilidad normal, y al estimar los parámetros del modelo se
supone que los datos constituyen una muestra aleatoria de esa
distribución, por lo que la elección del estimador y el cálculo de la
precisión de la estimación, elementos básicos para construir intervalos
de confianza y contrastar hipótesis, dependen del modelo
probabilístico supuesto.
DISTRIBUCIÓN T DE STUDENT
x−
T= tiene distribución t( n−1) Se acepta la hipótesis nula si el estadístico
S/ n de la prueba cae dentro de esta región.

Se rechaza la
Se rechaza la hipótesis nula
hipótesis nula

Area A = área B
y (A+B) = el
nivel deseado
de significancia

Area A Area B

Valor Valor teórico + Valor


critico de la diferencia critico
PRUEBA T PARA UNA MUESTRA
Prueba t para una muestra
La prueba t para una muestra se ocupa de contrastar si la media de una
población difiere de forma significativa de un valor dado conocido o
hipotetizado. Así, la prueba calcula estadísticos descriptivos para las
variables de contraste junto con la prueba t (1).
PRUEBA T PARA DOS MUESTRAS
INDEPENDIENTES
Esta prueba se utiliza cuando la comparación sea entre las medias de
dos poblaciones independientes. Esto es, los individuos de una de las
poblaciones son distintos a los individuos de la otra. Un ejemplo de
esto es una comparación de peso, estatura entre hombres y mujeres.
PRUEBA T PARA DOS MUESTRAS
RELACIONADAS
Esta prueba es otra de las alternativas para contrastar dos medias. Esta
se refiere principalmente al supuesto caso en el que las dos
poblaciones no sean independientes. En este caso, se trata de
poblaciones que se relacionan entre sí. Esta situación ocurre, por
ejemplo, cuando un grupo de individuos es observado antes y después
de una determinada intervención.
PRUEBA ANOVA PARA MÁS DE DOS MUESTRAS
INDEPENDIENTES
En el caso de tener que comparar más de dos muestras, habremos de
recurrir al análisis de varianza o ANOVA. Es una prueba estadística
desarrollada para realizar simultáneamente la comparación de las
medias de más de dos poblaciones.
LECCIÓN 4
PRUEBAS NO PARAMÉTRICAS
PRUEBAS NO PARAMÉTRICAS
Son las pruebas estadísticas que se utilizarán cuando no sean aplicables las
pruebas paramétricas, debido a q no se cumplen los supuestos, es decir
existe ausencia de asunciones acerca de la ley de probabilidad que sigue la
población de la que ha sido extraida la muestra, se les llama también
pruebas de distribución libre.
En esta lección se tratarán las pruebas para variables cuantitativas cuando no
se cumpla el supuesto de normalidad.
Tienen menos poder estadístico (menor probabilidad de rechazar la hipótesis
nula cuando realmente es falsa) ya que ignoran valores extremos.
PRUEBA BINOMIAL O PRUEBA DE LA MEDIANA

Es la prueba estadística alternativa a la prueba T para una muestra.


El procedimiento Prueba binomial compara las frecuencias observadas
de las dos categorías de una variable dicotómica, (se dicotomiza la
variable cuantitativa) con las frecuencias esperadas en una
distribución binomial con un parámetro de probabilidad especificado.
De forma predeterminada, el parámetro de probabilidad para ambos
grupos es 0,5; es decir la mitad (se está contrastando la mediana).
PRUEBA DE WILCOXON

Es la prueba alternativa a la prueba T para muestras emparejadas.


A modo general, el Wilcoxon signed-rank test compara si las
diferencias entre pares de datos siguen una distribución simétrica
entorno a un valor. Si dos muestras proceden de la misma población, es
de esperar que las diferencias entre cada par de observaciones se
distribuyan de forma simétrica entorno al cero.
Las variables deben como mínimo de escala ordinal, se utiliza con
muestras emparejadas, no es necesario que haya normalidad.
PRUEBA U DE MAN WHITNEY

Es la prueba alternativa a la prueba T para muestras independientes.


También conocido como Wilcoxon rank-sum test o u-test, es un test no paramétrico
que contrasta si dos muestras proceden de poblaciones equidistribuidas.
La idea en la que se fundamenta este test es la siguiente: si las dos muestras
comparadas proceden de la misma población, al juntar todas las observaciones y
ordenarlas de menor a mayor, cabría esperar que las observaciones de una y otra
muestra estuviesen intercaladas aleatoriamente.
Las variables deben como mínimo de escala ordinal, se utiliza con muestras NO
emparejadas, no es necesario que haya normalidad.
PRUEBA DE KRUSKALL WALLIS

Es la prueba alternativa a la prueba de ANOVA de una vía.


Se trata de una extensión del test de Mann-Whitney para más de dos grupos. Es por lo
tanto de un test que emplea rangos para contrastar la hipótesis de que k muestras han sido
obtenidas de una misma población.
A diferencia del ANOVA en el que se comparan medias, el test de Kruskal-Wallis contrasta si
las diferentes muestras están equidistribuidas y que por lo tanto pertenecen a una misma
distribución (población). Bajo ciertas simplificaciones puede considerarse que el test de
Kruskal-Wallis compara las medianas.
Las variables deben como mínimo de escala ordinal, se utiliza con muestras NO
emparejadas, no es necesario que haya normalidad.
LECCIÓN 5
PRUEBAS NO PARAMÉTRICAS CON DATOS
CATEGÓRICOS
COMPARAR UNA MUESTRA

Prueba T para una muestra


Prueba Binomial o Prueba de
14 la Mediana
G1
60% Prueba Chi2 para una muestra
COMPARAR DOS MUESTRAS PAREADAS

Prueba T para dos muestras


pareadas (relacionadas,
emparejadas).
11 14 Prueba de Wilcoxon
G1
50% 65%
Prueba Chi2 de Mc Nemar.
COMPARAR DOS MUESTRAS INDEPENDIENTES
Prueba T para dos muestras
independientes.
12 Prueba U de Man Whitney
G1
60%
Prueba Chi2 de homogeneidad,
14 o Chi2 para proporciones.
G2
75%
COMPARAR K MUESTRAS INDEPENDIENTES
Prueba ANOVA.
11 Prueba de Kruskall Wallis
G1
50%
14
G2
65%
Prueba Chi2 de homogeneidad,
13 o Chi2 para proporciones.
G3
60%
COMPARAR K MUESTRAS INDEPENDIENTES
G1 G2 G3
H0

H1
14
G1
60%

11 14
G1
50% 65%
OBJETIVO 12
G1
ESTADISTICO 60%
14
G2
COMPARAR 75%

11
G1
50%
14
G2
65%
13
G3
60%
Objetivo
Variables Numéricas Variables Categóricas
Estadístico
Comparar una muestra con un valor Comparar una muestra con una
Prueba T para una muestra proporción
Prueba Binomial, Mediana (Chi2 para una muestra)
Comparar 2 muestras independientes
Prueba T p Muestras Independientes
Prueba U de Man Whitney Comparar muestras
Comparar Prueba Chi2 para proporciones
Comparar 3 o más grupos Chi2 de Homogeneidad
Análisis de Varianza
Prueba H de Kruskall Wallis
Comparamos 2 muestras pareadas
Comparar Antes y Después
Prueba T para Muestras Relacionadas
Chi2 de McNemar
Prueba de Wilcoxon
OBJETIVO ESTADÍSTICO CONCORDAR
Medir la concordancia entre dos observaciones es un objetivo
estadístico, para ello debe cumplirse como requisito fundamental que
se trata de un solo grupo y los resultados de la observación tienen las
mismas opciones.
Existen dos casos frecuentes: Cuando las observaciones corresponde a
diferentes observadores y cuando las observaciones corresponden a
diferentes instrumentos. En este caso el estadístico, es también un
índice de concordancia.
La prueba de hipótesis se realiza con el estadístico: Índice Kappa de
Cohen.
Índice Kappa de Cohen

Índice Kappa de Índice Kappa Sentido de


Grado de Concordancia
Cohen de Cohen Correlación
1 Perfecta + Directa
0.8 – 1 Muy Fuerte – Inversa
0.6 – 0.8 Fuerte
0.4 – 0.6 Moderada
0.2 – 0.4 Débil
0 – 0.2 Muy Débil
0 Nula
LECCIÓN 6
RELACIÓN ENTRE VARIABLES CATEGÓRICAS
Asociación entre variables

• La existencia de algún tipo de asociación entre dos o más variables


representa la presencia de algún tipo de tendencia o patrón de
emparejamiento entre los distintos valores de esas variables.

• El análisis estadístico de la asociación (relación, correlación,


covarianza) entre variables representa una parte básica del análisis de
datos en cuanto que muchas de las preguntas e hipótesis que se
plantean en los estudios que se llevan a cabo en la práctica implican
analizar la existencia de asociación entre variables.
CORRELACIÓN

ASOCIACIÓN
RELACIÓN

• Asociación: Es la presencia de algún tipo de tendencia o patrón de emparejamiento


entre los distintos valores de dos o más variables.
• Correlación: Es una instancia especifica de la asociación, cuando las variables son
como mínimo de escala ordinal (ordinal, intervalo, razón), la correlación se da en
una dirección (sentido) ya sea directa o inversa.
• Relación: Es la asociación entre variables categóricas (nominales u ordinales)
Pasos para determinar si hay asociación entre
variables categóricas

1. Elaborar tabla cruzada


2. Realizar prueba de independencia Chi2.
Medidas de impacto, de riesgo o de magnitud
de la asociación.
RR
Probabilidad de que ocurra el “evento” en un grupo respecto
al otro grupo
OR (Razón de Momios)
Razón entre la probabilidad de que un suceso ocurra y la
probabilidad de que no ocurra
Pruebas para relacionar variables categóricas.
Prueba Chi2
N > 150

Prueba Chi2 Con corrección por continuidad de Yates


N <150 ó Recuento esperado < 10

Prueba exacta Fisher


Recuento esperado < 5
RR: riesgo relativo

No expuestos Expuestos Total

Enfermos A B A+B

Sanos C D C+D

Total A+C B+D A+B+C+D

RR = Ie / Io = (B/B+D) / (A/A+C)
OR: odds ratio

No expuestos Expuestos Total

Enfermos A B A+B

Sanos C D C+D

Total A+C B+D A+B+C+D

OR = (B/D) / (A/C)
El tipo de medida a utilizar depende del diseño del
estudio:
RR
- Estudios de Cohortes, prospectivos

OR (Razón de Momios)
- Estudios casos y controles
Significación estadística
El RR y la OR siempre deben ir acompañados de su
correspondiente IC95%

Si el IC95% incluye el valor 1, se debe aceptar la hipótesis nula,


es decir, no existen diferencias estadísticamente signifativas
Interpretación
RR
El riesgo de … los tratados (expuestos) se reduce al X% del
riesgo de los no tratados (no expuestos).
OR
LECCIÓN 7
CONFIABILIDAD DE INSTRUMENTOS
Constructo

• Un constructo es una característica subjetiva, una etiqueta para un


conjunto de comportamientos. En las ciencias del comportamiento
tenemos los siguientes ejemplos de constructos: la conciencia, la
inteligencia, el poder político, la autoestima, la cultura de grupo, etc.

• También le podemos llamar variable.


Instrumento de Medición

• Es una herramienta que intenta representar un constructo por medio de un


puntaje numérico derivado de la aplicación de un conjunto de reactivos o
estímulos a los sujetos de interés.
• En su forma más usual está compuesto por una serie de ítems o preguntas,
cada uno de los cuales es calificado o respondido por el individuo de
acuerdo a una cierta escala de medición.
• El puntaje total del instrumento se genera sumando las puntuaciones
individuales para cada item y ese puntaje es el indicador del constructo en
cada uno de los sujetos estudiados.
Validez de un instrumento

• La validez se refiere al grado en que un instrumento mide el constructo que


pretende medir. Indica la relación con la utilidad o funcionalidad que
cumple un instrumento. ¿En qué grado sirve para esta o esta otra
aplicación?

• Por esto para lograr un instrumento con alta validez, es indispensable el


manejo de los referentes teóricos y su correcta operacionalización

• Se pueden buscar evidencias empíricas mediante la consulta a jueces


expertos y también usando el análisis de factores.
Confiabilidad de un instrumento

• La confiabilidad se refiere al grado de estabilidad que al medir


presenta un determinado instrumento, si aplicamos repetidamente
un instrumento al mismo sujeto u objeto en iguales condiciones y en
tiempo próximos debe producir iguales resultados. Confiabilidad
significa precisión, consistencia en la medición

• El enfoque más común es medir la consistencia interna del


instrumento.
Consistencia Interna

• La consistencia interna es una medida de confiabilidad que mide el grado


de correlación entre los ítems del instrumento e indica si los ítems son o no
homogéneos.
• Nos sirve para comprobar si el instrumento que se está evaluando recopila
información defectuosa y por tanto nos llevaría a conclusiones equivocadas
o si se trata de un instrumento fiable que hace mediciones estables y
consistentes.
• Los indicadores más utilizados para medir la consistencia interna son el
coeficiente Alfa de Cronbach y el coeficiente KR-20 de Richarsson
Coeficiente Alfa de Cronbach

• Se trata de un índice de consistencia interna que toma valores entre 0


y 1, es un coeficiente de correlación al cuadrado que, a grandes
rasgos, mide la homogeneidad de las preguntas promediando todas
las correlaciones entre todos los ítems para ver que, efectivamente,
se parecen.

• Su interpretación será que, cuanto más se acerque el índice al


extremo 1, mejor es la fiabilidad
Coeficiente Alfa de Cronbach
• K: El número de ítems

K   Si 
2 • Si2: Sumatoria de Varianzas de los Items
• ST2: Varianza de la suma de los Items
 =  1− 2  • α: Coeficiente de Alfa de Cronbach
K −1  S 
 T -1 a 0:
0,01 a 0,49:
No es confiable
Baja confiabilidad
0,50 a 0,75: Moderada confiabilidad
0,76 a 0,89: Fuerte confiabilidad
0,9 a 1: Alta confiabilidad

Valores aceptables de Alfa:


Para propósitos de investigación  a 0.7
Para propósitos de toma de decisiones  a 0.9
Coeficiente KR-20 de Kuder-Richarsson

• Si los ítems de una prueba son de respuesta dicotómica (sí / no), el


índice de consistencia interna que debe calcularse es el coeficiente
KR-20.

• Su interpretación será igual que el coeficiente Alfa de Cronbach,


cuanto más se acerque el índice al extremo 1, mejor es la fiabilidad
Coeficiente KR-20 de Kuder-Richarsson
𝑘 σ 𝑝𝑞
𝑟𝑘𝑟20 = 1− 2
𝑘−1 𝜎 -1 a 0: No es confiable
0,01 a 0,49: Baja confiabilidad
• K: El número de ítems. 0,50 a 0,75: Moderada confiabilidad
• p: Porcentaje de personas q responden
correctamente cada item. 0,76 a 0,89: Fuerte confiabilidad
• q: Porcentaje de personas q responden 0,9 a 1: Alta confiabilidad
incorrectamente cada item.
• α2: Varianza total del instrumento

Valores aceptables de KR20:


Para propósitos de investigación  a 0.7
Para propósitos de toma de decisiones  a 0.9
LECCIÓN 8
CORRELACIONES PARCIALES Y REGRESIÓN MULTIPLE
Correlación parcial y regresión múltiple

x1
x2 Y 
x3
xK
Correlación Simple

• Correlación simple, bivariada o de orden cero.


• Es la asociación (con dirección) entre dos variables X y Y
X: Variable independiente, predictora, explicativa

Y: Variable dependiente, respuesta, predicha, explicada

Coeficiente de Correlación: yx r
Valores de -1 a 1
Existe dirección o sentido, directa o inversa
Correlación Múltiple

• Correlación múltiple.
• Es cuando intervienen varias variables independientes o predictoras, y solo
una variable dependiente o explicada o predicha.
X1, X2, X3, …, Xn : Variables independientes, predictoras, explicativas
Y: Variable dependiente, respuesta, predicha, explicada

Coeficiente de Correlación: Ry12..n


Valores de 0 a 1
NO Existe dirección o sentido
Coef. Determinación

• Coef. Determinación: Indica la magnitud en que la variable


independiente explica el comportamiento de la variable dependiente
• Se obtiene elevando al cuadrado el Coef. de Correlación
Coeficientes de determinación, representación
gráfica
Y a: Varianza de Y NO explicada ni
por X1 ni por X2
b: Varianza de Y explicada solo
a por X1
c: Varianza de Y explicada solo
bc d por X1 y X2 juntas (traslape de
las tres variables)
d: Varianza de Y explicada solo
por X2
X1 X2
Coeficiente de determinación simple o de
orden cero
𝑏+𝑐
Y 2
𝑟𝑦𝑥1 =
𝑎+𝑏+𝑐+𝑑
a Indica el efecto de X1 sobre Y
bc d 𝑐+𝑑
2
𝑟𝑦𝑥2 =
𝑎+𝑏+𝑐+𝑑
X1 X2 Indica el efecto de X2 sobre Y
Coeficiente de determinación parcial
𝑏
Y 2
𝑟𝑦1.2 =
𝑎+𝑏
Indica el efecto de X1 sobre Y
a eliminando el efecto de X2
bc d 𝑑
2
𝑟𝑦2.1 =
𝑎+𝑑
Indica el efecto de X2 sobre Y
X1 X2 eliminando el efecto de X1
Coeficiente de determinación semiparcial
𝑏
Y 2
𝑟𝑦(1.2) =
𝑎+𝑏+𝑐+𝑑
Indica el efecto de X1 (eliminado el efecto de

a x2 sobre x1) sobre Y, sin importar cuanta


varianza comparta Y con X2
bc d 2
𝑟𝑦(2.1) =
𝑑
𝑎+𝑏+𝑐+𝑑
Indica el efecto de X2 (eliminando el efecto de
X1 sobre X2) sobre Y sin importar cuanta
X1 X2 varianza comparta Y con X1
Correlación Múltiple

• Correlación múltiple.
• Es cuando intervienen varias variables independientes o predictoras, y solo
una variable dependiente o explicada o predicha.
X1, X2, X3, …, Xn : Variables independientes, predictoras, explicativas
Y: Variable dependiente, respuesta, predicha, explicada

Coeficiente de Correlación: Ry12..n


Valores de 0 a 1
NO Existe dirección o sentido
Coeficiente de determinación múltiple,
representación gráfica
Y Coeficiente de Determinación
R2y12
a Representa la proporción de
b d varianza de la variable
c dependiente Y explicada por las
variables independientes X1, X2

X1 X2
Coeficiente de determinación múltiple

Y 𝑏+𝑐+𝑑
2
𝑟𝑦12 =
a 𝑎+𝑏+𝑐+𝑑
Indica el efecto de ambas variables
bc d X1y X2 sobre Y

X1 X2
Orden cero Parcial Semi-parcial
Coeficiente de 𝑟𝑦𝑥1 𝑟𝑦1.2 𝑟𝑦(1.2)
correlación
2 2 2
Coeficiente de 𝑟𝑦𝑥1 𝑟𝑦1.2 𝑟𝑦(1.2)
determinación
Incluye varianza Elimina la Varianza única
Efecto X1 de Y que varianza de Y independientement
sobre Y comparten X1 y explicada por e de la q compartan
X2 X2 X2 y Y
Modelo de regresión lineal múltiple

𝑌 = 𝑏0 + 𝑏1 𝑥1 + 𝑏2 𝑥2 + ⋯ + 𝑏𝑘 𝑥𝑘 + 𝜀
LECCIÓN 9
MODELOS DE REGRESIÓN LOGISTICA
Regresión Logística binaria

• La regresión logística resulta útil para los casos en los que se desea
predecir la presencia o ausencia de una característica o resultado
según los valores de un conjunto de variables predictoras.
• Es similar a un modelo de regresión lineal pero está adaptado para
modelos en los que la variable dependiente es dicotómica.
• Los coeficientes de regresión logística pueden utilizarse para estimar
la razón de las ventajas (odds ratio) de cada variable independiente
del modelo.
• La regresión logística se puede aplicar a un rango más amplio de
situaciones de investigación que el análisis discriminante.

También podría gustarte