Está en la página 1de 85

PROCESAMIENTO DE DATOS,

INFORME Y APLICACIÓN

Cap. 6
Una vez concluidas las etapas de colección y procesamiento de datos se inicia con
una de las más importantes fases de una investigación: el análisis de datos. En
esta etapa se determina como analizar los datos y que herramientas de análisis
estadístico son adecuadas para éste propósito.

El tipo de análisis de los datos depende al menos de los siguientes factores:


a) El nivel de medición de las variables.
b) El tipo de hipótesis formulada.
c) El diseño de investigación utilizado indica el tipo de análisis requerido para la
comprobación de hipótesis.

El análisis de datos es el precedente para la actividad de interpretación.


La interpretación se realiza en términos de los resultados de la investigación. Esta
actividad consiste en establecer inferencias sobre las relaciones entre las
variables estudiadas para extraer conclusiones y recomendaciones (Kerlinger,
1982).
La interpretación se realiza en dos etapas:
a) Interpretación de las relaciones entre las variables y los datos que las sustentan con
fundamento en algún nivel de significancia estadística.
b) Establecer un significado más amplio de la investigación, es decir, determinar el
grado de generalización de los resultados de la investigación.
Las dos anteriores etapas se sustentan en el grado de validez y confiabilidad de la
investigación. Ello implica la capacidad de generalización de los resultados obtenidos.
“Analizar significa establecer categorías, ordenar, manipular y resumir los datos,”
(Kerlinger, 1982, p. 96). En esta etapa del proceso de investigación se procede a
racionalizar los datos colectados a fin de explicar e interpretar las posibles relaciones
que expresan las variables estudiadas.
El diseño de tablas estadísticas permite aplicar técnicas de análisis complejas
facilitando este proceso. El análisis debe expresarse de manera clara y simple utilizando
lógica tanto inductiva como deductiva.
Los resultados de una investigación basados en datos muestrales requieren de una
aproximación al verdadero valor de la población (Zorrilla, 1994). Para lograr lo anterior se
requiere de una serie de técnicas estadísticas. Estas técnicas se derivan tanto de la
estadística paramétrica como de la estadística no paramétrica.

La primera tiene como supuestos que la población estudiada posee una distribución
normal y que los datos obtenidos se midieron en una escala de intervalo y de razón. La
segunda no establece supuestos acerca de la distribución de la población sin embargo
requiere que las variables estudiadas se midan a nivel nominal u ordinal (ver Weiers,
1993).
Las tablas diseñadas para el análisis de datos se incluyen en el reporte final y pueden ser
útiles para analizar una o más variables. En virtud de éste último criterio el análisis de
datos puede ser univariado, bivariado o trivariado dependiendo de la cantidad de
variables que se analizan.
A
A

Tipos
Confiabilidad
La confiabilidad de un instrumento de medición
se refiere al grado en que su aplicación
repetida al mismo individuo u objeto produce
resultados iguales (Hernández- Sampieri et al.,
2013; Kellstedt y Whitten, 2013; y Ward y
Street, 2009).
Validez
La validez, en términos generales, se refiere al
grado en que un instrumento mide
realmente la variable que pretende medir.
Para medir el
espesor de una hoja
Factores que pueden afectar la confiabilidad y la validez

Hay diversos factores que llegan a afectar la confiabilidad y la validez de los instrumentos de
recolección de los datos e introducen errores en la medición.
A continuación se mencionarán los más comunes.
La improvisación. Algunas personas creen que elegir un instrumento de medición o
desarrollarlo es algo que puede tomarse a la ligera. Incluso, ciertos profesores piden a los
alumnos que construyan instrumentos de medición de un día para otro o, lo que es igual, de
una semana a otra, lo cual habla del poco o nulo conocimiento del proceso de elaboración de
instrumentos de recolección de los datos. Esta improvisación genera casi siempre
instrumentos poco válidos o confiables.
Aun a los investigadores experimentados les toma tiempo desarrollar un instrumento de
medición.
Además, para construirlo se requiere conocer muy bien la variable que se pretende medir, así
como la teoría y la práctica que la sustentan.
Cuando las mediciones se refieren a seres humanos hay otros factores:
a) Utilizar instrumentos desarrollados en el extranjero que no han sido validados en
nuestro contexto: cultura y tiempo.
Traducir un instrumento, aun cuando adaptemos los términos a nuestro lenguaje
y los contextualicemos, no es ni remotamente una validación. Constituye un primer y
necesario paso, aunque sólo es el principio. En el caso de traducciones, es importante
verificar que los términos centrales tengan referentes con el mismo significado —o
alguno muy parecido— en la cultura en la que se va a utilizar dicho instrumento (vincular
términos entre la cultura de origen y la cultura destinataria). A veces se traduce, se
obtiene una versión y ésta, a su vez, se vuelve a traducir al idioma original (traducción
inversa).
Por otra parte, existen instrumentos que fueron validados en nuestro contexto, pero
hace mucho tiempo. Hay instrumentos en los que hasta el lenguaje “nos suena
anticuado”. Las culturas, los grupos y las personas cambian; y esto debemos tomarlo en
cuenta al elegir o desarrollar un instrumento de medición.
b) Usar instrumentos inadecuados para las personas a quienes se les aplica: no son
empáticos.
Utilizar un lenguaje muy elevado para los sujetos respondientes, no tomar en cuenta
diferencias de género, edad, conocimientos, memoria, nivel ocupacional y educativo,
motivación para contestar, capacidades de conceptualización y otras diferencias en los
participantes, son errores que llegan a afectar la validez y la confiabilidad. Este error ocurre a
menudo cuando los instrumentos deben administrarse a niños. Asimismo, hay grupos de la
población que requieren instrumentos apropiados para ellos, tal es el caso de las personas
con capacidades distintas. En la actualidad se han desarrollado diversas pruebas que las
toman en cuenta (por ejemplo, pruebas en sistema Braille para individuos con capacidades
visuales distintas o pruebas orales para personas que no pueden escribir). Otro ejemplo son
los indígenas o inmigrantes de otras culturas, pues en ocasiones se les aplican instrumentos
en un idioma o contexto que no es el suyo. Quien realiza una investigación debe adaptarse
siempre a los participantes y no al revés, ya que es necesario brindarles todo tipo de
facilidades.
c) Cuestiones vinculadas con los estilos personales de los participantes (Bostwick y Kyte,
2005) como: deseabilidad social (tratar de dar una impresión muy favorable a través de las
respuestas), tendencia a asentir con respecto a todo lo que se pregunta, dar respuestas
inusuales o contestar siempre negativamente.

d) Condiciones en las que se aplica el instrumento de medición. El ruido, la inadecuada


iluminación, el frío (por ejemplo, en una encuesta de casa en casa), un instrumento
demasiado largo o tedioso, una encuesta telefónica después de que algunas compañías han
utilizado el mercadeo telefónico en exceso y a destiempo (promocionar servicios a las 7 a.m.
de un domingo o después de las 11 p.m. entre semana) son cuestiones que llegan a afectar
negativamente la validez y la confiabilidad, al igual que si el tiempo que se brinda para
responder al instrumento es inapropiado. Por lo común en los experimentos se cuenta con
instrumentos de medición más largos y complejos que en los diseños no experimentales. Por
ejemplo, en una encuesta pública sería muy difícil aplicar una prueba larga o compleja.
Otro factor que se encuentra en todo tipo de instrumentos en cualquier campo de
conocimiento es la falta de estandarización: que las instrucciones no sean las mismas para
todos los participantes, que el orden de las preguntas sea distinto para algunos individuos,
que los instrumentos de observación no resulten equivalentes, que el procedimiento para
administrar la medición no sea exactamente el mismo para todos los casos (por ejemplo, al
medir la presión arterial, que a unos pacientes se les tome después de un tiempo de
relajación y a otros, no; o bien, que al pesar ciertas piezas no se utilice la misma báscula).
Este elemento también se vincula con la objetividad.
Aspectos mecánicos como que si el instrumento es escrito, que no sean legibles las
instrucciones, falten páginas, no haya espacio adecuado para contestar o no se comprendan
las instrucciones, también influyen de manera desfavorable. Lo mismo pasaría con un
aparato mal calibrado.
Con respecto a la validez de constructo dos factores pueden afectarla significativamente:
a) La estrechez del contenido, es decir, que se excluyan dimensiones importantes de la
variable o las variables medidas.
b) La amplitud exagerada, donde el riesgo es que el instrumento contenga excesiva
intrusión de otros constructos similares.
Procedimiento se sigue para construir un instrumento de medición
REVISAR capítulo 6 I
Objetividad

En un instrumento de medición, la
objetividad se refiere al grado en que
éste es o no permeable a la influencia de
los sesgos y tendencias del investigador
o investigadores que lo administran,
califican e interpretan (Mertens, 2010).

En este sentido, los aparatos y sistemas calibrados (por ejemplo, una pistola láser para
medir la velocidad de un automóvil) son más objetivos que otros sistemas
que requieren cierta interpretación (como un detector de mentiras) y éstos, a su vez,
más objetivos que las pruebas estandarizadas, las cuales son menos subjetivas que las
pruebas proyectivas.
La objetividad se refuerza mediante la estandarización en la aplicación del instrumento
(mismas instrucciones y condiciones para todos los participantes) y en la evaluación de los
resultados; así como al emplear personal capacitado y experimentado en el instrumento.

Por ejemplo, si se utilizan observadores,su proceder en todos los casos debe ser lo más
similar posible y su entrenamiento tendrá que ser profundo y adecuado.

Los estudios cuantitativos buscan que la influencia de las características y las tendencias del
investigador se reduzca al mínimo posible, lo que insistimos es un ideal, pues la
investigación siempre es realizada por seres humanos.

La validez, la confiabilidad y la objetividad no deben


tratarse de forma separada. Sin alguna de las tres, el
instrumento no es útil para llevar a cabo un estudio.
PRUEBAS DE DIFERENCIAS ESTADISTICAS

Evaluación de diferencias y cambios

Este tipo de pruebas, permiten determinar con más precisión las respuestas reales, no es
posible responder con total certidumbre.

Significado estadístico

El motivo básico de las inferencias estadísticas es generalizar los resultados obtenidos de


una muestra como característicos de una población.

Una premisa fundamental de la diferencia estadística es que es posible que las cifras
difieran en sentido matemático aunque no sean muy significativamente distintas en sentido
estadístico
Las diferencias detectadas se evalúan mediante 3 conceptos:
a) Diferencias matemáticas: Cuando las cifras no son iguales, es decir son distintas. Sin
embargo esto no sugiere que la diferencia sea importante o que tenga significado estadístico

b) Significado estadístico: Si determinada diferencia es suficientemente grande y es poco


probable que se deba al azar o a un error de muestreo, se dice que tiene significado
estadístico.

Pruebas de hipótesis

HIPOTESIS: Una suposición que el investigador realiza sobre alguna característica de


la población que investiga.
Ej.: Al comparar los datos de una encuesta realizada hace un tiempo atrás, se notan
diferencias, lo que produce interrogantes sobre las acciones a tomar.

Para realizar pruebas de hipótesis el investigador determina si la evidencia indica que la


hipótesis sobre alguna característica de la población es probable

Las pruebas estadísticas de la hipótesis ,permiten calcular la probabilidad de observar


determinado resultado en caso de que la hipótesis formulada sea verdadera
Existen dos causas para que el valor hipotético y el resultado obtenido en la investigación
difieran, esta son:
a) La hipótesis es verdadera y la diferencia observada quizá se deba a un error de
muestreo
b) La hipótesis puede ser falsa y el valor verdadero es otro

Pasos para probar las hipótesis:

1. Especificar la hipótesis
2. Se elige una técnica estadística para probarla
3. Se especifica una regla de decisión como base para determinar si se va a rechazar
o no la hipótesis nula (Ho)
4. Se calcula el valor de la prueba estadística y se realiza dicha prueba
5. Se llega a la conclusión sobre el problema o pregunta original de la investigación
1) Formulación de la hipótesis
Se plantean 2 maneras fundamentales
Hipótesis nula (Ho), también llamada hipótesis de statu quo, es la que prueba contra su
complemento (Ha)
Hipótesis alterna (Ha), también llamada hipótesis de investigación o de interés

Es conveniente que las hipótesis Ho y Ha deben formularse de manera tal que no puedan
ser verdaderas al mismo tiempo.
Se trata de emplear la evidencia disponible para comprobar cual tiene mas probabilidad de
ser cierta
2) Elección de la prueba estadística adecuada
El analista elegiré la prueba estadística adecuada teniendo en cuenta las características
del caso que va a investigar
3) Desarrollo de una regla de decisión

De acuerdo a lo mencionado anteriormente, sobre las distribuciones de las medias, la


media del muestreo es muy poco probable que sea igual a la media de la población.

Para determinar si se va a rechazar o no la hipótesis nula, se requiere una regla de decision


o estandar. Los estadistas formulan las reglas de decisión de este tipo en terminos o niveles
de significado (α).
El nivel de significado es fundamental en el proceso de elegir entre la Ho y la Ha

El nivel de significado es la probabilidad que se considera demasiado baja (0,05- 0,10 o


0,1) para justificar la aceptacion de la hipoteis nula.
Ej.. Si se toma un α= 0,05, Esto significa que se rechazará si la prueba indica que la
probabilidad de que ocurra el resultado observado (es decir, la diferencia entre la media
de la muestra y el valor esperado) por probabilidad o por error de muestreo es inferior al
5%.
El rechazar la hipótesis nula, equivale a apoyar hipótesis alterna
4) Calculo del valor de la prueba estadística

En este paso:
- Se usa la formula adecuada para calcular el valor de la prueba estadística elegida
- Se compara el valor calculado (previamente) con el valor critico de la prueba estadística
(tomado de la tabla adecuada) con base a la regla de decisión elegida

- A partir de la comparación, se formula el resultado en términos de rechazo o no de la


hipotesis nula

5) Formulacion de la conclusion

La conclusion se enuncia en modo que resuma los resultados de la prueba.

Se plantea desde el angulo del problema original que se investiga.


Otros aspectos de las pruebas de hipotesis
Las pruebas de hipotesis estan expuestas a dos tipos de errores:
Error tipo I: Se da en los casos cuando el investigador rechaza la Ho cuando es verdadera

El investigador puede cometer este error porque las diferencias que observa entre los
valores de la muestra y de la poblacion se debe a un error de muestreo.
El Nivel alfa (α): es la probabilidad de cometer un error Tipo I.
1- α= Es la probabilidad de efectuar una decision correcta de no rechazar la Ho cuando es
verdadera
Error tipo II: Se da este caso cuando el investigador no rechaza la Ho cuando es falsa
A este error se llama Error Beta (β)

1- β = Refleja la probabilidad de decidir correctamente el rechazo de la Ho


Α +β ≠ 1: Los errores no son complementarios; el valor de β es muy difícil de calcular
El valor de α que se elija debe estar en función de la importancia relativa de los dos tipos de
errores

El valor β nunca se define de antemano, si este aumenta para minimizar el error tipo II, α
disminuye y viceversa para disminuir el error tipo I
Aceptar Ho o no poder rechazar Ho?
La diferencia entre ambas decisiones es importante, al probar la hipótesis se supone que
Ho es verdadera, hasta que se demuestra la posibilidad de que sea falsa.

Pruebas para hipótesis

Las distribuciones que se emplean para comparar los valores calculados son:
-Distribución chi cuadrada (X2)
-Distribución Z
-Distribución t
-Distribución F
Muestras independientes y relacionadas

Muestras Independientes: Muestras en las cuales la medición de una variable incierta


población no ejerce efecto sobre la medición de esa variable en otra población

Muestras relacionadas: Muestras en las cuales la medición de una variable en la


población puede influir en la medición de la variable en otra población

En algunos casos es necesario probar la hipótesis de que el valor de alguna variable de la


población es igual al valor de la misma variable de otra población

Para elegir una prueba estadística adecuada el investigador debe considerar si las
muestras son independientes o están relacionadas
Grados de libertad

Los grados de libertad son el numero de observaciones no


restringidas o con libertad de variar en un problema estadístico

Muchas de las pruebas estadísticas requieren que el investigador


especifique los grados de libertad para encontrar el valor critico
de la prueba estadística en tabulaciones de la misma

El numero de grados de libertad (gl) es igual a las observaciones


menos las suposiciones o restricciones necesarias para calcular el
valor estadistico, en otras palabras (n-1)
Calidad de ajuste

Chi Cuadrada

Permite que el analista determine si el patrón de frecuencia observado corresponde


o se ajusta al patrón esperado.

Así comprueba la calidad del ajuste de la distribución observada en relación con


la distribución esperada.

Esta técnica se aplica a distribuciones de prueba de datos categóricos con


tabulación cruzada para una muestra única o para dos muestras independientes
a) Prueba de la Chi cuadrada para una muestra única

Esta prueba solo indica que la variación general entre las frecuencias de las celdas es mayor
de lo que podría esperarse de manera causal y no indica si una celda difiere en forma
significativa de las otras

Pasos:
1º Realizar una conjetura Donde:
2º Plantear las hipótesis Ho y Ha Oi= numero observado en la i-ésima
3º Calcular el valor de X2 categoría
4º Obtener el valor critico E i= Numero esperado en la i-ésima
5º Realizar una comparación entre el X2 categoría
calculado y el valor critico K= numero de categorías
Esta prueba solo indica que la variación general entre las frecuencias de las distintas celdas y
no indica si una celda difiere en forma significativa de otras
b) Prueba de la Chi cuadrada para dos muestras independientes
A fin de formular una estrategia de mercadotecnia, los investigadores de mercado a
menudo necesitan determinar si dos o mas variables están asociadas.
Pasos:
1. Formular las Ho y la Ha 𝑟 𝑘
(𝑂 − 𝐸 ) 2
2.Determinar los totales marginales. 2 = ෍෍ 𝑖𝑗 𝑖𝑗
3, Determinar las frecuencias esperadas 𝑋
𝐸𝑖𝑗
𝑖=1 𝑗=1
4.Calcular las diferencias entre los valores observados con
respecto a los teóricos de cada casilla.
5.Calcular los grados de libertad (gl): gl = (K columnas -1) [r O ij= numero observado en la
hileras -1]. iesima fila de la jesima
6. El valor de X2 se compara con los valores críticos de ji columna
cuadrada de la tabla de valores críticos de X2 y de acuerdo E ij= numero esperado en la
con los grados de libertad, y se determina la probabilidad. iesima fila de la jesima
6.Decidir si se acepta o rechaza la hipótesis Ho. columna
No debe aplicarse esta prueba cuando:
El valor de X2 se distorsiona si más del 20% de las celdas tiene una frecuencia esperada inferior
al 5% o si cualquier celda ofrece un frecuencia esperada inferior a 1.
Prueba de Kolmogorob-Smirnov (Prueba K-S)

Proporciona datos similares a los de la chi cuadrada para determinar la calidad del ajuste.

Estudia el grado de concordancia entre la distribución de los valores observados y alguna


distribución teórica o esperada, esta es idónea para datos ordinales.
En esta prueba se especifica la distribución acumulativa de frecuencias que seria esperar
según la hipótesis Ho (distribución teórica) y se compara con la distribución de frecuencias
observadas.
Es preciso determinar el punto en que ambas distribuciones presentan una desviación
máxima y utilizar el valor de esa deviación como prueba estadística

La magnitud del valor estadístico de la prueba (D) indica si la divergencia entre las
distribuciones probablemente se debió a la causalidad o señala que existe una verdadera
preferencia
Pasos:

1º Planteamiento de las hipótesis Ho y Ha

2º Si se establece la distribución acumulativa de frecuencia esperada según la Ho

3º se calcula la distribución acumulativa de frecuencia observada en la muestra

4º se elige el nivel de significado α


1,36
𝐷=
El valor crítico a un nivel de 0,05 sería: 𝑛

D= a la mayor desviación en términos absolutos entre las proporciones de frecuencias


acumulativas observadas y las proporciones de frecuencias acumulativas esperadas
5º Se determina el valor específico D de K-S
Hipótesis en torno a una media

Prueba Z

Con mucha frecuencia en los estudios de IM es necesario efectuar inferencias sobre


la media de la población

Esta permite probar una hipótesis entorno a una media única.

Esta prueba se aplica cuando la muestra es grande (n≥30)

En ocasiones se emplea la tabla de la prueba «t» porque t=Z para muestras


mayores de 30
Pasos:

1º Se especifican la Ho y Ha

2º Se establece el nivel de error del muestreo (α) 𝑆


𝑆𝑋ത =
permitido 𝑛

3º Desviación estándar
𝑆𝑋ത = Error estándar
4º Se calcula el error estándar estimado de la media estimado de la media
(𝑆𝑋ത )

5º Se calcula el valor estadístico de prueba

𝑚𝑒𝑑𝑖𝑎 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 − (𝑀𝑒𝑑𝑖𝑎 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛 𝑒𝑠𝑝𝑒𝑐𝑖𝑓𝑖𝑐𝑎𝑑𝑎 𝑠𝑒𝑔ú𝑛 𝐻𝑜)


S=
𝐸𝑟𝑟𝑜𝑟 𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎
Prueba «t»
Esta se aplica a muestras n < 30, se debe usar la prueba t con n-1 grados de libertad

En teoría la distribución t también se puede usar para n≥30 pues se aproxima a la


distribución normal. Algunos paquetes computacionales la utilizan para cualquier
tamaño de muestra
Pasos: Donde:
σ𝑛𝑖=1(𝑋𝑖 − 𝑋)2
1º Plantear la Ho y la Ha 𝑆= 𝑋𝑖= Observadas
2º Se establece el α permitido 𝑛−1 X= Promedio
3º Se determina la desviación estándar de la n=Cantidad
muestra (S) 𝑆
4º Se calcula el error estándar de la media (𝑆𝑥ҧ ) 𝑆𝑥ҧ =
𝑛
5º Se calcula el valor estadístico de la prueba t
𝑚𝑒𝑑𝑖𝑎 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 − (𝑚𝑒𝑑𝑖𝑎 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛 𝑠𝑒𝑔𝑢𝑛 𝑙𝑎 𝐻𝑜)
𝑡=
𝐸𝑟𝑟𝑜𝑟 𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎
Hipótesis en torno a dos medias
Los especialistas en mercadotecnia con frecuencia desean probar las diferencias entre
grupos σ 𝑥𝑎 𝑓𝑎
𝑋𝑎 =
Pasos: 𝑛𝑎
1º Se establece la Ho y la Ha σ 𝑥𝑏 𝑓𝑏
𝑋𝑏 =
2º Se fija α (t=z para muestras mayores a 30) 𝑛𝑏
3º Se calcula el error estándar estimado
𝑆𝑎 2 𝑆𝑏 2
4º Se calcula el valor estadístico Z 𝑆𝑥 𝑎−𝑏 = +
𝑛𝑎 𝑛𝑏
Donde:
Sa= Desviación estándar estimada de la población a
Sb= Desviación estándar estimada de la población b
na = Tamaño de la muestra a
Nb =tamaño de la muestra b
𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 𝑚𝑒𝑑𝑖𝑎𝑠 𝑑𝑒 𝑙𝑎 1º 𝑦 2º 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠 − (𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 𝑒𝑛𝑡𝑟𝑒 𝑚𝑒𝑑𝑖𝑎𝑠 𝑠𝑒𝑔ú𝑛 𝐻𝑜)
𝑍=
𝐸𝑟𝑟𝑜𝑟 𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟 𝑑𝑒 𝑙𝑎𝑠 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎𝑠 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 2 𝑚𝑒𝑑𝑖𝑎𝑠
Esta ecuación de aplica cuando las 2 muestras tienen varianzas desiguales
Hipótesis sobre proporciones
Con frecuencia los investigadores estudian fenómenos que se expresan como porcentajes

Pruebas de una proporción con una muestra

Procedimiento:
𝑝(1 − 𝑝)
1º Se establece la Ho y la Ha 𝑆𝑝 =
2º Se establece α 𝑛−1
3º Se calcula el error estándar estimado
empleando el valor P especificado en Ho
4º Se calcula la prueba estadística

𝑃𝑟𝑜𝑝𝑜𝑟𝑐𝑖𝑜𝑛 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑎 − 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖ó𝑛 𝑠𝑒𝑔𝑢𝑛 𝑙𝑎 𝐻𝑜


𝑍=
𝐸𝑟𝑟𝑜𝑟 𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 (𝑆𝑝)
Pruebas de diferencias entre dos proporciones con muestras independientes

En muchos casos la gerencia se interesa en la diferencia entre las proporciones de


personas de dos grupos distintos que participan en determinada actividad o tienen ciertas
características
1 1
𝑆𝑝 𝑎−𝑏 = 𝑃(1 − 𝑃)( + )
Procedimiento 𝑛𝑎 𝑛𝑏
1º Se enuncian las hipótesis Ho y Ha 𝑛𝑏 𝑃𝑏 + 𝑛𝑎 𝑃𝑎
2º Se fija α 𝑃=
𝑛𝑏 + 𝑛𝑎
3ºSe calcula el error estándar
4º Se calcula el valor estadístico de prueba Donde:
𝑃𝑏 = Proporción de la muestra b
𝑃𝑎 = Proporción de la muestra a
𝑛𝑏 =Tamaño de la muestra b
𝑛𝑎 = 𝑇𝑎𝑚𝑎ñ𝑜 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑎
𝐷𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖𝑜𝑛𝑒𝑠 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑎𝑠 − 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖𝑜𝑛𝑒𝑠 𝑠𝑒𝑔𝑢𝑛 𝐻𝑜
𝑍=
𝐸𝑟𝑟𝑜𝑟 𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑝𝑎𝑟𝑎 𝑙𝑎𝑠 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎𝑠 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 𝑑𝑜𝑠 𝑚𝑒𝑑𝑖𝑎𝑠
Análisis de la varianza (ANOVA)

Prueba para determinar las diferencias entre las medias de 2 o más variables independientes

Se utilizan con mayor frecuencia para pruebas de hipótesis sobre las diferencias entre las
medias (C) de varios grupos independientes
Esta permite al Investigador determinar la variabilidad entre o a través de las medias de la
muestra «C» es mayor de lo esperado debido al error de muestreo.

La Z y t se utilizan para probar la Ho cuando solo hay 2 medias de muestreo

Si son más muestras se deben hacer de 2 en 2 pero estas aumentan la probabilidad de


diferencias significativas

El ANOVA de un solo sentido se utiliza para analizar resultados experimentales


Pasos:
1º Se formulan Ho y Ha
2º Se realiza la suma de cuadrados entre grupos SSA o variación grupal

SSA= σ𝑐𝑗=1 𝑛𝑗 (𝑋ത𝑗 − 𝑋ത𝑡 )2 Donde: n= Tamaño de muestra


𝑋ത𝑡 = X Total
3º Se calcula la variación entre las medias de grupo, medida por la suma media de
cuadrados entre grupos MSA

𝑆𝑢𝑚𝑎 𝑑𝑒 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜𝑠 𝑒𝑛𝑡𝑟𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 (𝑆𝑆𝐴)


MSA=
𝐺𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑

Grados de libertad= Número de grupos (C) – 1

4º Se calcula la suma del error al cuadrado (SSE)

𝑛𝑗
SSE= σ𝑐𝑗=1 σ𝑖=1(𝑋𝑖𝑗 − 𝑋𝐽 )2
5º Se calcula el error medio al cuadrado (MSE)

𝑆𝑆𝐸
MSE =
𝐺𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑

Si las diferencias entre las medias de las muestras son mayores, la SSA se incrementa

Grados de libertad= suma de todos los grupos – número de grupos

6º Prueba F: Estudio de la probabilidad de que cierto valor calculado pueda deberse al azar

𝑀𝑆𝐴
F=
𝑀𝑆𝐸
La distribución de la F al igual que las distribuciones de la t , es un conjunto de distribuciones
cuya forma varia ligeramente según el numero y tamaño de las muestras que participen

Para aplicar la prueba F se deben calcular los grados de libertad del numerador (grados de
libertad del MSA )y denominador (grados de libertad del MSE)
ANÁLISIS BIVARIADO
Son técnicas estadísticas para analizar la relación entre 2 variables

Mediante estas se puede ver el grado de asociación entre 2 variables

Las variables se clasifican en:

Variables independientes o de factor de predicción: Símbolo o concepto sobre el cual el


investigador tiene cierto control (o que puede manipular en cierto grado) y que en teoría
causa la variable dependiente o influye en ella

Variable dependiente o el criterio: Símbolo o concepto que una variable independiente


puede explicar o causar
Afectada
Variable Dependiente Variable Independiente

Ventas Precio
Participación en el mercado Gastos de publicidad
de una marca Cantidad de tiendas
detallistas

Las técnicas solo permiten describir la naturaleza de las relaciones estadísticas entre
variables
Tipos de procedimientos

Existen varios tipos de procedimientos , tales como:

a) Regresión bivariada

b) Correlación Momento- producto de Pearson (para datos métricos)


Correlación rango-orden de Sperman (para datos ordinales)

Entre otras, están:


- La prueba t para 2 grupos
- Chi Cuadrada de tabulaciones cruzadas o tablas de contingencias
- ANOVA para 2 grupos
Regresión bivariada

Esta sirve para estudiar la relación entre 2 variables cuando una se considera como
variable dependiente y la otra como variable independiente

Naturaleza de la relación

Para estudiar la naturaleza de la relación entre la VD y la VI, se construye un diagrama de


dispersión en el cual:
X= VI: Vertical
Y= VD: Horizontal

Al examinar el diagrama de dispersión se puede ver la relación entre las 2 variables, en el


caso que exista, es lineal o curva
Procedimiento para estimar el mínimo cuadrado
Es una técnica matemática bastante sencilla que permite construir con los datos de X y Y la
línea que represente mejor la relación entre las 2 variables.
Ninguna línea recta representa a la perfección todas las observaciones del diagrama de
dispersión.
Cualquier línea recta adaptada a los datos del diagrama de dispersión tendrá cierto
grado de error
La ecuación general es: 𝑌 = 𝑎 + 𝑏𝑋

La ecuación que se emplea en análisis de regresión es:


Donde:
Y= V.D. 𝑎ො = Intercepción estimada de la línea de regresión
𝑌 = 𝑎ො + 𝑏෠ 𝑋 + 𝑒 con el eje Y
X= V.I
෠ Dependiente estimada de la línea de regresión
𝑏=
coeficiente de regresión
E= error
Los valores de 𝑎ො 𝑦 𝑏෠ Se calculan: Donde:
σ 𝑋𝑖 𝑌𝑖 −𝑛 𝑋ത 𝑌ത ത
𝑋=Valor medio de X

𝑏 =σ 2 ത
𝑥𝑖 −𝑛(𝑋)2 𝑌=Valor medio de Y
n= Tamaño de la muestra (Número de
unidades de la muestra)
𝑎ො = 𝑌ത − 𝑏෠ 𝑋ത

Línea de regresión
Donde:

𝑌=Valor de la función de regresión

E= (Y-𝑌) estimada para un valor dado de X

Es el valor estimado de la VD (Y) cuando el valor de la VI (X) es cero


Fuerza de asociación R2
Nos interesa también la fuerza de la relación entre variables
¿Cuánto difieren los valores reales de Y con respecto a los valores predichos por nuestro
modelo?
R 2 (coeficiente de determinación), es la medida del porcentaje de variación entre la VD
explicado por variaciones en las VI

R2 abarca de 0 a 1

Cuando hay una relación lineal perfecta entre X y Y toda la variación de Y se explica por
la variación de X y R2 =1
Cuando no hay relación entre X y Y , ninguna variación de X explica la variación de Y y R2 =0

𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑑𝑎
𝑅2 =
𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑜𝑡𝑎𝑙
Varianza explicada= varianza total- varianza no explicada

𝑛 ෠𝑖 2
σ 𝑖=1 𝑌𝑖 − 𝑌
𝑅2 = 1 + 𝑛
σ𝑖−1(𝑌𝑖− 𝑌)2

Significado estadístico de los resultados de la regresión

La variación total mide la variación de los valores Y observados en torno a la Y media;


esta mide la variación sin tomar en cuenta los valores de X

SST : Variación total o suma total de cuadrados

σ𝑛
𝑖=1 𝑌𝑖
2
SST= σ𝑛𝑖=1 𝑌𝑖 − 𝑌ത 2 = σ𝑛𝑖=1 𝑌𝑖 2 −( )
𝑛
SSR : La variación explicada o suma de cuadrados debida a la regresión es:

SSR= σ𝑛𝑖=1 𝑌෢ ത
𝑖−𝑌
2

2
σ𝑛
𝑖=1 𝑌𝑖
SSR= 𝑎 σ𝑛𝑖=1 𝑌𝑖 + 𝑏 σ𝑛𝑖=1 𝑋𝑖 𝑌𝑖 −
𝑛
SSE : Error de suma al cuadrado
2
SSE= σ𝑛𝑖=1 𝑌𝑖 − 𝑌෡𝑖

SSE= σ𝑛𝑖=1 𝑌𝑖 2 − σ𝑛𝑖=1 𝑌𝑖 − 𝑏 σ𝑛𝑖=1 𝑋𝑖 𝑌𝑖

La variación no explicada mide la dispersión en torno a la línea de regresión


Si el ajuste fuese perfecto, no habría dispersión alrededor de la línea de regresión y SSE
valdría CERO
𝑆𝑆𝑅
𝐷𝑒𝑏𝑖𝑑𝑜 𝑎 𝑙𝑎 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑑𝑜 : 𝐶𝑜𝑛 1 𝑔𝑟𝑎𝑑𝑜 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 ∶ 𝑀𝑆𝑅 =
1
𝑆𝑆𝐸
𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙 𝑛𝑜 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑑𝑜 𝐶𝑜𝑛 𝑛 − 2 𝑔𝑟𝑎𝑑𝑜 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 ∶ 𝑀𝑆𝐸 =
𝑛−2
𝑇𝑜𝑡𝑎𝑙 𝑛 − 1 𝑔𝑟𝑎𝑑𝑜 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 ∶ 𝑆𝑆𝑇
𝑀𝑆𝑅
𝑉𝑎𝑙𝑜𝑟 𝑒𝑠𝑡𝑎𝑑𝑖𝑠𝑡𝑖𝑐𝑜 𝐹 =
𝑀𝑆𝐸
a) Hipótesis con respecto a la regresión total

Se procede a un análisis de cualquiera de los estudiados en la primera parte

Se puede utilizar la ANOVA

Ho: No hay relación lineal entre X y Y


Ha: Hay una relación lineal entre X y Y
b) Hipótesis sobre el coeficiente de regresión b

Ho: b=0
Ha: b≠ 0
En este caso se puede utilizar la prueba t
Análisis correlacional

Correlación de datos métricos: Correlación producto- momento de Pearson

Es el estudio del grado de asociación de los cambios de una variable VD con los de otra VI

La correlación de producto-momento de Pearson en la técnica de análisis de correlación


que se emplea con datos métricos
El coeficiente de correlación R, mide el grado de asociación entre X y Y

R= ± 𝑅 Donde R= Coeficiente de
determinación
El valor de R puede ser desde -1 (correlación negativa perfecta) hasta 1 (correlación
positiva perfecta)

A medida que R se acerca a ± 1 el grado de asociación entre X y Y es más fuerte

Si R=0 no hay asociación entre X y Y

𝑛 σ 𝑋𝑌− σ 𝑋 σ 𝑌
R=
𝑛 σ 𝑋2− σ 𝑋 2 𝑛 σ 𝑌2− σ 𝑌 2
ANÁLISIS MULTIVARIADO

Los avances se software y hardware, son la base para este tipo de procedimientos

El término de análisis multivariado se emplea para referirse a un grupo de procedimientos


estadísticos que permiten analizar de manera simultanea datos múltiples de cada
individuo u objeto que se estudia

Se puede considerar, en base a algunos expertos, que cualquier análisis


estadístico simultaneo de más de 2 variables constituye un análisis multivariado
Los procedimientos multivariados son extensiones de procedimientos
estadísticos univariados y bivariados

Es necesario para diversos procedimientos multivariados la utilización se


software como el SPSS, Minitab, Statistica entre otros.
Análisis de regresión múltiple

Es el procedimiento para predecir el nivel o magnitud de una variable dependiente según


los niveles de más de una variable independiente

Esta técnica es adecuada cuando el investigador desea examinar la relación entre 2 o


más variables métricas para la predicción de una variable independiente y una variable
métrica dependiente (criterio)

En vez de adoptar una línea recta a observaciones en espacio bidimensional (regresión


bivariada) dicho análisis adopta un plano a las observaciones realizadas en el espacio
multidimensional.

Los resultados e interpretación de los mismos son iguales que en la regresión bivariada
La ecuación general es: Donde:
Y= Variable dependiente o de criterio
A= Constante estimada
𝑏1−𝑛 =Coeficientes asociados con las
Y= a+𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑏3 𝑋3 … … . 𝑏𝑛 𝑋𝑛 variables para predicción 𝑋1−𝑛 = Variables
para predicción (independientes que
influyen el la variable dependiente

Ej.: Donde:
𝑌෠ = Ventas estimadas en unidades
𝑌෠ = 200 +17𝑋1 + 22𝑋2 𝑋1 = Gastos publicitarios
𝑋2 = Cantidad de vendedores
Posibles aplicaciones de la regresión múltiple

- Estimar los efectos de diversas variables, de la mezcla de mercado en las ventas o en la


participación de mercado

- Estimar la relación entre diversos factores demográfico, psicográficos y la frecuencia de


las visitas a los restaurantes de comida rápida o a otros negocios de servicios
- Determinar la influencia relativa de los elementos de satisfacción individual sobre la
satisfacción general
- Cuantificar la relación entre diversas variables de clasificación como edad e ingresos, y
la actitud general hacia un producto o servicio
- Determinar las variables que permiten predecir las ventas de determinado producto o
servicio
Medidas del análisis de regresión múltiple
1) Coeficiente de determinación (R2): Es la medida del porcentaje de variación en la variable
dependiente, explicado por variaciones en las variables independientes.
Su valor esta entre 0 y 1
Es preferible que el valor de R2 para el análisis sea cercano a 1
Con frecuencia se agregan variables a un modelo de regresión para observar su efecto sobre
el valor de R2
2) Coeficientes de regresión (b): Indican el efecto de cada VI sobre la VD
Resulta adecuado establecer la posibilidad de que cada valor individual de b sea el resultado
de la casualidad
Como el calculo ya lo hacen los paquetes, estos calculan la probabilidad de rechazar en
forma errónea la Ho; bn=0
Variables artificiales:

En algunas situaciones el analista necesita incluir variables independientes con escala


nominal ej: sexo, estado civil, etc.
Para esto se crea variables artificiales o Dummy
Las variables dicotómicas de la escala nominal, se transforman en variables artificiales
mediante la codificación de un valor (Ej,: Varones 0 y mujeres 1)
Problemas potenciales en el uso e interpretación del análisis de regresión múltiple

1) Colinearidad: Es la correlación entre VI. Puede producir prejuicios en las estimaciones de


los coeficientes de regresión.

- Para averiguar si existe correlación entre variables, se analiza la matriz y si hay 0,30 o
mayor existe correlación
- Para analizar si esta distorsiona a b, se hace correr el sistema con una sola variable y
luego con todas y se compara b que debe ser similar en todas las corridas

Para evitar la colinearidad, se pueden utilizar las siguientes estrategias:


a) Las 2 variables que tienen una fuerte correlación mutua, se excluye a una de ellas del
análisis
b) Las variables correlacionadas se combinan de algún modo para formar una nueva
variable independiente
2) Causalidad: Aunque el análisis de regresión demuestre que las variables están asociadas o
correlacionadas, no permite comprobar la causalidad, que es la inferencia de que la
modificación en una variable da lugar u ocasiona un cambio que se observa en otra variable.
Es preciso desarrollar una base teórica o lógica solida para apoyar el concepto de que existe una
relación causal entre las VI y la VD Experimentación
3) Escalas de coeficientes: La magnitud de los coeficientes de regresión asociados a las VI,
puede compararse de manera directa solo si estos se encuentran con las mismas unidades o
si los datos se han estandarizado
Esta estandarización se lleva a cabo con la siguiente ecuación:

Donde:
𝑋𝑖 = Número individual de una serie de
𝑋𝑖 − 𝑋ത
números
𝜎 ത Media de la serie
𝑋=
𝜎= Desviación estándar de la media
4) Tamaño de la muestra: El valor de R2 depende de la cantidad de
variables para predicción en relación con el tamaño de la muestra.
Se sugiere que la cantidad de observaciones debe ser por lo
menos a 10 a 15 veces el valor de las variables de predicción. (ej.:
Y, esta en función de la publicidad y vendedores (2 variables para
predicción), se requiere de mínimo 20 a 30 observaciones.
Análisis discriminatorio

Es el procedimiento para predecir la membresía a un grupo con base en 2 o más VI


Es similar al de regresión múltiple con algunas diferencias como ser:
La VD en la regresión múltiple debe ser métrica en la discriminatoria puede ser nominal o
categórica.
En la de regresión múltiple las VI pueden incluir diversas mediciones métricas como edad,
ingresos, escolaridad
Objetivos

- Determinar si hay diferencias estadísticamente significativas entre los perfiles de


calificación discriminatoria promedio de dos o más grupos (usuarios y no usuarios)
- Establecer un modelo para clasificar a los individuos u objetos en grupos con base en los
valores de las VI
- Establecer hasta que grado se explica la diferencia en los perfiles de calificación promedio
de 2 o más grupos mediante cada VI
La ecuación general es: Donde:
Z= Calificación discriminatoria
𝑏1−𝑛 = Pesos discriminatorios
Z= 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑏3 𝑋3 … … . 𝑏𝑛 𝑋𝑛
𝑋1−𝑛 = Variables Independientes
Calificación discriminatoria (Z): Es la base para predecir a que grupo pertenece determinado
objeto o individuo

Coeficientes de discriminación o pesos discriminatorios: Estimación del poder


discriminatorio de una VI específica; se determina por la estructura de la varianza de las
variables de la ecuación
Las VI con alta potencia discriminatoria Pesos más
(diferencias grandes entre los grupos); Tienen altos
tienen pesos más altos
Pesos más
Las VI con pequeña potencia Tienen
bajos
discriminatoria
El analista debe decidir que variables espera que estén asociadas con la probabilidad de
que un objeto o persona se encuentre dentro de las diversas categorías de grupos

Existen pruebas estadísticas que permiten saber si la clasificación resultante es


mejor de lo que podría esperarse por casualidad.
Uno de estos métodos simples es la aplicación del criterio de probabilidad
proporcional, cuando el tamaño de los grupos es desigual y su objetivo es
predecir correctamente la membresía de dos grupos
𝐶𝑝𝑟𝑜 + 𝑃2 − (1 − 𝑃)2

Donde:
P= Proporción de individuos en el grupo 1
1-P = Proporción de individuos den el grupo 2
Cuando el porcentaje de la tabla es mayor que el calculado, indica que el
modelo funciona mejor de los que podría esperarse por casualidad
Análisis grupal
Es un conjunto de técnicas para identificar objetos o personas similares en cuanto a ciertas
variables o mediciones
Su objetivo es clasificar los objetos o personas en diversos grupos mutuamente exclusivos y
exhaustivos, de manera que las personas incluidas en el grupo tengan el máximo de
semejanza entre ellas, es decir, los grupos deben ser de alta homogeneidad interna (dentro
del grupo) y de alta heterogeneidad externa (entre grupos)
No se trabaja con una variable dependiente
Procedimiento para formar grupos
El método consiste en medir las semejanzas entre las personas u objetos con respecto a los
valores de las variables que se emplean para formar grupos
La semejanza de personas u objetos que se agrupan de acuerdo con algún tipo de medida
de distancia
Los grupos pueden formarse a partir de gráficas de dispersión, aunque es muy tedioso y se
basa en prueba y error, este proceso se complica a medida que aumentan las variables que
se emplean para formar los grupos o el número de objetos que se agrupan
Este procedimiento ya se lo realiza por algoritmos
Análisis factorial

El objetivo del análisis factorial, es el de simplificar los datos, por la reducción de un conjunto
de variables a otro conjunto más pequeño de factores o variables compuestas, mediante la
identificación de dimensiones subyacentes a los datos
𝑆𝑖𝑙𝑒𝑛𝑐𝑖𝑜 𝑒𝑛 𝑒𝑙 𝑣𝑖𝑎𝑗𝑒
𝑉𝑖𝑎𝑗𝑒 𝑎𝑔𝑟𝑎𝑑𝑎𝑏𝑙𝑒
Ej: Lujo de un auto
𝐴𝑙𝑓𝑜𝑚𝑏𝑟𝑎 𝑑𝑒 𝑙𝑢𝑗𝑜
𝑇𝑎𝑝𝑖𝑧 𝑑𝑒 𝑐𝑢𝑒𝑟𝑜
Si exigen varias mediciones de un concepto, se pueden sumar para desarrollar una
codificación compuesta o calcular una calificación promedio del concepto.

Calificaciones factoriales
El análisis factorial produce uno o más «factores» o variables compuestas cuando se aplica
a diversas variables
Factor: Es una combinación lineal de variables.
Es un resumen ponderado de un conjunto de variables relacionadas
En el análisis factorial cada medición se pondera primero según el grado con que contribuye a
la variación de cada factor
En un análisis factorial se calcula la calificación factorial de cada sujeto para cada factor en el
conjunto de datos
Ej.: de ecuaciones utilizadas
F1= 0,40𝐴1 + 0,30𝐴2 + 0,02 𝐴3 + 0,05𝐴4
F2= 0,01𝐴1 + 0,04𝐴2 + 0,45 𝐴3 + 0,37𝐴4
Con estas ecuaciones se calculan 2 calificaciones factoriales a cada sujeto que sustituyen a las
calificaciones que dieron para las variables A1 a An en cada ecuación
Los coeficientes de las ecuaciones, son los coeficientes de calificación factorial que se aplican
a las calificaciones individuales.

Ej: A1 y A2 en la primera ecuación tienen pesos grandes y A3 y A4 tienen pesos pequeños

Estas ecuaciones también indican que A1 y A2 son relativamente independientes de A3 y A4


Cargas factoriales
La naturaleza de los factores derivados se determina examinando las cargas factoriales
Estas se determinan calculando la correlación ( que puede variar de 1 a -1) entre cada
calificación factorial (F1 y F2) y cada una de las variables de calificación originales
Cada coeficiente de correlación representa la carga sobre cierto factor de la variable asociada
Nombres de los factores
El nombramiento de los factores es algo subjetivo y requiere una combinación de intuición y
conocimiento de las variables, también se debe tomar en cuenta cuales tienen cargas altas
sobre cada factor
Cuantos factores se requieren
El resultado puede incluir desde 1 factor hasta el mismo número de variables, pero se debe
tomar en cuenta para la decisión el porcentaje de variación de los datos originales explicable
por cada factor.
La regla de decisión más adecuada, es la de dejar de factorizar cuando los factores adicionales
carecen de sentido
ANÁLISIS MULTIFACTORIAL DE VARIANZA.

El análisis multifactorial de varianza (ANCOVA) también denominado análisis de covarianza


permite la comparación de más de dos variables entre si con el propósito de comprobar
tanto el efecto de las variables como el efecto de interacción entre ellas.
El ANCOVA es utilizado para analizar los resultados de investigaciones de tipo
experimental que aplican un diseño factorial.

En este tipo de diseños se analizan los efectos combinados de dos o más variables
independientes.

Para realizar un ANCOVA se necesita obtener:


b1) La suma total de cuadrados.
b2) La suma de cuadrados entre grupos.
b3) La suma de cuadrados dentro de grupos.
b4) La suma de cuadrados entre columnas.
La suma de cuadrados entre hileras que se
expresa matemáticamente mediante
la ecuación:
La suma de la interacción de los cuadrados “... es la parte de la desviación entre las medias
de los grupos y la media total que no se debe ni a las diferencias de las hileras ni a las
diferencias de las columnas,” (D”Ary, Jacobs y Razavieh, 1982, p. 164). Se define
matemáticamente mediante la expresión:
Determinar el número de grados de libertad asociados a cada puntuación de
variación:
1) Suma de cuadrados entre columnas
2) Suma de cuadrados entre hileras mediante la ecuación:
donde:
gl = r - 1

gl = grados de libertad
r = hileras
3) Suma de la interacción de los cuadrados por medio de la expresión:

donde:

gl = (c-1)(r – 1) gl = grados de libertad


r = hileras
C= columnas
4) Suma de cuadrados entre grupos
mediante la ecuación:
gl = G -1

donde:
gl = grados de libertad
G = grupos

5) Suma total de cuadrados definido por la


expresión:
gl = N -1

donde:
gl = grados de libertad
N = columnas
EJEMPLO

Se desea investigar como influye un


programa de incentivación económica en
la productividad de la mano de obra de
una compañía de servicios de impresión,
formando cuatro grupos de trabajadores
aleatoriamente. Los integrantes de dos
de los grupos son menores de 24 años y
los integrantes del resto del grupo
mayores de 24 años. Los datos obtenidos
se muestran en la Tabla
Formato para obtener la Razón F
Para la varianza entre columnas la razón Fo = 5.69 > Fc = 4.49 por consiguiente no
se acepta la hipótesis de nulidad. La razón F calculada (Fo) es significativa a nivel a
= 0.05.

Para la varianza entre hileras la razón Fo = 15.13 > Fc = 4.49 por lo que no se
acepta la hipótesis nula. La razón F es altamente significativa a nivel a = 0.05.

Para la varianza de la interacción la razón Fo = 15.03 > Fc = 4.49 por lo que no se acepta la
hipótesis de nulidad. La razón F es altamente significativa a nivel a = 0.05.

Los anteriores resultados permiten concluir que existe evidencia estadística para establecer
como conclusión que la incentivación económica tiene influencia significativa en el
aumento de la productividad de los empleados de la compañía de servicios de impresión.

Este efecto se presenta tanto en trabajadores menores de 24 años como en


los mayores de 24 años.

También podría gustarte