Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
Las variables pueden clasificarse de varias formas: las variables cuantitativas (sean de intervalo o razón)
pueden a su vez clasificarse en variables discretas y variables continuas, en función del número de valores
asumibles por ellas. Una variable discreta es aquella que adopta valores aislados. Por tanto, fijados dos
consecutivos, no puede tomar ninguno intermedio (hijos)
c) El valor esperado de una variable binomial se obtiene a partir de las propiedades de la
suma de variables aleatorias y de la definición del valor esperado. Dado que una binomial
es la suma de una secuencia de n valores, y cada uno de ellos puede considerarse una
variable aleatoria dicotómica, su valor esperado será igual a la suma de los valores
esperados de cada una de ellas
Distribución multinomial: Da lugar a más de 2 resultados (politomía). Es una secuencia de
n ensayos independientes e igualmente distribuidos en los que cada uno puede dar lugar a
𝑘 resultados distintos con probabilidades 𝜋𝑘 .
• Simétrica respecto al valor central (𝜇), en ese valor coinciden la media, mediana y
la moda.
• Es asintótica con respecto al eje de abscisas, nunca llega a tocar el eje.
• Hay varias curvas normales, la más importante es la que tiene media 0 y desviación
típica 1, se denomina distribución normal unitaria.
• Los puntos de inflexión se encuentran en los puntos correspondientes a la media
± 1 desvio.
• Cualquier combinación lineal de variables aleatorias normales, se ajusta también a
este modelo.
Para hallar las probabilidades se aplica el teorema de tipificación: según el cual la
función de distribución asociada a un valor de una variable aleatoria (x), con distribución
normal, es la misma función de distribución de la tipificada de ese valor en la normal
unitaria y se construyeron tablas para ello. Para obtener las áreas asociadas a un valor de
cualquier otra distribución normal basta con tipificar ese valor y acudir con la z obtenida a
la tabla correspondiente. Para referirse a un valor concreto de la distribución normal
unitaria, se utiliza z, con el subíndice correspondiente a la probabilidad acumulada para
ese valor.
El trabajo con variables aleatorias normales se reduce a la obtención de las probabilidades
de obtener el área derecha de ese valor, el área izquierda o un valor comprendido entre 2
valores concretos.
El procedimiento consiste en aplicar el teorema y consultar la tabla.
La distribución normal se utiliza también para obtener por aproximación las
probabilidades asociadas a otros modelos.
Botella Cap. 8 – Correlación lineal.
La observación de relaciones claras y estables entre las variables, ayuda a la comprender
los fenómenos y a encontrar explicaciones de los mismos e indica las vías probablemente
más eficaces para intervenir sobre las situaciones.
Se dice que dos variables X e Y mantienen una relación lineal directa cuando los valores
altos en Y tienden a emparejarse con los valores altos de X, los valores intermedios de Y
con los intermedios de X; y los valores bajos de Y con los valores bajos de X. Ejemplo:
rendimiento e inteligencia.
Se dice que dos variables X e Y mantienen una relación lineal inversa cuando los valores
altos de Y se emparejan con los valores bajos de X, los valores intermedios de Y con los
intermedios de X; y los valores bajos de Y con los valores altos de X. Ejemplo: tiempo
invertido y errores cometidos.
Se dice que hay una relación lineal nula entre dos variables cuando no hay
emparejamiento sistemático entre ellas en función a sus valores. Ejemplo: estatura e
inteligencia (no tienen nada que ver entre sí).
El coeficiente de variación de Pearson: El coeficiente de correlación de Pearson es una
medida de la relación lineal entre dos variables aleatorias cuantitativas. Es un instrumento
adecuado para la tarea de detectar y cuantificar la relación entre series de observaciones.
Indica los problemas referentes a la variación de dos variables, su intensidad y su sentido.
Sus gráficos se denominan Diagramas de Dispersión, y la configuración de puntos
resultantes Nube de Puntos. El coeficiente de correlación puede valer cualquier número
comprendido entre -1 y +1
Relación lineal directa: Se detecta entre dos variables cuando covarían en el mismo
sentido., a valores bajos de una de ellas corresponden valores bajos de los otros, medios
medios y altos y altos.
Relación lineal inversa: Se detecta entre dos variables cuando covarían en sentido
contrario. Valores altos con bajos, y bajos con altos.
Relación lineal nula: No hay relación lineal.
La suma de productos indica el sentido de la relación lineal. Si el coeficiente tiene signo
positivo el sentido es directo, si el coeficiente tiene signo negativo el sentido es inverso. Si
es 0 no están asociadas de manera lineal.
• La cuantía que se refiere al grado en el que la relación entre dos variables queda
bien descripta con un índice de asociación lineal como r.
• El sentido que se refiere al tipo de relación. Una correlación en torno a 0 indica una
relación lineal nula, una positiva indica relación lineal derecha y una negativa
indica relación lineal inversa. Cuanto más cercano a 0 quede el coeficiente, menos
apto es al modelo lineal para describir la relación entre las variables. Cuanto más
se acerque a los extremos, mejor la describe.
Pardo y San Martín Cap. 3 – Contraste de hipótesis
ANÁLISIS DE DATOS EN PSICOLOGÍA –CONTRASTE DE HIPÓTESIS
El objetivo último del análisis de datos es el de extraer conclusiones de tipo general a
partir de unos pocos datos particulares. Es decir, el de extraer conclusiones sobre las
propiedades de una población a partir de la información contenida en una muestra
procedente de esa población. Este salto de lo concreto (la muestra) a lo general (la
población) se conoce con el nombre de inferencia estadística.
Dos formas básicas de inferencia estadística: la estimación de parámetros y el contraste de
hipótesis.
La estimación de parámetros es el proceso consistente en asignar a las propiedades
desconocidas de una población las propiedades conocidas de una muestra extraída de esa
población.
El contraste de hipótesis es un proceso mediante el cual se trata de comprobar si una
afirmación sobre alguna propiedad poblacional puede ser sostenida a la luz de la
información muestral disponible. Puede ser entendido como un método de toma de
decisiones, es un procedimiento que nos permite decidir si una proposición acerca de una
población puede ser mantenida o debe ser rechazada.
Surgido el problema, el paso siguiente en aventurar algún tipo de solución al mismo. Esta
solución provisional suele tomar forma de afirmación directamente verificable (es decir,
empíricamente contrastable) en la que se establece de forma operativa el
comportamiento de la variable o las variables involucradas en el problema. Esa afirmación
verificable recibe el nombre de hipótesis científica y el proceso para verificarla es el
contraste de hipótesis.
La lógica del contraste de hipótesis:
El 1er paso consiste en formular estadísticamente la hipótesis científica que se desea
contrastar. Es decir, transformarla en hipótesis estadística.
El 2do paso consiste en buscar evidencia empírica relevante, capaz de informar sobre si la
hipótesis establecida es o no sostenible, y lo será si la hipótesis es compatible con los
datos empíricos, cuando a partir de ella sea posible deducir un resultado muestral con
precisión.
Una discrepancia entre la afirmación y el resultado muestral encontrado puede estar
indicado por 2 cosas:
- La hipótesis es correcta y la discrepancia se debe al producto de fluctuaciones
esperables por azar.
- La hipótesis es incorrecta y es incapaz de proporcionar predicciones acertadas.
La clave está en determinar cuando la discrepancia encontrada es lo bastante grande para
considerar al resultado muestral incompatible con la hipótesis.
Para eso está el 3er paso que consiste en establecer una regla de decisión en términos de
probabilidad (por trabajar con muestras, en lugar de poblaciones). El número es ilimitado
casi. La regla de decisión será una afirmación del tipo: “Si el resultado muestral es muy
poco probable, la hipótesis es incompatible con los datos”, “Si el resultado muestral es
probable, la hipótesis es compatible con los datos”.
HIPÓTESIS ESTADÍSTICA
Una hipótesis estadística es una afirmación sobre una o más distribuciones de
probabilidad; más concretamente, sobre la forma de una o más distribuciones de
probabilidad, o sobre el valor de uno o más parámetros de esas distribuciones. La
hipótesis estadística se suele representar por la letra H seguida de una información que le
da contenido. Surge a partir de una hipótesis científica. La primera proporciona la base
para la formulación de la segunda, pero no son la misma cosa. Mientras una hipótesis
científica se refiere a algún aspecto de la realidad, una hipótesis estadística se refiere a
algún aspecto de una distribución de probabilidad. Por ejemplo, en lugar del promedio
podríamos utilizar la Mdn.
Todo contraste de hipótesis se basa en la formulación de 2 hipótesis: Hipótesis nula (𝐻0 ) y
la hipótesis alternativa (𝐻1 ).
Hipótesis nula: Es la hipótesis que se somete al contraste, es una afirmación concreta
sobre la forma de una distribución, es exacta. (Tal cosa es igual a tal otra)
Hipótesis alternativa: Es la negación de la nula, incluye lo que la nula excluye y es
inexacta. (Tal cosa es distinta, mayor o menor que otra)
Cuando en Hi (hipótesis alternativa) aparece el signo “distinto” decimos que el contraste
es bilateral o bidireccional. Cuando en Hi (hipótesis alternativa) aparece los signos “mayor
o menor”, decimos que el contraste es unilateral o unidireccional. La hipótesis nula y
alternativa suelen plantearse como hipótesis rivales. Son exhaustivas y mutuamente
exclusivas, lo cual implica que si una es verdadera, la otra es necesariamente falsa. El signo
de igualdad siempre va en la hipótesis nula
Supuestos:
Para que una hipótesis estadística pueda predecir un resultado muestral con cierta
exactitud es necesario, en primer lugar, que la distribución poblacional con la que se va a
trabajar esté completamente especificada. Son hipótesis simples las que especifican por
completo las distribuciones poblacionales a las que hacen referencia. Las hipótesis en las
que la distribución poblacional no queda completamente especificada reciben el nombre
de compuestas. Lo ideal es plantear hipótesis nulas simples, pero ocurre que ni los
intereses del investigador se corresponden siempre con el contenido de una hipótesis
simple.
Los supuestos de un contraste de hipótesis son un conjunto de afirmaciones que
necesitamos establecer (sobre la población de partida y sobre la muestra utilizada) para
conseguir determinar la distribución de probabilidad en la que se basará nuestra decisión
sobre Ho.
Algunos de estos supuestos son más restrictivos o exigentes que otros. Es importante
tener presente que el incumplimiento de uno o varios supuestos podrían invalidad el
contraste y llevarnos a una decisión errónea. Conviene, por tanto, que los supuestos sean
pocos y poco exigentes.
ESTADÍSTICO DE CONTRASTE
Es un resultado muestral que cumple la doble condición de:
1- Proporcionar información empírica relevante sobre la afirmación en la 𝐻0 .
2- Poseer una distribución muestral conocida, ya que es donde nos vamos a apoyar
para tomar una decisión, para contrastar la hipótesis lo razonable será utilizar la
información muestral proporcionada por el estadístico.
Una vez planteadas las hipótesis, es necesario seleccionar el estadístico de contraste
capaz de proporcionar información relevante sobre ellas y establecer los supuestos
necesarios para determinar la distribución. Existen 2 estadísticos: 𝑇1 = 𝑥 y 𝑇2 = 𝑝.
Los estadísticos x y p sirven como estadísticos de contraste para poner a prueba 𝐻0
porque ambos cumplen con las condiciones.
REGLA DE DECISIÓN:
Es un criterio para decidir si la hipótesis debe ser o no rechazada. Se basa en la partición
de la distribución muestral del estadístico en 2 zonas:
1- Zona de rechazo o crítica: Es el área de la distribución muestral que corresponde a
los valores del estadístico de contraste que se encuentran tan alejados de la
afirmación de 𝐻0 que es muy poco probable que ocurran si 𝐻0 es verdadera. Su
probabilidad es 𝛼 (nivel de riesgo).
2- Zona de aceptación: Es el área de la distribución que corresponde a los valores
próximos a la afirmación de 𝐻0 , es probable que ocurran si 𝐻0 es verdadera. Su
probabilidad es de 1 − 𝛼 (nivel de confianza).
Esta regla consiste en rechazar 𝐻0 si el estadístico toma valores de la zona de rechazo y
mantenerla si el estadístico toma valores de la zona de aceptación
El tamaño de las zonas se determina fijando el valor de 𝑎 (𝐴𝑙𝑓𝑎) (nivel de significación).
Dependiendo la formulación de H1 los contrastes pueden ser bilaterales o unilaterales. La
distribución se divide dependiendo el tipo de contraste. La zona crítica debe estar donde
aparecen los valores incompatibles con 𝐻0 , en los bilaterales se encuentra repartida en
partes iguales entre las 2 colas de la distribución. En unilaterales se encuentra en una de
las dos colas de la distribución muestral.
Se rechaza una hipótesis sometida a contraste cuando el valor del estadístico de contraste
cae en la zona crítica; y se rechaza porque eso significa que el valor tomado por el
estadístico de contraste se aleja demasiado de la predicción establecida por esa hipótesis,
es decir, porque, si la hipótesis planteada fuera verdadera, el estadístico de contraste no
debería haber tomado ese valor; como de hecho el estadístico ha tomado es el valor, la
conclusión más razonable será que la hipótesis planteada no es verdadera. El tamaño de
las zonas de rechazo y aceptación se determina fijando el valor de alfa, es decir, fijando el
valor de significación con el que se desea trabajar. Alfa será, necesariamente, un valor
pequeño
La decisión:
El paso siguiente consiste en obtener una muestra aleatoria de tamaño n, calcular el
estadístico de contraste y tomar la decisión con respecto a 𝐻0 .
Una decisión consiste en rechazar o mantener H0 . Si la rechazamos, la hipótesis es falsa
con una probabilidad 𝛼 de equivocarnos.
Si la mantenemos afirmamos que no disponemos de evidencia para rechazarla y por lo
tanto es compatible con los datos.
La razón de que sea así de doble es:
1- Es imposible afirmar que 𝐻1 no es verdadera, porque las pequeñas desviaciones de
𝐻0 forman parte de 𝐻1 . Por eso 𝐻0 se mantiene o no rechaza.
2- Por la falacia de afirmación del consecuente, T puede haber tomado un valor
comprendido entre a y b por diferentes razones contenidas en 𝐻0 .
Para determinar una afirmación verdadera se plante como 𝐻1 y rechazamos 𝐻0 .
Errores de tipo I y II:
Llamamos errores de tipo I al que se comete al rechazar una 𝐻0 verdadera. La
probabilidad de cometer este error es 𝛼.
Errores de tipo II al que se comete cuando se mantiene una 𝐻0 falsa. La probabilidad de 𝛽.
1 − 𝛼 es la probabilidad de mantener una 𝐻0 verdadera.
1 − 𝛽 es la probabilidad de rechazar una 𝐻0 falsa.
La probabilidad de cometer un error tipo I es conocida, 𝛼 es fijada por el investigador. La
probabilidad de cometer un error de tipo II es desconocida, depende de: la verdadera H1 ,
el valor de 𝛼 y el tamaño del error típico de la distribución muestral utilizada para efectuar
el contraste.
1- Cuanto más se aleje el valor 𝜇1 de 𝜇0 más hacia la derecha se desplaza la curva,
más pequeña es el área de 𝛽. El valor de 𝛽 depende de la hipótesis alternativa que
consideremos verdadera.
2- El tamaño del área de 𝛽 depende del valor de 𝛼. Los valores 𝛼 y 𝛽 se relacionan de
forma inversa, cuanto mayor 𝛼 menor 𝛽. Cuanto menor 𝛼 mayor 𝛽.
3- El tamaño del área depende del error típico. El solapamiento entre las curvas de
uno u otro parámetro será mayor cuanto mayor sea el error típico y mayor será el
valor de 𝛽.
Una disminución del solapamiento, menor error típico y menor 𝛽.
Si tienen el mismo error típico, mismo tamaño de 𝛽.