Está en la página 1de 13

Estadística inferencial

Botella – Capitulo 11: Probabilidad


El azar tiene que ver con aquellos eventos cuyo resultado no podemos predecir con
certeza, y a los que nosotros llamaremos experimentos aleatorios. Lo que depende del
azar, y por tanto, da sentido al término aleatorio en este contexto, es el procedimiento de
extracción de un individuo y sólo uno, de los que componen la población. Todo
experimento aleatorio tiene dos o más resultados posibles, que nosotros llamaremos
sucesos elementales. En un experimento que tuviera solo un resultado posible no habría
incertidumbre y por tanto, no podríamos hablar de experimento aleatorio. La realización
de un experimento aleatorio da lugar a un suceso elemental, y sólo uno, de entre los
posibles. Al conjunto de los resultados posibles de un experimento aleatorio, o sucesos
elementales, se le llama espacio muestral y se representa por E.
Se llama verificación de un suceso elemental al hecho de que la realización del
experimento aleatorio produzca ese suceso elemental. Sobre los espacios muestrales,
como conjuntos que son, se pueden definir subconjuntos, que denominaremos sucesos y
los representaremos por letras mayúsculas. Aunque para definir un suceso basta con
definir un subconjunto cualquiera de E, normalmente los sucesos con los que
trabajaremos se constituirían con los sucesos elementales que cumplen alguna condición,
y no de forma arbitraria. Un suceso se verificará cuando el experimento aleatorio de lugar
a uno de los sucesos elementales que integran el subconjunto que lo define. En algunas
ocasiones se definen sucesos a partir de subconjuntos vacíos. Este tipo de sucesos reciben
el nombre de suceso imposible. En otras ocasiones definen sucesos cuyo subconjunto
constituyente está formado por todos los elementos del espacio muestral. Este tipo de
sucesos reciben el nombre de suceso seguro. Vamos a definir operaciones sobre sucesos
que utilizaremos a partir de aquí:
a) Llamaremos unión de dos sucesos al subconjunto E formado por sucesos elementales
que integran los subconjuntos de al menos uno de esos sucesos.
b) Llamaremos intersección de dos sucesos al subconjunto de E formado por los sucesos
elementales que pertenecen simultáneamente a ambos sucesos. Cuando la intersección
de dos sucesos es un subconjunto vacío se dice que son sucesos incompatibles o
exclusivos.
c) Llamaremos diferencia de dos sucesos al subconjunto E integrado por los sucesos
elementales que pertenecen al primero, pero no al segundo.
d) Llamaremos complementario de un suceso al subconjunto de E integrado por los
sucesos elementales no incluidos en ese suceso. En términos generales representaremos
por n al número de sucesos elementales que integran el espacio muestral, y por na al
número de sucesos elementales que constituyen el suceso A.
Tipos de espacio muestral: Los espacios muéstrales se clasifican en espacios muéstrales
finitos e infinitos y a su vez estos últimos se subdividen en numerables y no numerables.

• Espacios muéstrales finitos: un espacio muestral es finito si tiene un número de


sucesos elementales finito.
• Espacios muéstrales infinitos numerables. Tiene infinitos sucesos elementales
pero estos pueden ponerse en correspondencia biunívoca con los números
naturales.
• Espacios muéstrales infinitos no numerables. Tiene infinitos sucesos elementales
pero éstos no pueden ponerse en correspondencia biunívoca con los números
naturales.
PROBABILIDAD: El concepto de probabilidad hace referencia a como los eventos
puntuales que tienen resultados inciertos, al estudiar su repetición un número grande
veces, comienzan a tener resultados globalmente previsibles, y a mostrarse sujetos a
ciertas leyes. La probabilidad es un concepto ideal, pues se refiere a las frecuencias con las
que ocurrirían las cosas en el caso hipotético de que los eventos se repitiesen un número
infinitamente grande de veces y en las mismas condiciones. La confianza puesta en cada
uno de los elementos posibles en la próxima realización del evento debe ser proporcional
al número de repeticiones que cada una de esas alternativas se darían en el futuro. La
asignación de números a esos grados de confianza depositados en la obtención de cada
resultado es la clave del concepto de probabilidad: La probabilidad de un suceso es un
número que cuantifica en términos relativos las opciones de verificación de ese suceso.
Las opciones se cuantifican en términos relativos para que sean números comparables
(oscilan entre 0 y 1). Los sucesos posibles pero raros obtienen 0 y los que son casi seguros,
valores cercanos a 1.
El enfoque clásico: Exige la aceptación del principio de indiferencia, según el cual todos
los elementos tienen las mismas opciones de ser verificados al realizar el experimento.
Con esto se define la probabilidad como la frecuencia relativa de ese suceso en el espacio
maestral.
Propiedades:

• a) La probabilidad de un suceso es un valor que oscila entre 0 y 1.


• b) Un suceso que no contiene ningún suceso elemental tiene una probabilidad
igual a 0, y por ello recibe el nombre de suceso imposible.
• c) Un suceso que contiene todos los sucesos elementales del espacio muestral
tiene una probabilidad igual a 1 y por ello recibe el nombre de suceso seguro.
• d) La suma de las probabilidades de un suceso y su complementario es igual a 1.
El enfoque frecuencialista: No siempre puede asumir el principio de indiferencia. La
probabilidad se determina mediante una operación de repetición sistemática del
experimento aleatorio y de conteo del número de veces que se verifican los sucesos. El
número de veces que se realiza el experimento debe ser infinitamente grande.
La diferencia entre los enfoques es que, en el primero, n era el tamaño de la muestra y en
el segundo, el número de repetición del experimento aleatorio.

Botella - Capitulo 12: Variables aleatorias.


Una variable aleatoria es una función que asocia un número real, y sólo uno, a cada
suceso elemental del espacio muestral de un experimento aleatorio.
La variable se compondría del emparejamiento de cada suceso elemental y la experiencia
asociada a cada uno de ellos. Cualquier emparejamiento de este tipo, definido sobre un
espacio muestral en el que nunca se repita el mismo elemento en dos pares, todos los
sucesos elementales están incluidos en algún par y en el que el segundo elemento de cada
par sea un número real, es una variable aleatoria.
Se representa por letras mayúsculas, pero para referirse a un valor cualquiera se usa
minúscula y un subíndice que designe ese valor concreto.
Hay variables aleatorias discretas y continuas. Las primeras se definen sobre espacios
muéstrales finitos o infinitos numerables. En cambio, las continuas, sobre espacios
muéstrales infinitos no numerables
Botella - Capitulo 13: Modelos de distribución de probabilidad.
Para variables discretas1: Existen 3 modelos. La distribución uniforme, binomial y
multinomial.
Distribución uniforme: Las variables aleatorias discretas se distribuyen según el modelo
uniforma, es decir, si todos los valores con probabilidad no nula son equiprobables.
Si la variable es uniforme, su valor esperado es igual al promedio entre los valores máximo
y mínimo.
Distribución binomial: Para que la distribución de probabilidad de una variable se ajuste al
modelo binomial deben cumplirse una serie de requisitos.
El primero es que se base en una variable dicotómica. Esta variable dicotómica no es
todavía la variable nominal, pero su presencia es imprescindible para la generación de
ésta. Una variable dicotómica es una variable que solo admite dos valores, y que
habitualmente son los valores 1 y 0. Estas variables de base pueden ser auténticas
variables dicotómicas o variables dicotomizadas artificialmente. Las variables que están en
la base de una variable binomial pueden definirse como aquellas que adoptan la regla de
asignar un 1 si se cumple una cierta condición y un 0 si no se cumple.
El segundo requisito es que haya una repetición de n ensayos de la variable dicotómica en
los que la probabilidad de que cada repetición se verifique la condición, y por tanto se
asigne un 1, sea constante. A la probabilidad de verificación de la condición en cada
ensayo independiente la representaremos por µ.
El tercer y último requisito es que se defina una variable X, como el “número de casos que
en la secuencia de n ensayos dicotómicos verifican la condición especificada, o lo que es lo
mismo, el número de unos observados.
De la forma de generar una variable aleatoria binomial se deducen algunas de sus
características:
a) Los valores de una variable binomial oscilan entre 0 y n, donde n es el número de
ensayos dicotómicos realizados. Es decir, el numero más pequeño posible de casos en los
que se verifica la condición es ninguno y el máximo de todos.
b) Si representamos el resultado de cada ensayo dicotómico con ceros y unos, el valor que
adopta la variable X no es más que la suma de esa secuencia de unos y ceros.

1
Las variables pueden clasificarse de varias formas: las variables cuantitativas (sean de intervalo o razón)
pueden a su vez clasificarse en variables discretas y variables continuas, en función del número de valores
asumibles por ellas. Una variable discreta es aquella que adopta valores aislados. Por tanto, fijados dos
consecutivos, no puede tomar ninguno intermedio (hijos)
c) El valor esperado de una variable binomial se obtiene a partir de las propiedades de la
suma de variables aleatorias y de la definición del valor esperado. Dado que una binomial
es la suma de una secuencia de n valores, y cada uno de ellos puede considerarse una
variable aleatoria dicotómica, su valor esperado será igual a la suma de los valores
esperados de cada una de ellas
Distribución multinomial: Da lugar a más de 2 resultados (politomía). Es una secuencia de
n ensayos independientes e igualmente distribuidos en los que cada uno puede dar lugar a
𝑘 resultados distintos con probabilidades 𝜋𝑘 .

MODELOS PARA VARIABLES CONTINUAS


La mayor parte de las técnicas inferenciales que se utilizan para la investigación en
psicología tienen distribuciones de probabilidad que se ajustan a las de los modelos
teóricos para variables continuas. La curva normal, además de ser un instrumento para la
inferencia estadística, es el modelo al que se ajustan muchas variables de interés en
psicología.
Distribución normal: Es también conocida como la distribución de Gauss. La estatura, el
peso, el CI, etc. Son variables que se ajustan a este modelo.
En la representación gráfica existe un valor central (la media) entorno a la cual se
concentran la mayor parte de los individuos y los valores más alejados a ésta son menos
frecuentes. Refleja la mediocridad en las características y solo pocos sobresalen.
Los errores tuvieron especial importancia en la curva, pueden calcularse sacando la
diferencia entre la medición hecha y la cantidad real. Cuanto mayor es un error con menor
frecuencia se observa.
Una variable aleatoria se distribuye según el modelo normal, con parámetros (𝜇 𝑦 𝜎).
Las variables cuya distribución se ajusta al modelo normal adoptan una representación
gráfica:

• Simétrica respecto al valor central (𝜇), en ese valor coinciden la media, mediana y
la moda.
• Es asintótica con respecto al eje de abscisas, nunca llega a tocar el eje.
• Hay varias curvas normales, la más importante es la que tiene media 0 y desviación
típica 1, se denomina distribución normal unitaria.
• Los puntos de inflexión se encuentran en los puntos correspondientes a la media
± 1 desvio.
• Cualquier combinación lineal de variables aleatorias normales, se ajusta también a
este modelo.
Para hallar las probabilidades se aplica el teorema de tipificación: según el cual la
función de distribución asociada a un valor de una variable aleatoria (x), con distribución
normal, es la misma función de distribución de la tipificada de ese valor en la normal
unitaria y se construyeron tablas para ello. Para obtener las áreas asociadas a un valor de
cualquier otra distribución normal basta con tipificar ese valor y acudir con la z obtenida a
la tabla correspondiente. Para referirse a un valor concreto de la distribución normal
unitaria, se utiliza z, con el subíndice correspondiente a la probabilidad acumulada para
ese valor.
El trabajo con variables aleatorias normales se reduce a la obtención de las probabilidades
de obtener el área derecha de ese valor, el área izquierda o un valor comprendido entre 2
valores concretos.
El procedimiento consiste en aplicar el teorema y consultar la tabla.
La distribución normal se utiliza también para obtener por aproximación las
probabilidades asociadas a otros modelos.
Botella Cap. 8 – Correlación lineal.
La observación de relaciones claras y estables entre las variables, ayuda a la comprender
los fenómenos y a encontrar explicaciones de los mismos e indica las vías probablemente
más eficaces para intervenir sobre las situaciones.
Se dice que dos variables X e Y mantienen una relación lineal directa cuando los valores
altos en Y tienden a emparejarse con los valores altos de X, los valores intermedios de Y
con los intermedios de X; y los valores bajos de Y con los valores bajos de X. Ejemplo:
rendimiento e inteligencia.
Se dice que dos variables X e Y mantienen una relación lineal inversa cuando los valores
altos de Y se emparejan con los valores bajos de X, los valores intermedios de Y con los
intermedios de X; y los valores bajos de Y con los valores altos de X. Ejemplo: tiempo
invertido y errores cometidos.
Se dice que hay una relación lineal nula entre dos variables cuando no hay
emparejamiento sistemático entre ellas en función a sus valores. Ejemplo: estatura e
inteligencia (no tienen nada que ver entre sí).
El coeficiente de variación de Pearson: El coeficiente de correlación de Pearson es una
medida de la relación lineal entre dos variables aleatorias cuantitativas. Es un instrumento
adecuado para la tarea de detectar y cuantificar la relación entre series de observaciones.
Indica los problemas referentes a la variación de dos variables, su intensidad y su sentido.
Sus gráficos se denominan Diagramas de Dispersión, y la configuración de puntos
resultantes Nube de Puntos. El coeficiente de correlación puede valer cualquier número
comprendido entre -1 y +1
Relación lineal directa: Se detecta entre dos variables cuando covarían en el mismo
sentido., a valores bajos de una de ellas corresponden valores bajos de los otros, medios
medios y altos y altos.
Relación lineal inversa: Se detecta entre dos variables cuando covarían en sentido
contrario. Valores altos con bajos, y bajos con altos.
Relación lineal nula: No hay relación lineal.
La suma de productos indica el sentido de la relación lineal. Si el coeficiente tiene signo
positivo el sentido es directo, si el coeficiente tiene signo negativo el sentido es inverso. Si
es 0 no están asociadas de manera lineal.

En la interpretación de una correlación hay que separar dos aspectos:

• La cuantía que se refiere al grado en el que la relación entre dos variables queda
bien descripta con un índice de asociación lineal como r.
• El sentido que se refiere al tipo de relación. Una correlación en torno a 0 indica una
relación lineal nula, una positiva indica relación lineal derecha y una negativa
indica relación lineal inversa. Cuanto más cercano a 0 quede el coeficiente, menos
apto es al modelo lineal para describir la relación entre las variables. Cuanto más
se acerque a los extremos, mejor la describe.
Pardo y San Martín Cap. 3 – Contraste de hipótesis
ANÁLISIS DE DATOS EN PSICOLOGÍA –CONTRASTE DE HIPÓTESIS
El objetivo último del análisis de datos es el de extraer conclusiones de tipo general a
partir de unos pocos datos particulares. Es decir, el de extraer conclusiones sobre las
propiedades de una población a partir de la información contenida en una muestra
procedente de esa población. Este salto de lo concreto (la muestra) a lo general (la
población) se conoce con el nombre de inferencia estadística.
Dos formas básicas de inferencia estadística: la estimación de parámetros y el contraste de
hipótesis.
La estimación de parámetros es el proceso consistente en asignar a las propiedades
desconocidas de una población las propiedades conocidas de una muestra extraída de esa
población.
El contraste de hipótesis es un proceso mediante el cual se trata de comprobar si una
afirmación sobre alguna propiedad poblacional puede ser sostenida a la luz de la
información muestral disponible. Puede ser entendido como un método de toma de
decisiones, es un procedimiento que nos permite decidir si una proposición acerca de una
población puede ser mantenida o debe ser rechazada.
Surgido el problema, el paso siguiente en aventurar algún tipo de solución al mismo. Esta
solución provisional suele tomar forma de afirmación directamente verificable (es decir,
empíricamente contrastable) en la que se establece de forma operativa el
comportamiento de la variable o las variables involucradas en el problema. Esa afirmación
verificable recibe el nombre de hipótesis científica y el proceso para verificarla es el
contraste de hipótesis.
La lógica del contraste de hipótesis:
El 1er paso consiste en formular estadísticamente la hipótesis científica que se desea
contrastar. Es decir, transformarla en hipótesis estadística.
El 2do paso consiste en buscar evidencia empírica relevante, capaz de informar sobre si la
hipótesis establecida es o no sostenible, y lo será si la hipótesis es compatible con los
datos empíricos, cuando a partir de ella sea posible deducir un resultado muestral con
precisión.
Una discrepancia entre la afirmación y el resultado muestral encontrado puede estar
indicado por 2 cosas:
- La hipótesis es correcta y la discrepancia se debe al producto de fluctuaciones
esperables por azar.
- La hipótesis es incorrecta y es incapaz de proporcionar predicciones acertadas.
La clave está en determinar cuando la discrepancia encontrada es lo bastante grande para
considerar al resultado muestral incompatible con la hipótesis.
Para eso está el 3er paso que consiste en establecer una regla de decisión en términos de
probabilidad (por trabajar con muestras, en lugar de poblaciones). El número es ilimitado
casi. La regla de decisión será una afirmación del tipo: “Si el resultado muestral es muy
poco probable, la hipótesis es incompatible con los datos”, “Si el resultado muestral es
probable, la hipótesis es compatible con los datos”.
HIPÓTESIS ESTADÍSTICA
Una hipótesis estadística es una afirmación sobre una o más distribuciones de
probabilidad; más concretamente, sobre la forma de una o más distribuciones de
probabilidad, o sobre el valor de uno o más parámetros de esas distribuciones. La
hipótesis estadística se suele representar por la letra H seguida de una información que le
da contenido. Surge a partir de una hipótesis científica. La primera proporciona la base
para la formulación de la segunda, pero no son la misma cosa. Mientras una hipótesis
científica se refiere a algún aspecto de la realidad, una hipótesis estadística se refiere a
algún aspecto de una distribución de probabilidad. Por ejemplo, en lugar del promedio
podríamos utilizar la Mdn.
Todo contraste de hipótesis se basa en la formulación de 2 hipótesis: Hipótesis nula (𝐻0 ) y
la hipótesis alternativa (𝐻1 ).
Hipótesis nula: Es la hipótesis que se somete al contraste, es una afirmación concreta
sobre la forma de una distribución, es exacta. (Tal cosa es igual a tal otra)
Hipótesis alternativa: Es la negación de la nula, incluye lo que la nula excluye y es
inexacta. (Tal cosa es distinta, mayor o menor que otra)
Cuando en Hi (hipótesis alternativa) aparece el signo “distinto” decimos que el contraste
es bilateral o bidireccional. Cuando en Hi (hipótesis alternativa) aparece los signos “mayor
o menor”, decimos que el contraste es unilateral o unidireccional. La hipótesis nula y
alternativa suelen plantearse como hipótesis rivales. Son exhaustivas y mutuamente
exclusivas, lo cual implica que si una es verdadera, la otra es necesariamente falsa. El signo
de igualdad siempre va en la hipótesis nula
Supuestos:
Para que una hipótesis estadística pueda predecir un resultado muestral con cierta
exactitud es necesario, en primer lugar, que la distribución poblacional con la que se va a
trabajar esté completamente especificada. Son hipótesis simples las que especifican por
completo las distribuciones poblacionales a las que hacen referencia. Las hipótesis en las
que la distribución poblacional no queda completamente especificada reciben el nombre
de compuestas. Lo ideal es plantear hipótesis nulas simples, pero ocurre que ni los
intereses del investigador se corresponden siempre con el contenido de una hipótesis
simple.
Los supuestos de un contraste de hipótesis son un conjunto de afirmaciones que
necesitamos establecer (sobre la población de partida y sobre la muestra utilizada) para
conseguir determinar la distribución de probabilidad en la que se basará nuestra decisión
sobre Ho.
Algunos de estos supuestos son más restrictivos o exigentes que otros. Es importante
tener presente que el incumplimiento de uno o varios supuestos podrían invalidad el
contraste y llevarnos a una decisión errónea. Conviene, por tanto, que los supuestos sean
pocos y poco exigentes.
ESTADÍSTICO DE CONTRASTE
Es un resultado muestral que cumple la doble condición de:
1- Proporcionar información empírica relevante sobre la afirmación en la 𝐻0 .
2- Poseer una distribución muestral conocida, ya que es donde nos vamos a apoyar
para tomar una decisión, para contrastar la hipótesis lo razonable será utilizar la
información muestral proporcionada por el estadístico.
Una vez planteadas las hipótesis, es necesario seleccionar el estadístico de contraste
capaz de proporcionar información relevante sobre ellas y establecer los supuestos
necesarios para determinar la distribución. Existen 2 estadísticos: 𝑇1 = 𝑥 y 𝑇2 = 𝑝.
Los estadísticos x y p sirven como estadísticos de contraste para poner a prueba 𝐻0
porque ambos cumplen con las condiciones.
REGLA DE DECISIÓN:
Es un criterio para decidir si la hipótesis debe ser o no rechazada. Se basa en la partición
de la distribución muestral del estadístico en 2 zonas:
1- Zona de rechazo o crítica: Es el área de la distribución muestral que corresponde a
los valores del estadístico de contraste que se encuentran tan alejados de la
afirmación de 𝐻0 que es muy poco probable que ocurran si 𝐻0 es verdadera. Su
probabilidad es 𝛼 (nivel de riesgo).
2- Zona de aceptación: Es el área de la distribución que corresponde a los valores
próximos a la afirmación de 𝐻0 , es probable que ocurran si 𝐻0 es verdadera. Su
probabilidad es de 1 − 𝛼 (nivel de confianza).
Esta regla consiste en rechazar 𝐻0 si el estadístico toma valores de la zona de rechazo y
mantenerla si el estadístico toma valores de la zona de aceptación
El tamaño de las zonas se determina fijando el valor de 𝑎 (𝐴𝑙𝑓𝑎) (nivel de significación).
Dependiendo la formulación de H1 los contrastes pueden ser bilaterales o unilaterales. La
distribución se divide dependiendo el tipo de contraste. La zona crítica debe estar donde
aparecen los valores incompatibles con 𝐻0 , en los bilaterales se encuentra repartida en
partes iguales entre las 2 colas de la distribución. En unilaterales se encuentra en una de
las dos colas de la distribución muestral.
Se rechaza una hipótesis sometida a contraste cuando el valor del estadístico de contraste
cae en la zona crítica; y se rechaza porque eso significa que el valor tomado por el
estadístico de contraste se aleja demasiado de la predicción establecida por esa hipótesis,
es decir, porque, si la hipótesis planteada fuera verdadera, el estadístico de contraste no
debería haber tomado ese valor; como de hecho el estadístico ha tomado es el valor, la
conclusión más razonable será que la hipótesis planteada no es verdadera. El tamaño de
las zonas de rechazo y aceptación se determina fijando el valor de alfa, es decir, fijando el
valor de significación con el que se desea trabajar. Alfa será, necesariamente, un valor
pequeño
La decisión:
El paso siguiente consiste en obtener una muestra aleatoria de tamaño n, calcular el
estadístico de contraste y tomar la decisión con respecto a 𝐻0 .
Una decisión consiste en rechazar o mantener H0 . Si la rechazamos, la hipótesis es falsa
con una probabilidad 𝛼 de equivocarnos.
Si la mantenemos afirmamos que no disponemos de evidencia para rechazarla y por lo
tanto es compatible con los datos.
La razón de que sea así de doble es:
1- Es imposible afirmar que 𝐻1 no es verdadera, porque las pequeñas desviaciones de
𝐻0 forman parte de 𝐻1 . Por eso 𝐻0 se mantiene o no rechaza.
2- Por la falacia de afirmación del consecuente, T puede haber tomado un valor
comprendido entre a y b por diferentes razones contenidas en 𝐻0 .
Para determinar una afirmación verdadera se plante como 𝐻1 y rechazamos 𝐻0 .
Errores de tipo I y II:
Llamamos errores de tipo I al que se comete al rechazar una 𝐻0 verdadera. La
probabilidad de cometer este error es 𝛼.
Errores de tipo II al que se comete cuando se mantiene una 𝐻0 falsa. La probabilidad de 𝛽.
1 − 𝛼 es la probabilidad de mantener una 𝐻0 verdadera.
1 − 𝛽 es la probabilidad de rechazar una 𝐻0 falsa.
La probabilidad de cometer un error tipo I es conocida, 𝛼 es fijada por el investigador. La
probabilidad de cometer un error de tipo II es desconocida, depende de: la verdadera H1 ,
el valor de 𝛼 y el tamaño del error típico de la distribución muestral utilizada para efectuar
el contraste.
1- Cuanto más se aleje el valor 𝜇1 de 𝜇0 más hacia la derecha se desplaza la curva,
más pequeña es el área de 𝛽. El valor de 𝛽 depende de la hipótesis alternativa que
consideremos verdadera.
2- El tamaño del área de 𝛽 depende del valor de 𝛼. Los valores 𝛼 y 𝛽 se relacionan de
forma inversa, cuanto mayor 𝛼 menor 𝛽. Cuanto menor 𝛼 mayor 𝛽.
3- El tamaño del área depende del error típico. El solapamiento entre las curvas de
uno u otro parámetro será mayor cuanto mayor sea el error típico y mayor será el
valor de 𝛽.
Una disminución del solapamiento, menor error típico y menor 𝛽.
Si tienen el mismo error típico, mismo tamaño de 𝛽.

La distribución de la media es normal con parámetros 𝜇 y 𝜎|√𝑛, lo que significa que


disminuyendo 𝜎 o aumentando n se disminuye el error típico de la media y se reduce la
probabilidad de cometer un error de tipo II.

También podría gustarte